Saltar navegación e ir al contenido principal
Biblioteca digital de Bogotá
Logo BibloRed
Cargando contenido
¿Qué estás buscando?
  • Escribe palabras clave como el título de un contenido, un autor o un tema que te interese.

  • Búsqueda avanzada

Seleccionar

Contenidos y Experiencias Digitales

Filtrar

Formatos de Contenido
Tipo de colección
Género
Idioma
Derechos de uso

Selecciona contenidos según las condiciones legales para su uso y distribución.

Estás filtrando por

Cargando contenido

Se encontraron 110737 resultados en recursos

Compartir este contenido

Salud Ocupacional en tiempos de Covid-19

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Usage of the common mango agroindustrial waste (mangifera indica L.) in the destraction of fermentables sugars

Usage of the common mango agroindustrial waste (mangifera indica L.) in the destraction of fermentables sugars

Por: Universidad EAFIT | Fecha: 2020

El residuo del mango común (Mangifera indica L.) es un material vegetal que contiene gran cantidad de tejido lignocelulósico, el cual puede ser aprovechado para la obtención de metabolitos fermentables y productos de la fermentación. En este trabajo se aplicaron tratamientos de hidrólisis del residuo del mango común con el fin de hacer la conversión de sus polisacáridos a unidades de azúcares fermentables. Se aplicó hidrólisis ácida a tres concentraciones diferentes de ácido sulfúrico diluido. También, se aplicó hidrólisis enzimática con dos tipos de enzimas comerciales a diferentes concentraciones en las condiciones de trabajo estándar. De igual manera se aplicó hidrólisis térmica a dos temperaturas diferentes. A cada tratamiento aplicado se le efectuaron pruebas de concentración de azúcares totales, concentración de azúcares reductores, porcentaje de celulosa y hemicelulosa residual, datos con los cuales se determinaron los mejores tratamientos y se procedió a efectuar combinaciones de los mejores tratamientos de hidrólisis. El tratamiento más significativo de las pruebas individuales fue el de hidrólisis ácida a 0,50 % v/v de ácido sulfúrico a 80oC por una hora. En los tratamientos combinados el resultado más significativo fue el tratamiento en el que se combinaron la hidrólisis enzimática (como pretratamiento) más una hidrólisis térmica e hidrólisis ácida. Por razones de seguridad en el uso de reactivos, así como eliminación de efectos colaterales adversos para la fermentación alcohólica posterior, se selección el procedimiento que involucra la hidrólisis térmica como pretratamiento y la hidrólisis enzimática como tratamiento principal, como el tratamiento de mejor aplicación en la producción de metabolitos fermentables a partir de residuos de mango común con finalidad producción de alcohol posteriormente.Estudios posteriores han permitido abordar la hidrólisis por vía microbiana con Aspergillus niger y Trichoderma viride, así como la fermentación alcohólica post tratamiento hidrolítico usando los estudios previos. La hidrólisis y fermentación alcohólica simultáneas, y más recientemente y en ejecución la simultaneidad de los procesos adicionando una levadura recombinante que tiene capacidad de fermentar azúcares de cinco carbonos.1 INTRODUCCIÓNEl estudio presentado es un preámbulo del proyecto ?Aprovechamiento de los residuos agroindustriales en la producción de metabolitos de alto valor agregado?, el cual puede ser un gran elemento de partida para la mejor utilización de los recursos y la disminución de la contaminación ambiental generada por la industria colombiana, y en particular por la agroindustria de pulpas y jugos.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Usage of the common mango agroindustrial waste (mangifera indica L.) in the destraction of fermentables sugars

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Aplicación de visualización de una ontología para el dominio del análisis del semen humano

Aplicación de visualización de una ontología para el dominio del análisis del semen humano

Por: Universidad EAFIT | Fecha: 2020

En este trabajo se presenta el diseño e implementación de una ontología para el dominio del análisis del semen humano, cuyo objetivo es representar, organizar, formalizar y estandarizar el conocimiento del dominio, para que éste pueda ser compartido y reutilizado por distintos grupos de personas y aplicaciones de software. Para visualizar la ontología se desarrolló una aplicación basada en una arquitectura cliente/servidor para ambientes Web, la cual está constituida por un módulo de Administración y otro de Acceso Público. A través del primero se mantiene el sitio Web de la ontología, mientras que el segundo permite a los usuarios acceder al conocimiento almacenado y a un conjunto de recursos tales como imágenes, videos, artículos relativos al dominio, manuales y protocolos de laboratorio. La arquitectura propuesta facilita la observación y recuperación de las complejas estructuras de conocimiento, así como la navegación y administración de la información representada en la ontología. El enfoque utilizado en el diseño de los mecanismos de recuperación de información está dirigido tanto a usuarios poco familiarizados con el vocabulario del dominio, como a aquellos que ya lo conocen. Está funcionalidades de especial interés dado lo heterogénea que resulta la audiencia a la que está dirigida la ontología, como son profesionales y estudiantes de las ciencias de la salud, entre otros. La metodología Methontology fue seleccionada para desarrollar la ontología y se utilizó el editor Protege para su implementación.1 INTRODUCCIÓNEl Análisis de Líquido Seminal (ALS) o espermograma es un estudio que se utiliza en la evaluación de la fertilidad masculina, detección de procesos infecciosos, monitoreo por vasectomía, realización de chequeos pre y post operatorios, entre otros. Consiste en la evaluación macroscópica y microscópica de una muestra de semen para determinar su estado general.Aun cuando en la mayoría de los laboratorios donde se realiza este tipo de estudio se siguen las normas básicas recomendadas por la Organización Mundial de la Salud (OMS) [1], las interpretaciones y reportes de los resultados obtenidos pueden presentar algunas diferencias, ya que ́estos dependen de la experiencia del profesional que evalúe la muestra, de la diversidad de las características de los varones (ubicación geográfica, factores ambientales que lo afectan, hábitos de vida, etc.), de los términos y vocabulario utilizados, así como del complejo conocimiento necesario para alcanzar los diagnósticos[2].
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Aplicación de visualización de una ontología para el dominio del análisis del semen humano

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Sistema de adquisición de datos para la medición de parámetros radioeléctricos en antenas lineales en la banda de TV de VHF y UHF

Sistema de adquisición de datos para la medición de parámetros radioeléctricos en antenas lineales en la banda de TV de VHF y UHF

Por: Universidad EAFIT | Fecha: 2020

Este proyecto desarrolla un sistema de adquisición y procesamiento de datos para la medición y ajuste de parámetros radioeléctricos antenas lineales en las bandas de VHF y UHF. Como señal de prueba se utilizan algunas de las señales de televisión que se encuentran en el espectro radioeléctrico, provenientes de los transmisores que radian señales de canales nacionales.El receptor implementado incluye un sintonizador comercial de televisión que toma como muestra la señal portadora de video. Esta señal es amplificada, filtrada, almacenada y acondicionada, para ser leída por el puerto serial de un computador personal y procesada empleando un programa en Visual Basic, con una interfaz gráfica que permite una interacción amigable con el usuario. Desde acá se interactúa con un microcontrolador que controla el mecanismo de posicionamiento de la antena receptora por medio de una estructura electromecánica, que le permite ejecutar movimientos en dos grados de libertad: en azimut y en elevación. Con esto se logra un sistema capaz de determinar automáticamente el apuntamiento óptimo de la antena de acuerdo al máximo nivel de recepción de señal. Asimismo, se determinan parámetros propios de la antena tales como: el patrón de radiación (tanto en el plano horizontal como vertical), la ganancia directiva de la antena, la ganancia en cada uno de los puntos que conforman el plano principal, y otros parámetros de interés para el análisis de las características reales de antenas lineales.1 INTRODUCCIÓNLas antenas son elementos imprescindibles en un sistema de radiocomunicaciones, ya que con su actuación como transductores de energía eléctrica en electromagnética y viceversa, son las interfaces entre los subsistemas transmisor y receptor, utilizando el espacio libre como medio de transmisión.Caracterizar una antena consiste en determinar sus parámetros radioeléctricos simulando las condiciones de la aplicación en donde esta funcionará, para verificar su eficiencia y su aporte como elemento constitutivo dentro de un radio enlace. Una de las principales características de una antena es su patrón de radiación, ya que permite visualizar como ésta emite o recibe las ondas electromagnéticas en diferentes direcciones [1].Los parámetros radioeléctricos de una antena lineal, incluyendo el patrón de radiación, pueden predecirse a partir de modelos teóricos y de técnicas de diseño o de análisis ya establecidas, incluso en programas de simulación. Sin embargo, dichas técnicas están sujetas a aproximaciones que limitan su aplicabilidad en determinados casos. Así mismo, cuando se hace un análisis teórico es difícil tener en cuenta los errores en la fabricación de las antenas, o determinar cómo pueden interferir el mástil, la estructura que soporta la antena, u otros elementos externos a ella.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Sistema de adquisición de datos para la medición de parámetros radioeléctricos en antenas lineales en la banda de TV de VHF y UHF

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Modelo de error en imágenes comprimidas Wavelet

Modelo de error en imágenes comprimidas Wavelet

Por: Universidad EAFIT | Fecha: 2020

En este artículo se presenta la compresión de imágenes a través de la comparación entre el modelo Wavelet y el modelo Fourier, utilizando la minimización donde la función de error. El problema que se estudia es específico, consiste en determinar una base {ei} que minimice la función de error entre la imagen original y la recuperada después de la compresión. Es de resaltar que existen muchas aplicaciones, por ejemplo, en medicina o astronomía, en donde no es aceptable ningún deterioro de la imagen porque toda la información contenida, incluso la que se estima como ruido, se considera imprescindible.1 INTRODUCCIÓNLas wavelets constituyen una potente herramienta para afrontar problemas fundamentales en el tratamiento de señales. Entre ellos se encuentran la reducción del ruido [1], la compresión de señales (de mucha importancia tanto en la transmisión de grandes cantidades de datos como en su almacenamiento)[2, 3, 4, 5], o la detección de determinados patrones o irregularidades locales en ciertos tipos de señales como electrocardiogramas, huellas digitales, vibraciones de motores, defectos de soldadura entre placas de acero, problemas de turbulencia de flujos, entre otras (ver [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11]). Esta moderna teoría ha experimentado un gran desarrollo en las dos ́ultimas décadas mostrándose muy eficiente donde otras técnicas no resultan satisfactorias, por ejemplo, la transformada rápida de Fourier.Algunos de los principales problemas que afectan el tratamiento de señales digitales es la compresión de datos para su almacenamiento o transmisión. La eliminación del ruido y detección de ciertos fenómenos locales [7, 12, 13, 14], ha permitido el desarrollo tanto teórico como computacional de este campo del análisis armónico. Otra de las principales virtudes de las wavelets es que permiten un mejor modelamiento de procesos que dependen fuertemente del tiempo y para los cuales su comportamiento no tiene porque ser suave. Una de las principales ventajas de las wavelets frente a los métodos clásicos, como la transformada de Fourier, es que en el segundo caso se maneja una base de funciones bien localizada en frecuencia pero no en tiempo, mientras que la mayoría de las wavelets interesantes presentan una buena localización en tiempo y en frecuencia, disponiendo incluso de bases de wavelets con soporte compacto [15, 16, 17, 18, 19, 20, 21, 22, 23, 24]. Por otro lado, no existe una transformada wavelet única, que resuelva todos los problemas a partir de la modelación del proceso de un análisis a priori del tipo de señal tratada y del objetivo pretendido (compresión, eliminación del ruido u otro); se busca la familia de wavelets (Haar, Daubechies, Coiflets,...) que mejor coincida con las características de la señal a estudiar (ver [16, 17, 18, 25, 26, 27]).
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Modelo de error en imágenes comprimidas Wavelet

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Representación paramétrica de la transformada de Fourier de tejidos textiles

Representación paramétrica de la transformada de Fourier de tejidos textiles

Por: Universidad EAFIT | Fecha: 2020

La naturaleza periódica de las imágenes de tejido textil permite el uso de las técnicas de la transformación de Fourier rápida para su clasificación. Debido a los patrones de repetición dentro de las imágenes del tejido textil, es posible encontrar una forma relativamente fácil de descripción para su densidad espectral de energía.Un trabajo previamente publicado permite mostrar el uso de descriptores para el espectro de Fourier de las imágenes, en particular su eficiencia a la invarianza a la rotación, traslación y cambio de escala [1].Dichos descriptores mostraron ser muy efectivos para representar un tejido textil y pueden ser utilizados para caracterizar texturas cuasi?periódicas mediante técnicas no destructivas en tiempo real e in situ. Muestras de texturas textiles son evaluadas con esta técnica de representación paramétrica con el propósito de analizar su robustez y reproducibilidad. Finalmente, un conjunto de tejidos textiles es sometido a este modelo con el objetivo de evaluar la posibilidad de utilizarlo para la clasificación, verificación y reconocimiento de formas.1 INTRODUCCIÓNUn tejido es el género obtenido en forma de lámina más o menos resistente, elástica y flexible, mediante el cruzamiento y enlace de dos series de hilos, una longitudinal y la otra transversal. Hay tejidos [2] que están formados por un solo hilo que se enlaza consigo mismo, como el género de punto por trama, el ganchillo, etcétera. Otros están formados por una serie de hilos, como el género de punto por urdimbre, algunos encajes, etcétera. Y los hay compuestos de dos o mas series de hilos, como ciertos tules. De entre estos últimos el más importante es el tejido corriente o común, que está formado por una serie longitudinal de hilos que se cruza y enlaza perpendicularmente con los de otra serie transversal. La serie longitudinal de hilos recibe el nombre de urdimbre y cada uno de los elementos que la constituyen se denomina hilo. La serie transversal recibe el nombre de trama y cada una de sus unidades se denomina pasada (figura 1). Cuando una imagen contiene estructuras periódicas, como es el caso de las imágenes de tejidos textiles que presentan un alto grado de periodicidad, su Transformada de Fourier (TF), tiene un aspecto característico representado con picos de intensidad correspondientes a las frecuencias espaciales de sus estructuras. Un análisis sencillo de Fourier podrá aportar valiosa información [3, 4]. De esta forma se propone el uso de Descriptores Geométricos para la TF digital, para llevar a cabo la caracterización de diversos tejidos y poder realizar clasificación de muestras independientemente de variaciones de rotación, traslación y cambio de escala.2 EL SISTEMA DE PROCEDIMIENTO DE UNA IMAGEN DE TEJIDO TEXTILEsta técnica efectúa un barrido directo del tejido por medio de una cámara de video obteniendo la imagen del tejido t(x, y).
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Representación paramétrica de la transformada de Fourier de tejidos textiles

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Obtención y caracterización de un polímero biodegradable a partir del almidón de yuca

Obtención y caracterización de un polímero biodegradable a partir del almidón de yuca

Por: Universidad EAFIT | Fecha: 2020

En esta investigación se obtiene un polímero biodegradable a partir del almidón de yuca al procesar mezclas de almidón modificado con glicerina y agua como plastificantes, utilizando un molino abierto y una extrusora de monohusillo. Las variables a controlar durante la extrusión son: perfil de temperatura, torque, y velocidad de rotación del husillo. Se evalúan características mecánicas y fisicoquímicas mediante ensayos de tensión, análisis térmicos de Calorimetría Diferencial de Barrido (DSC) y Análisis Termogravimétrico (TGA), Análisis  Infrarrojo por Transformadas de Fourier (FTIR) y morfología.IntroducciónLos polímeros sintéticos fueron inventados hace aproximadamente 60 años y desde entonces se han hecho numerosos progresos en el campo de sus aplicaciones. Una de sus características es su durabilidad lo cual constituye una desventaja debido a su persistencia en el medio durante muchos años, ocupando espacio en los rellenos sanitarios y causando daño al ambiente por la emisión de gases si se les incinera sin los cuidados necesarios. Por lo anterior, se han hecho grandes esfuerzos por desarrollar polímeros biodegradables con el fin de ofrecer otras alternativas a los polímeros convencionales en aplicaciones tales como empaques para alimentos y bolsas para basura [1].La mayoría de los polímeros sintéticos se producen a partir de compuestos petroquímicos y sus desperdicios permanecen en el medio ambiente produciendo un alto grado de contaminación y potenciales daños en la vida silvestre. El reciclaje de los plásticos convencionales es una forma de reducir el problema pero muchos empaques plásticos no pueden reciclarse fácilmente debido a que están contaminados con alimentos y tintas, así que es necesario limpiarlos previamente lo cual resulta costoso.Los desperdicios plásticos representan entre el 20 y el 40 % en volumen de los desechos sólidos municipales, en los países industrializados. El sector de empaque está muy interesado en encontrar disponibilidad en el mercado de empaque biodegradable, de bajo costo, debido a que la mayor demanda de plásticos procesados está en este sector siendo el mayor consumidor final el empaque de alimentos, seguido por la industria farmacéutica y de cosméticos.La ASTM D-5488-944 define la biodegradabilidad como la capacidad de un material de descomponerse en dióxido de carbono, metano, agua y componentes orgánicos, o biomasa, en el cual el mecanismo predominante es la acción enzimática de microorganismos, y puede medirse por ensayos estándares en un período específico de tiempo reflejado en condiciones disponibles de almacenamiento [2].
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Obtención y caracterización de un polímero biodegradable a partir del almidón de yuca

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Optimal reinforcing of reticular structures

Optimal reinforcing of reticular structures

Por: Universidad EAFIT | Fecha: 2020

Este artículo presenta una aplicación de Algoritmos Genéticos (GA) y Análisis de Elementos Finitos (FEA) para resolver un problema de optimización estructural en estructuras plásticas reticulares. La optimización estructural se utiliza para modificar la forma original colocando refuerzos en ubicaciones óptimas. Como resultado, se logró una reducción de la tensión máxima en un 14,70% para una estructura con un aumento de volumen final del 8,36%. Este procedimiento resuelve el problema de optimización estructural ajustando el molde original y evitando así la reconstrucción de uno nuevo molde.IntroducciónLa optimización de estructuras es un campo en expansión para las empresas que compiten por mejorar sus productos o por mejorar sus formas de fabricación. Entre los problemas de diseño, el uso de refuerzos para reparar estructuras es una solución utilizada en la práctica en diferentes campos como la Ingeniería Aeronáutica [1] y la Ingeniería Civil [2]. El principal problema es la ubicación y la forma de los refuerzos. Las técnicas de optimización se han aplicado a varios de estos casos. En [3] se utiliza un método de optimización basado en el gradiente para localizar de forma óptima los refuerzos metálicos soldados en placas planas. El método presentado reduce las concentraciones de tensiones en la placa, lo que permite reducir el espesor de la misma y supone un considerable ahorro de material. En [4] se utiliza un algoritmo genético para resolver un problema de refuerzo compuesto sobre placa metálica. El refuerzo consiste en un parche de material compuesto que se adhiere a la placa. Sus variables de optimización son la forma del parche y las orientaciones de las capas del composite.K. Jármai et al utilizan diferentes técnicas de optimización como leap-frog, LFOPC, Dynamic-Q, ETOPC, y particle swarm para mejorar el diseño de un elemento cilíndrico ortogonalmente rigidizado de una plataforma fija offshore [5]. Las variables de diseño consideradas en la optimización son el grosor del armazón, así como las dimensiones y el número de rigidizadores. Además de las restricciones estructurales, la función objetivo también tiene en cuenta el proceso de fabricación. Este estudio muestra que se puede conseguir un importante ahorro de costes mediante la rigidización ortogonal, ya que permite reducir considerablemente el grosor del armazón.A diferencia de los casos descritos anteriormente, el presente estudio se centra en la modificación de moldes de plástico ya construidos para producir estructuras de plástico reforzado. Este trabajo se aplica a las estructuras reticulares y utiliza Algoritmos Genéticos (AG) para buscar la disposición óptima.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Optimal reinforcing of reticular structures

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Propuesta alternativa para incluir un criterio de igualación de riesgos en el cómputo del despacho de energía para el mercado eléctrico colombiano

Propuesta alternativa para incluir un criterio de igualación de riesgos en el cómputo del despacho de energía para el mercado eléctrico colombiano

Por: Universidad EAFIT | Fecha: 2020

En  Colombia,  el  cálculo  del  despacho  de  generación es realizado en  cuatro etapas. En cada una de ellas se adicionan restricciones de seguridad y confiabilidad. Una de las características  más importantes del cálculo del despachos la inclusión de una política de igualación de riesgos. El despacho debe ser tal que los racionamientos relativos esperados en cada una de las subáreas del sistema, sean mínimos y cercanos al promedio aritmético. En este artículo se presenta un modelo de optimización  lineal que permite calcular  el despacho de generación en una sola etapa y que incluye esta política de igualación de riesgos.IntroducciónEl problema de la optimización en sistemas eléctricos de potencia, surge a partir del momento en que dos o más generadores deben alimentar varias cargas obligando al operador a decidir cómo se reparte la carga de forma óptima entre las distintas unidades. Históricamente, los primeros esfuerzos de optimización se hicieron respecto del control de la generación, lo que se conoce hoy como despacho económico clásico [1]. Posteriormente, la inclusión de criterios de seguridad dentro de los objetivos de explotación complicó en gran medida el problema de optimización, obligando al desarrollo de técnicas adecuadas a la complejidad del problema. El perfeccionamiento de las técnicas computacionales, fundamentalmente la introducción de técnicas para el tratamiento eficiente de matrices ralas, y el desarrollo de algoritmos matemáticos de optimización, junto con la mayor capacidad de procesamiento de los computadores, ha permitido la resolución de problemas cada vez más complejos. Esta evolución ha conducido a lo que hoy se conoce con el nombre de Flujo de Potencia óptimo (OPF, Optimal Power Flow ) [2].El concepto de OPF es usado en Colombia por el Centro Nacional de Despacho (CND), organismo responsable de realizar un despacho de generación económico, teniendo en cuenta restricciones de confiabilidad y seguridad. Las restricciones de confiabilidad se consideran al aplicar el criterio del Valor Esperado de Racionamiento Programado Condicionado (VERPC), mediante el cual se busca minimizar y nivelar los racionamientos esperados en las diferentes sub-áreas del sistema tras una contingencia simple. Dada la complejidad del cálculo del VERPC (pues se deben tener en cuenta los nuevos flujos tras cada una de las contingencias, y los racionamientos producidos por éstas), este criterio no se considera actualmente de manera implícita dentro del problema de optimización realizado por el CND.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Propuesta alternativa para incluir un criterio de igualación de riesgos en el cómputo del despacho de energía para el mercado eléctrico colombiano

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Una solución económica a los problemas de calidad del servicio del suministro de energía eléctrica

Una solución económica a los problemas de calidad del servicio del suministro de energía eléctrica

Por: Universidad EAFIT | Fecha: 2020

En este trabajo se propone una metodología para construir modelos híbridos de localización de fallas en sistemas de distribución de energía, esta metodología permitirá a las empresas de servicios públicos mejorar sus índices de calidad correspondientes a la continuidad del servicio energético (índices DES y FES). El modelo híbrido en metodología está compuesto por una técnica basada en el conocimiento (técnica LAMDA) y otra basada en el modelo (algoritmo de Ratan Das). La técnica LAMDA es una técnica basada en la inteligencia artificial que hereda características de la lógica difusa y las redes neuronales. El algoritmo de Rantan Das, es un algoritmo de localización de fallas que estima la localización de fallas a partir de fasores de tensión y corriente en el momento de la falla y además de algunos parámetros eléctricos del sistema de distribución. Lo novedoso de la metodología se centra en que con la implementación del modelo híbrido se mejora la precisión en la estimación de la ubicación de la falla, debido a que se reduce la estimación múltiple del algoritmo de ubicación de la falla por la técnica basada en el conocimiento. Finalmente, se presentan los resultados obtenidos en pruebas realizadas con un circuito de distribución de 24 kV y una longitud de 60 km, aproximadamente.IntroducciónA partir de los nuevos esquemas de regulación del sector eléctrico a nivel mundial, el problema de la calidad de la prestación del servicio de energía eléctrica se ha convertido en un foco de especial interés para las empresas distribuidoras y operadores de red. Esta situación obedece a la alta sensibilidad de los equipos eléctricos y electrónicos actuales, los cuales requieren de un suministro constante y continuo de energía, y que hacen parte de los diferentes procesos de control, producción y almacenamiento de información presentes para todo tipo de usuario, [1] y [2].El problema radica esencialmente en que las empresas de distribución no pueden implementar los algoritmos y esquemas existentes para la identificación y localización de fallas debido a que estos han sido realizados para ser implementados en sistemas de transmisión de energía eléctrica, los cuales poseen grandes diferencias en comparación con los sistemas de distribución, por ejemplo, estos últimos tienen una configuración radial, sus redes no son homogéneas, tienen presencia de múltiples cargas laterales y transformadores instalados a lo largo de los circuitos alimentadores. Por estas razones, no es posible obtener resultados confiables de estos algoritmos y esquemas al implementarlos en circuitos de distribución.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Una solución económica a los problemas de calidad del servicio del suministro de energía eléctrica

Copia el enlace o compártelo en redes sociales

Selecciona las Colecciones en las que vas a añadir el contenido

Para consultar los contenidos añadidos busca la opción Tus colecciones en el menú principal o en Mi perfil.

Mis colecciones

Cargando colecciones

¿Deseas limpiar los términos de la búsqueda avanzada?

Vas a limpiar los términos que has aplicado hasta el momento para poder rehacer tu búsqueda.

Selecciona las Colecciones en las que vas a añadir el contenido

Para consultar los contenidos añadidos busca la opción Tus colecciones en el menú principal o en Mi perfil.

Mis colecciones

Cargando colecciones