Saltar navegación e ir al contenido principal
Biblioteca digital de Bogotá
Logo BibloRed
Cargando contenido
¿Qué estás buscando?
  • Escribe palabras clave como el título de un contenido, un autor o un tema que te interese.

  • Búsqueda avanzada

Seleccionar

Contenidos y Experiencias Digitales

Filtrar

Formatos de Contenido
Tipo de colección
Género
Idioma
Derechos de uso

Selecciona contenidos según las condiciones legales para su uso y distribución.

Estás filtrando por

Cargando contenido

Se encontraron 110737 resultados en recursos

  • Exclusivo BibloRed
Imagen de apoyo de  A Link between the Increase in Electroencephalographic Coherence and Performance Improvement in Operating a Brain-Computer Interface

A Link between the Increase in Electroencephalographic Coherence and Performance Improvement in Operating a Brain-Computer Interface

Por: Hindawi Publishing Corporation | Fecha: 2015

Estudiamos la relación entre la coherencia electroencefalográfica (EEG) y la precisión en el manejo de una interfaz cerebro-ordenador (BCI). En nuestro caso, la BCI se controla mediante imágenes motoras. Para ello, se entrenó a varios voluntarios utilizando diferentes paradigmas de entrenamiento: retroalimentación visual clásica, estimulación auditiva y estimulación eléctrica funcional (FES). Después de cada sesión de entrenamiento, se evaluó la precisión de los voluntarios en el manejo de la ICB y se calculó la coherencia relacionada con los eventos (ErCoh) para todas las combinaciones posibles de pares de sensores de EEG. Después de al menos cuatro sesiones de entrenamiento, buscamos diferencias significativas en la precisión y la ErCoh utilizando un análisis de varianza (ANOVA) y pruebas de comparación múltiple. Nuestros resultados muestran que existe una alta correlación entre el aumento del ErCoh y la mejora del rendimiento, y este efecto se localiza principalmente en las regiones cerebrales centrofrontal y centroparietal para el caso de nuestra tarea de imágenes motoras. Este resultado tiene una implicación directa con el desarrollo de nuevas técnicas para evaluar el rendimiento del BCI y el proceso de selección de una modalidad de retroalimentación que mejore la capacidad del voluntario para operar un sistema BCI.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

A Link between the Increase in Electroencephalographic Coherence and Performance Improvement in Operating a Brain-Computer Interface

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  LogDet Rank Minimization with Application to Subspace Clustering

LogDet Rank Minimization with Application to Subspace Clustering

Por: Hindawi Publishing Corporation | Fecha: 2015

Las matrices de bajo rango son deseadas en muchos problemas de aprendizaje automático y visión por ordenador. La mayoría de los estudios recientes utilizan la norma nuclear como sustituto convexo del operador de rango. Sin embargo, todos los valores singulares son simplemente sumados por la norma nuclear, y por lo tanto el rango puede no ser bien aproximado en problemas prácticos. En este trabajo, proponemos utilizar una función log-determinante (LogDet) como una aproximación suave y más cercana, aunque no convexa, al rango para obtener una representación de bajo rango en la agrupación de subespacios. Se aplica la estrategia de multiplicadores de Lagrange aumentados para optimizar iterativamente la función objetivo no convexa basada en LogDet sobre datos potencialmente de gran escala. Haciendo uso de la información angular de las direcciones principales de la representación de bajo rango resultante, se construye una matriz gráfica de afinidad para el clustering espectral. Los resultados experimentales sobre datos de segmentación de movimiento y de agrupación de rostros demuestran que el método propuesto suele superar a los algoritmos de agrupación subespacial más avanzados.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

LogDet Rank Minimization with Application to Subspace Clustering

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  An Adaptive Image Enhancement Technique by Combining Cuckoo Search and Particle Swarm Optimization Algorithm

An Adaptive Image Enhancement Technique by Combining Cuckoo Search and Particle Swarm Optimization Algorithm

Por: Hindawi Publishing Corporation | Fecha: 2015

La mejora de la imagen es un procedimiento importante de procesamiento y análisis de imágenes. Este trabajo presenta una nueva técnica que utiliza una medida modificada y una mezcla de búsqueda de cuco y optimización de enjambre de partículas (CS-PSO) para imágenes de bajo contraste para mejorar la imagen de forma adaptativa. De este modo, la mejora del contraste se obtiene mediante la transformación global de las intensidades de entrada; emplea la función Beta incompleta como función de transformación y un criterio novedoso para medir la calidad de la imagen considerando tres factores que son el umbral, el valor de la entropía y la densidad de probabilidad de nivel de gris de la imagen. El proceso de mejora es un problema de optimización no lineal con varias restricciones. El CS-PSO se utiliza para maximizar el criterio de adecuación objetivo con el fin de mejorar el contraste y el detalle en una imagen mediante la adaptación de los parámetros de una nueva extensión de una técnica de mejora local. El rendimiento del método propuesto se ha comparado con otras técnicas existentes, como el estiramiento del contraste lineal, la ecualización del histograma y los métodos de mejora de la imagen basados en la computación evolutiva, como el algoritmo de búsqueda de rastreo, el algoritmo de búsqueda diferencial, el algoritmo genético y la optimización del enjambre de partículas, en términos de tiempo de procesamiento y calidad de la imagen. Los resultados experimentales demuestran que el método propuesto es robusto y adaptativo y presenta un mejor rendimiento que los demás métodos utilizados en el trabajo.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

An Adaptive Image Enhancement Technique by Combining Cuckoo Search and Particle Swarm Optimization Algorithm

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  An Extended Affinity Propagation Clustering Method Based on Different Data Density Types

An Extended Affinity Propagation Clustering Method Based on Different Data Density Types

Por: Hindawi Publishing Corporation | Fecha: 2015

El algoritmo de propagación de afinidad (AP), como método novedoso de clustering, no requiere que los usuarios especifiquen los centros de cluster iniciales por adelantado, lo que considera todos los puntos de datos como ejemplares potenciales (centros de cluster) por igual y agrupa los clusters totalmente por el grado de similitud entre los puntos de datos. Pero en muchos casos existen algunas áreas intensivas diferentes dentro del mismo conjunto de datos, lo que significa que el conjunto de datos no se distribuye homogéneamente. En esta situación, el algoritmo AP no puede agrupar los puntos de datos en clusters ideales. En este trabajo, proponemos un algoritmo de clustering AP ampliado para tratar este problema. Nuestro método consta de dos pasos: en primer lugar, el conjunto de datos se divide en varios tipos de densidad de datos de acuerdo con las distancias más cercanas de cada punto de datos y, a continuación, el método de clustering AP se utiliza, respectivamente, para agrupar los puntos de datos en clusters en cada tipo de densidad de datos. Se realizan dos experimentos para evaluar el rendimiento de nuestro algoritmo: uno utiliza un conjunto de datos artificiales y el otro un conjunto de datos sísmicos reales. Los resultados del experimento muestran que los grupos se obtienen con mayor precisión mediante nuestro algoritmo que el propio algoritmo de clustering OPTICS y AP.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

An Extended Affinity Propagation Clustering Method Based on Different Data Density Types

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Localized Ambient Solidity Separation Algorithm Based Computer User Segmentation

Localized Ambient Solidity Separation Algorithm Based Computer User Segmentation

Por: Hindawi Publishing Corporation | Fecha: 2015

La mayoría de los métodos de clustering más populares suelen tener algunas suposiciones fuertes del conjunto de datos. Por ejemplo, el método k-means asume implícitamente que todos los clusters provienen de distribuciones gaussianas esféricas que tienen diferentes medias pero la misma covarianza. Sin embargo, cuando se trata de conjuntos de datos que tienen formas de distribución diversas o una alta dimensionalidad, estas suposiciones podrían dejar de ser válidas. Para superar esta debilidad, propusimos un nuevo algoritmo de agrupación denominado algoritmo de separación de solidez ambiental localizada (LASS), que utiliza un nuevo criterio de aislamiento denominado distancia al centroide. En comparación con otros criterios de aislamiento basados en la densidad, nuestro criterio de aislamiento de distancia centroide propuesto aborda el problema causado por la alta dimensionalidad y la densidad variable. El experimento en un conjunto de datos de referencia bidimensional diseñado muestra que nuestro algoritmo LASS propuesto no sólo hereda la ventaja del método de agrupación de incrementos de disimilitud original para separar los clústeres naturalmente aislados, sino que también puede identificar los clústeres que son adyacentes, que se solapan y que están bajo ruido de fondo. Por último, comparamos nuestro algoritmo LASS con el método de agrupación por incrementos de disimilitud en un conjunto de datos masivos de usuarios de ordenadores con más de dos millones de registros que contienen información demográfica y de comportamiento. Los resultados muestran que el algoritmo LASS funciona muy bien en este conjunto de datos de usuarios de ordenadores y puede obtener más conocimientos de él.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Localized Ambient Solidity Separation Algorithm Based Computer User Segmentation

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Robust Adaptive Principal Component Analysis Based on Intergraph Matrix for Medical Image Registration

Robust Adaptive Principal Component Analysis Based on Intergraph Matrix for Medical Image Registration

Por: Hindawi Publishing Corporation | Fecha: 2015

Este trabajo propone un nuevo método de análisis de componentes principales adaptable y robusto (RAPCA) basado en la matriz intergráfica para el registro de imágenes con el fin de mejorar la robustez y el rendimiento en tiempo real. Las contribuciones pueden dividirse en tres partes. En primer lugar, se desarrolla un nuevo método RAPCA para capturar los patrones de estructura comunes basados en la matriz intergráfica de los objetos. En segundo lugar, se propone una medida de similitud robusta basada en el componente principal adaptativo. Por último, se deriva el algoritmo de registro robusto basado en el RAPCA. Los resultados experimentales muestran que el método propuesto es muy eficaz para capturar los patrones de estructura común para el registro de imágenes en el mundo real.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Robust Adaptive Principal Component Analysis Based on Intergraph Matrix for Medical Image Registration

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Study Partners Recommendation for xMOOCs Learners

Study Partners Recommendation for xMOOCs Learners

Por: Hindawi Publishing Corporation | Fecha: 2015

Los cursos masivos abiertos en línea (MOOC) ofrecen la oportunidad de acceder a cursos gratuitos ofrecidos por las mejores universidades del mundo y, por lo tanto, atraen una gran atención y compromiso por parte de profesores y estudiantes universitarios. Sin embargo, en contraste con la inscripción a gran escala, la tasa de finalización de estos cursos es realmente baja. Una de las razones por las que los estudiantes abandonan el proceso de aprendizaje son los problemas que se les plantean y que no se pueden resolver discutiéndolos con los compañeros. Para mantenerlos en el curso y mejorar así la tasa de finalización, abordamos la tarea de recomendar compañeros de estudio a los estudiantes basándonos tanto en la información de los contenidos como en la de las redes sociales. Mediante el análisis del contenido de los mensajes publicados por los alumnos en el foro de discusión del curso, investigamos las características del comportamiento de los alumnos para clasificarlos en tres grupos. A continuación, propusimos un modelo temático para medir el conocimiento del curso por parte de los alumnos. Por último, se construyó una red social basada en sus actividades en el foro del curso, y la relación en la red se empleó para recomendar compañeros de estudio para el alumno objetivo en combinación con sus características de comportamiento y conocimiento del curso. Los resultados del experimento demuestran que nuestro método consigue un mejor rendimiento que el método de recomendación basado únicamente en la información del contenido.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Study Partners Recommendation for xMOOCs Learners

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Solving Single Machine Total Weighted Tardiness Problem with Unequal Release Date Using Neurohybrid Particle Swarm Optimization Approach

Solving Single Machine Total Weighted Tardiness Problem with Unequal Release Date Using Neurohybrid Particle Swarm Optimization Approach

Por: Hindawi Publishing Corporation | Fecha: 2015

Se ha utilizado un algoritmo de optimización de enjambre de partículas (PSO) para resolver el problema de la tardanza total ponderada de una sola máquina (SMTWT) con fecha de salida desigual. Para encontrar las mejores soluciones se han utilizado tres enfoques de solución diferentes. Para preparar el sistema de solución subhíbrido, se han utilizado algoritmos genéticos (GA) y recocido simulado (SA). En el sistema subhíbrido (GA y SA), GA obtiene una solución en cualquier etapa, esa solución es tomada por SA y utilizada como solución inicial. Cuando SA encuentra una solución mejor que esta solución, deja de trabajar y da esta solución a GA de nuevo. Cuando el AG termina de trabajar, la solución obtenida se entrega a PSO. PSO busca una solución mejor que esta solución. Posteriormente, vuelve a enviar la solución obtenida al AG. Tres sistemas de solución diferentes trabajaron juntos. El sistema neurohíbrido utiliza PSO como optimizador principal y SA y GA se han utilizado como herramientas de búsqueda local. En cada etapa, los optimizadores locales se utilizan para realizar la explotación a la mejor partícula. Además de las herramientas de búsqueda local, se ha utilizado la regla de neurodominancia (NDR) para mejorar el rendimiento de la última solución del sistema híbrido-PSO. La NDR comprueba los trabajos secuenciales según el factor de retraso total ponderado. Todo el sistema se denomina sistema de solución neurohíbrido-PSO.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Solving Single Machine Total Weighted Tardiness Problem with Unequal Release Date Using Neurohybrid Particle Swarm Optimization Approach

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  The Advancing of Zinc Oxide Nanoparticles for Biomedical Applications

The Advancing of Zinc Oxide Nanoparticles for Biomedical Applications

Por: Hindawi | Fecha: 2018

Las nanopartículas de óxido de zinc (NPs de ZnO) se utilizan en un número cada vez mayor de productos industriales como el caucho, la pintura, el recubrimiento y los cosméticos. En las últimas dos décadas, las NPs de ZnO se han convertido en una de las nanopartículas de óxido metálico más populares en aplicaciones biológicas debido a su excelente biocompatibilidad, economía y baja toxicidad. Las NPs de ZnO han surgido con un potencial prometedor en biomedicina, especialmente en los campos anticancerígeno y antibacteriano, que están relacionados con su potente capacidad para desencadenar la producción de especies reactivas de oxígeno (ROS) en exceso, liberar iones de zinc e inducir la apoptosis celular. Además, el zinc es bien conocido por mantener la integridad estructural de la insulina. Por ello, las NPs de ZnO también se han desarrollado eficazmente para el tratamiento antidiabético. Además, las NPs de ZnO muestran excelentes propiedades luminiscentes y las han convertido en uno de los principales candidatos para la bioimagen. Aquí resumimos la síntesis y los recientes avances de las NPs de ZnO en los campos biomédicos, lo que será útil para facilitar sus futuros avances en la investigación y centrarse en los campos biomédicos.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

The Advancing of Zinc Oxide Nanoparticles for Biomedical Applications

Copia el enlace o compártelo en redes sociales

  • Exclusivo BibloRed
Imagen de apoyo de  Optimization Studies on Recovery of Metals from Printed Circuit Board Waste

Optimization Studies on Recovery of Metals from Printed Circuit Board Waste

Por: Hindawi | Fecha: 2018

El objetivo del estudio era recuperar el cobre y el plomo metálico de los residuos de placas de circuito impreso (PCB). El método de electrodeposición resulta ser un proceso de reciclaje eficaz para recuperar el cobre y el plomo metálicos de los residuos de placas de circuitos impresos. Para simplificar el proceso con equipos asequibles, se adoptó un método de operación de lixiviación amónica simple. Los PCB seleccionados se incineraron en polvo fino de ceniza a 500°C durante 1 hora en el reactor de pirólisis. A continuación, el polvo de ceniza fina se sometió a un proceso de lixiviación ácida para recuperar los metales con condiciones variables como la concentración ácido-base, la combinación de electrodos y el tiempo de lixiviación. La solución de electrólisis relativa de nitrato de plomo 0,1 M para el plomo y de sulfato de cobre 0,1 M para el cobre se utilizó para extraer los metales de los PCB a temperatura ambiente. La cantidad de plomo y cobre extraída en el proceso se determinó mediante un espectrofotómetro de absorción atómica, y los resultados obtenidos fueron 73,29y 82,17%, respectivamente. Además, se determinaron las condiciones óptimas para la recuperación de los metales mediante el software RSM. Los resultados mostraron que el porcentaje de recuperación de plomo y cobre era de 78,25y 89,1% debía ser de 4 horas 10 A/dm2.
Fuente: Revista Virtual Pro Formatos de contenido: Otros

Compartir este contenido

Optimization Studies on Recovery of Metals from Printed Circuit Board Waste

Copia el enlace o compártelo en redes sociales

Selecciona las Colecciones en las que vas a añadir el contenido

Para consultar los contenidos añadidos busca la opción Tus colecciones en el menú principal o en Mi perfil.

Mis colecciones

Cargando colecciones

¿Deseas limpiar los términos de la búsqueda avanzada?

Vas a limpiar los términos que has aplicado hasta el momento para poder rehacer tu búsqueda.

Selecciona las Colecciones en las que vas a añadir el contenido

Para consultar los contenidos añadidos busca la opción Tus colecciones en el menú principal o en Mi perfil.

Mis colecciones

Cargando colecciones