30 resultados para alimentação automática

em Archivo Digital para la Docencia y la Investigación - Repositorio Institucional de la Universidad del País Vasco


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ES]El proyecto descrito en este documento consiste en la investigación sobre la viabilidad de detección automática de pulso y respiración a partir de la señal de aceleración, medida mediante un acelerómetro posicionado bien en la carótida o en el pecho del paciente. El motivo de la utilización de la aceleración está principalmente en el bajo costo y por la tecnología sencilla de los acelerómetros. En este documento se explica cómo se ha montado una plataforma para la adquisición de las señales de aceleración y el electrocardiograma emitido por el corazón, en sujetos sanos. Con la base de señales adquirida se ha diseñado un método basado en el dominio de la frecuencia para detectar la presencia de pulso y respiración. Los resultados son prometedores y confirman la posibilidad de desarrollar estos detectores. Las herramientas desarrolladas podrán ser utilizadas para análisis futuros y para seguir avanzando en este estudio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] Se estudian las características comunes y específicas de los gestores personales de bases de datos de referencias bibliográficas más utilizados: Reference Manager, EndNote, ProCite, RefWorks y EndNote Web. Los Apartados analizados son: la entrada de datos, el control de autoridades, los comandos de edición global, la personalización de algunos aspectos de las bases de datos, la exportación de las referencias, la visualización de los Registros, la inserción de citas bibliográficas y la generación automática de bibliografías.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] Este proyecto contiene información obtenida en el siguiente trabajo de documentación geométrica de un elemento patrimonial:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

373 p. : il., gráf., fot., tablas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Duración (en horas): De 41 a 50 horas. Destinatario: Estudiante y Docente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] En este trabajo se expone una metodología para modelar un sistema Multi-Agente (SMA), para que sea equivalente a un sistema de Ecuaciones Diferenciales Ordinarias (EDO), mediante un esquema basado en el método de Monte Carlo. Se muestra que el SMA puede describir con mayor riqueza modelos de sistemas dinámicos con variables cuantificadas discretas. Estos sistemas son muy acordes con los sistemas biológicos y fisiológicos, como el modelado de poblaciones o el modelado de enfermedades epidemiológicas, que en su mayoría se modelan con ecuaciones diferenciales. Los autores piensan que las ecuaciones diferenciales no son lo suficientemente apropiadas para modelar este tipo de problemas y proponen que se modelen con una técnica basada en agentes. Se plantea un caso basado en un modelo matemático de Leucemia Mieloide Crónica (LMC) que se transforma en un SMA equivalente. Se realiza una simulación de los dos modelos (SMA y EDO) y se compara los resultados obtenidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XX1 CUIEET - Congreso Universitario de Innovación Educativa en las Enseñanzas Técnicas, Valencia, 2013.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante

Relevância:

10.00% 10.00%

Publicador:

Resumo:

166 p.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Castellano: A lo largo de este proyecto se ha desarrollado un sistema de bajo coste para la tomade electrocardiogramas y posterior visualización de los mismos en un dispositivo Android. Además se ha creado un módulo inteligente capaz de realizar un diagnóstico de manera automática y razonada sobre los datos recogidos. El proyecto se ha realizado principalmente sobre tecnologías abiertas: Arduino como componente central del sistema electrónico, Android para visualizar datos en una plataforma móvil y CLIPS como motor sobre el cual se ha desarrollado el sistema experto que realiza el diagnóstico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desarrollo del módulo SW-BAAN4 del programa Integración CAD-ERP

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este proyecto es la detección automática de objetos de interés en imágenes aéreas de zonas urbanas mediante el uso de descriptores característicos. Los descriptores considerados para esta tarea han sido los histogramas color y los descriptores LBP (Local Binary Pattern), así como la concatenación de ambos dando lugar a descriptores híbridos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.