894 resultados para Algoritmos de minimização
Resumo:
This master dissertation presents the study and implementation of inteligent algorithms to monitor the measurement of sensors involved in natural gas custody transfer processes. To create these algoritmhs Artificial Neural Networks are investigated because they have some particular properties, such as: learning, adaptation, prediction. A neural predictor is developed to reproduce the sensor output dynamic behavior, in such a way that its output is compared to the real sensor output. A recurrent neural network is used for this purpose, because of its ability to deal with dynamic information. The real sensor output and the estimated predictor output work as the basis for the creation of possible sensor fault detection and diagnosis strategies. Two competitive neural network architectures are investigated and their capabilities are used to classify different kinds of faults. The prediction algorithm and the fault detection classification strategies, as well as the obtained results, are presented
Resumo:
Los protocolos de medición antropométrica se caracterizan por la profusión de medidas discretas o localizadas, en un intento para caracterizar completamente la forma corporal del sujeto -- Dichos protocolos se utilizan intensivamente en campos como medicina deportiva, forense y/o reconstructiva, diseño de prótesis, ergonomía, en la confección de prendas, accesorios, etc -- Con el avance de algoritmos de recuperación de formas a partir de muestreos (digitalizaciones) la caracterización antropométrica se ha alterado significativamente -- El articulo presente muestra el proceso de caracterización digital de forma corpórea, incluyendo los protocolos de medición sobre el sujeto, el ambiente computacional - DigitLAB- (desarrollado en el CII-CAD-CAM-CG de la Universidad EAFIT) para recuperación de superficies, hasta los modelos geométricos finales -- Se presentan comparaciones de los resultados obtenidos con DigitLAB y con paquetes comerciales de recuperación de forma 3D -- Los resultados de DigitLAB resultan superiores, debido principalmente al hecho de que este toma ventaja de los patrones de las digitalizaciones (planares de contacto, por rejilla de pixels - range images -, etc.) y provee módulos de tratamiento geométrico - estadístico de los datos para poder aplicar efectivamente los algoritmos de recuperación de forma -- Se presenta un caso de estudio dirigido a la industria de la confección, y otros efectuados sobre conjuntos de prueba comunes en el ámbito científico para la homologación de algoritmos
Resumo:
A partir da década de 1960 do século passado assiste-se a um acelerado processo de urbanização no Brasil e consequentemente de alterações do ambiente natural. São nas áreas urbanas que os processos de vulnerabilidade ambiental são acentuados. Essas vulnerabilidades, por sua vez, concorrem para a possibilidade de desastres ambientais com perdas de vidas e de propriedades e que acarretam prejuízos na ordem de milhões de dólares. Existem muitos projetos que tratam dessa temática, no entanto, a maioria enfatiza a vulnerabilidade social deixando a relação homem versus natureza num segundo plano. Naqueles trabalhos adaptam-se o conceito de vulnerabilidade ambiental para um patamar sociológico relacionando os aspectos demográficos com as possíveis fragilidades geográficas. Já esta proposta, utiliza a vertente sistêmica para tratar da fragilidade ambiental de determinado local. Um dos objetivos é o mapeamento das áreas urbanas da Região Metropolitana de Curitiba, Paraná, Brasil que apresentam vulnerabilidades e estão suscetíveis a desastres ambientais. Como objetivos específicos pretendem-se mapear as vulnerabilidades naturais e sócio-ambientais; disseminar a metodologia utilizada e elaborar mapas temáticos de vegetação, solos, geologia, geomorfologia, uso do solo, hidrologia, entre outros. Para alcançá-los a metodologia proposta é a analise sistêmica do meio físico, meio biológico e meio socioeconômico através da elaboração de uma base de dados georreferenciada com a utilização de sistemas de informações geográficas - SIG que permitam a análise e cruzamento desses dados para a geração das informações pretendidas. Numa primeira etapa foram realizadas observações em campo numa área vulnerável a inundação e escorregamento de encosta no Município de Almirante Tamandaré - Estado do Paraná para escolha da metodologia mais adequada.
Resumo:
Resumen: Se realiza una revisión sobre los antecedentes de las Redes Neuronales Artificiales (RNA) como método de análisis de bases de datos medioambientales, aplicado en las diversas áreas de la Ingeniería Ambiental en general y de Impacto Ambiental en particular. Se describe como ejemplo, la aplicación de RNA en los algoritmos de inversión de datos obtenidos por sensado remoto satelital, para la medición de variables geofísicas
Resumo:
[ES]La fibrilación ventricular (VF) es el primer ritmo registrado en el 40\,\% de las muertes súbitas por paro cardiorrespiratorio extrahospitalario (PCRE). El único tratamiento eficaz para la FV es la desfibrilación mediante una descarga eléctrica. Fuera del hospital, la descarga se administra mediante un desfibrilador externo automático (DEA), que previamente analiza el electrocardiograma (ECG) del paciente y comprueba si presenta un ritmo desfibrilable. La supervivencia en un caso de PCRE depende fundamentalmente de dos factores: la desfibrilación temprana y la resucitación cardiopulmonar (RCP) temprana, que prolonga la FV y por lo tanto la oportunidad de desfibrilación. Para un correcto análisis del ritmo cardiaco es necesario interrumpir la RCP, ya que, debido a las compresiones torácicas, la RCP introduce artefactos en el ECG. Desafortunadamente, la interrupción de la RCP afecta negativamente al éxito en la desfibrilación. En 2003 se aprobó el uso del DEA en pacientes entre 1 y 8 años. Los DEA, que originalmente se diseñaron para pacientes adultos, deben discriminar de forma precisa las arritmias pediátricas para que su uso en niños sea seguro. Varios DEAs se han adaptado para uso pediátrico, bien demostrando la precisión de los algoritmos para adultos con arritmias pediátricas, o bien mediante algoritmos específicos para arritmias pediátricas. Esta tesis presenta un nuevo algoritmo DEA diseñado conjuntamente para pacientes adultos y pediátricos. El algoritmo se ha probado exhaustivamente en bases de datos acordes a los requisitos de la American Heart Association (AHA), y en registros de resucitación con y sin artefacto RCP. El trabajo comenzó con una larga fase experimental en la que se recopilaron y clasificaron retrospectivamente un total de 1090 ritmos pediátricos. Además, se revisó una base de arritmias de adultos y se añadieron 928 nuevos ritmos de adultos. La base de datos final contiene 2782 registros, 1270 se usaron para diseñar el algoritmo y 1512 para validarlo. A continuación, se diseñó un nuevo algoritmo DEA compuesto de cuatro subalgoritmos. Estos subalgoritmos están basados en un conjunto de nuevos parámetros para la detección de arritmias, calculados en diversos dominios de la señal, como el tiempo, la frecuencia, la pendiente o la función de autocorrelación. El algoritmo cumple las exigencias de la AHA para la detección de ritmos desfibrilables y no-desfibrilables tanto en pacientes adultos como en pediátricos. El trabajo concluyó con el análisis del comportamiento del algoritmo con episodios reales de resucitación. En los ritmos que no contenían artefacto RCP se cumplieron las exigencias de la AHA. Posteriormente, se estudió la precisión del algoritmo durante las compresiones torácicas, antes y después de filtrar el artefacto RCP. Para suprimir el artefacto se utilizó un nuevo método desarrollado a lo largo de la tesis. Los ritmos desfibrilables se detectaron de forma precisa tras el filtrado, los no-desfibrilables sin embargo no.
Resumo:
189 p. : il. col.
Resumo:
[ES] El proyecto estudia algoritmos de detección de bordes aplicados a imágenes fotográficas y procedentes de nubes de puntos, posteriormente combina los resultados y analiza las posibilidades de mejora de la solución conjunta.
Resumo:
La formación de los bomberos es un proceso que incluye contenidos prácticos sobre cómo actuar ante incendios forestales y urbanos. La utilización de simuladores físicos tiene limitaciones impuestas por las condiciones de seguridad requeridas. Realizar prácticas controladas en condiciones reales está también altamente limitado por razones de factibilidad y de seguridad. Por tanto, la utilización de sistemas de entrenamiento de Realidad Virtual tiene especial relevancia.Las aportaciones de esta tesis están centradas en tres aspectos. El primero es el desarrollo de un entorno virtual para la simulación del entrenamiento e bomberos. Los escenarios considerados incluyen entornos forestales urbanos y mixtos. El entorno virtual puede ser accedido por bomberos que asumen distintos roles.El segundo es la generación de los algoritmos necesarios de la propagación y extinción de incendios dentro de los parámetros de interactividad del simulador. Para cumplir estos requisitos, se ha reducido la complejidad algorítmica a los elementos más fundamentales, entre ellos, la pendiente del terreno y la velocidad y dirección del viento. Además, se han añadido diversos efectos que aportan realismo a la propagación del fuego y su extinción: Spotting Fires, evaporación, modelo WaterJet.La definición de los escenarios incluye la clasificación del terreno o uso del suelo, los edificios y las barreras. La reconstrucción de escenarios reales a partir de información existente plantea problemas de heterogeneidad entre las distintas fuentes. La tercera aportación de esta tesis presenta las tecnologías semánticas como herramientas para solucionar los problemas de heterogeneidad de los datos y los distintos roles de los usuarios del sistema.
Resumo:
En este proyecto se analiza y compara el comportamiento del algoritmo CTC diseñado por el grupo de investigación ALDAPA usando bases de datos muy desbalanceadas. En concreto se emplea un conjunto de bases de datos disponibles en el sitio web asociado al proyecto KEEL (http://sci2s.ugr.es/keel/index.php) y que han sido ya utilizadas con diferentes algoritmos diseñados para afrontar el problema de clases desbalanceadas (Class imbalance problem) en el siguiente trabajo: A. Fernandez, S. García, J. Luengo, E. Bernadó-Mansilla, F. Herrera, "Genetics-Based Machine Learning for Rule Induction: State of the Art, Taxonomy and Comparative Study". IEEE Transactions on Evolutionary Computation 14:6 (2010) 913-941, http://dx.doi.org/10.1109/TEVC.2009.2039140 Las bases de datos (incluidas las muestras del cross-validation), junto con los resultados obtenidos asociados a la experimentación de este trabajo se pueden encontrar en un sitio web creado a tal efecto: http://sci2s.ugr.es/gbml/. Esto hace que los resultados del CTC obtenidos con estas muestras sean directamente comparables con los obtenidos por todos los algoritmos obtenidos en este trabajo.
Resumo:
La única forma que tienen los profesionales de aprender los procedimientos de extinción de incendios y gestión de los recursos es a través de maquetas o simulacros controlados. Este proyecto hace énfasis en la verificación de un conjunto de algoritmos de simulación y propagación de incendios facilitando la validación de los mismos por expertos. Los algoritmos validados se integrarán en un simulador interactivo dirigido al entrenamiento e instrucción del uso de los recursos para la extinción de incendios.
Resumo:
El objetivo de este trabajo es estudiar el Desastre del Titanic, utilizando la metodología del Descubrimiento del Conocimiento (KDD). La tesis propone diferentes variantes de cómo aplicar técnicas de Minería de Datos y herramientas del Aprendizaje Automático para predecir de forma eficiente la sobrevivencia de los pasajeros. Con este fin se han adaptado diferentes algoritmos de pre-procesamiento de datos, selección de variables y clasificación, a las características particulares del problema tratado. Algunos de estos algoritmos han sido implementados o sus implementaciones han sido modificadas para el caso específico del problema del Titanic.
Resumo:
222 p. : il.
Resumo:
211 p. :il.
Resumo:
179 p.
Resumo:
182 p. : il.