887 resultados para Algoritmo Boosting
Resumo:
Kolisiotik gertuko egoera bat dugunean, N-gorputzen ekuazio diferentzialen singularitateek zenbakizko integrazioaren kalkuluen doitasun galera eta konputazio denbora handitzea eragiten dituzte. Ekuazio transformazioaren bidez singularitateak ezabatzeko teknikari erregularizazioa deritzen zaio. Lehen zatian, erregularizazio teknika deskribatu eta Taylor integrazio metodoan ikertuko dugu. Bigarren zatian, Urabe metodoan oinarritutako soluzio periodikoen jarraipen algoritmo berri bat inplementatuko dugu. Erregularizazioa soluzio periodikoen jarraipenean ikertu eta gure inplementazioa AUTO softwarearekin konparatuko dugu.
Resumo:
[ES]En este TFG se obtendrá un algoritmo de generación de trayectorias para el cuadricóptero AR-Drone capaz de conseguir trazados lo más rápidos posibles teniendo en cuenta la dinámica del modelo y las limitaciones del entorno. Así mismo se propondrá un control primitivo para la detección de obstáculos. Mediante las comunicaciones con el cuadricóptero y el control de los parámetros característicos del medio, se establecerá usando el lenguaje C# los bucles de programación necesarios para discriminar todas las trayectorias desfavorables y obtener una que se adecue a nuestros criterios.
Resumo:
[ES]En la situación actual, en que las empresas han tenido que automatizar los procesos a nivel mundial para hacer frente a los nuevos retos de la competitividad, pone de manifiesto la necesidad de nuevas tecnologías para innovar y redefinir sus procesos. Este proyecto se centra en la aplicación de las nuevas tecnologías en un proceso de laminación en caliente para así a aumentar la capacidad de producción y la calidad de la empresa. Para ello, en primer lugar, se analiza la planta y el proceso a automatizar, se señalan los problemas y se procede a estudiar la solución más adecuada. Después de seleccionar la solución, se colocan sensores y actuadores a lo largo del proceso en función de los pasos a seguir por la fabricación. Con todo ello se ha diseñado una secuencia de control para que el proceso sea autónomo. Además, se diseña un algoritmo para controlar el arranque de los motores, reduciendo así el consumo de energía. En conclusión, se desea mejorar un viejo proceso de producción a través de la automatización y las nuevas tecnologías. Breve descripción del trabajo (cinco líneas). Esta descripción debe destacar los puntos más relevantes del trabajo: su objetivo principal, los métodos a emplear para su desarrollo y los resultados que se pretenden conseguir, o que se han conseguido.
Resumo:
[ES]Este Trabajo Fin de Grado consiste en el diseño de una herramienta gráfica para el desarrollo de prácticas de laboratorio basadas en el procesado de señales electrocardiográficas (ECG) para la asignatura de Procesado de Señales Biomédicas. El proyecto se concreta en la aplicación de la herramienta para tres prácticas de laboratorio diferentes basadas en ECG, las cuales tendrán objetivos y técnicas de procesado diferentes. El objetivo final es que los docentes y los estudiantes sean capaces de trabajar con señales de ECG, analizar sus principales características y comprender distintas técnicas y algoritmos de procesado típicas de este ámbito.
Resumo:
[Es]En este proyecto se analizan el diseño y la evaluación de dos métodos para la supresión de la interferencia generada por las compresiones torácicas proporcionadas por el dispositivo mecánico LUCAS, en el electrocardiograma (ECG) durante el masaje de resucitación cardiopulmonar. El objetivo es encontrar un método que elimine el artefacto generado en el ECG de una manera efectiva, que permita el diagnóstico fiable del ritmo cardiaco. Encontrar un método eficaz sería de gran ayuda para no tener que interrumpir el masaje de resucitación para el análisis correcto del ritmo cardiaco, lo que supondría un aumento en las probabilidades de resucitación. Para llevar a cabo el proyecto se ha generado una base de datos propia partiendo de registros de paradas cardiorrespiratorias extra-hospitalarias. Esta nueva base de datos contiene 410 cortes correspondientes a 86 pacientes, siendo todos los episodios de 30 segundos de duración y durante los cuales el paciente, recibe masaje cardiaco. Por otro lado, se ha desarrollado una interfaz gráfica para caracterizar los métodos de supresión del artefacto. Esta, muestra las señales del ECG, de impedancia torácica y del ECG tras eliminar el artefacto en tiempo. Mediante esta herramienta se han procesado los registros aplicando un filtro adaptativo y un filtro de coeficientes constantes. La evaluación de los métodos se ha realizado en base a la sensibilidad y especificidad del algoritmo de clasificación de ritmos con las señales ECG filtradas. La mayor aportación del proyecto, por tanto, es el desarrollo de una potente herramienta eficaz para evaluar métodos de supresión del artefacto causado en el ECG por las compresiones torácicas al realizar el masaje de resucitación cardiopulmonar, y su posterior diagnóstico. Un instrumento que puede ser implementado para analizar episodios de resucitación de cualquier tipo de procedencia y capaz de integrar nuevos métodos de supresión del artefacto.
Resumo:
[EN]Hyperventilation, which is common both in-hospital and out-of-hospital cardiac arrest, decreases coronary and cerebral perfusion contributing to poorer survival rates in both animals and humans. Current resucitation guidelines recommend continuous monitoring of exhaled carbon dioxide (CO2) during cardiopulmonary resucitation (CPR) and emphasize good quality of CPR, including ventilations at 8-10 min1. Most of commercial monitors/de- brilators incorporate methods to compute the respiratory rate based on capnography since it shows uctuations caused by ventilations. Chest compressions may induce artifacts in this signal making the calculation of the respiratory rate di cult. Nevertheless, the accuracy of these methods during CPR has not been documented yet. The aim of this project is to analyze whether the capnogram is reliable to compute ventilation rate during CPR. A total of 91 episodes, 63 out-of-hospital cardiac arrest episodes ( rst database) and 28 in-hospital cardiac arrest episodes (second database) were used to develop an algorithm to detect ventilations in the capnogram, and the nal aim is to provide an accurate ventilation rate for feedback purposes during CPR. Two graphic user interfaces were developed to make the analysis easier and another two were adapted to carry out this project. The use of this interfaces facilitates the managment of the databases and the calculation of the algorithm accuracy. In the rst database, as gold standard every ventilation was marked by visual inspection of both the impedance, which shows uctuations with every ventilation, and the capnography signal. In the second database, volume of the respiratory ow signal was used as gold standard to mark ventilation instants since it is not a ected by chest compressions. The capnogram was preprocessed to remove high frequency noise, and the rst di erence was computed to de ne the onset of inspiration and expiration. Then, morphological features were extracted and a decission algorithm built based on the extracted features to detect ventilation instants. Finally, ventilation rate was calculated using the detected instants of ventilation. According to the results obtained in this project, the capnogram can be reliably used to give feedback ventilation rate, and therefore, on hyperventilation in a resucitation scenario.
Resumo:
Apresentamos um estudo preliminar da produção difrativa de mésons utilizando dados obtidos da colisão próton-próton, a energias de centro de massa de 7 TeV, com o experimento CMS-LHC. O trabalho inclui o desenvolvimento do algoritmo de reconstrução dos mésons D* através do canal de decaimento D*->D0 + pion (lento) ->K+pion, a medida da eficiência de detecção e reconstrução, e uma análise do comportamento de variáveis cinemáticas na produção difrativa dessas partículas, particularmente, das lacunas de rapidez. Para isso, foi utilizada uma luminosidade integrada de 3,171pb^(-1) de dados coletados no ano de 2010. As análises com os dados experimentais foram comparadas com os resultados obtidos com geradores de Monte Carlo PYTHIA6, PYTHIA8 e POMPYT.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
Esta pesquisa discute a participação do bibliotecário na formação de equipes multidisciplinares dos grupos de Avaliação de Tecnologias em Saúde (ATS), caracterizando sua atuação num novo campo que se abre para os bibliotecários em instituições de pesquisa. O objetivo geral baseia-se na criação de uma Biblioteca Digital (BD) com os parâmetros de qualidade da informação inerentes a ATS, a partir dos documentos gerados pelo Serviço de Comutação Bibliográfica (SCB) da Rede de Bibliotecas da FIOCRUZ, recomendando a inserção do bibliotecário na equipe multidisciplinar para ATS. A metodologia foi dividida em três partes: levantamento do estado da arte do conhecimento produzido na Saúde Coletiva, onde se insere a Avaliação de Tecnologias em Saúde, e da Ciência da Informação, pesquisa exploratória com uma abordagem qualitativa para coleta de dados junto ao grupo de pesquisadores de ATS de diversas instituições públicas e privadas e uma abordagem quantitativa para coleta de dados dos profissionais do SCB da Rede de Bibliotecas da Fiocruz e análise dos dados. Verificou-se que existe uma participação ativa do bibliotecário nas atividades de ATS, no que diz respeito, à formulação de estratégias de busca em base de dados, revisão de protocolos de busca, localização de publicações relevantes, auxílio para realização de revisões sistemática para os grupos de pesquisa. Pressupõe a criação de uma BD permitindo o compartilhamento de todos os documentos digitais gerados pelas bibliotecas. Com essa iniciativa pretende-se contribuir para impulsionar a produção do conhecimento científico e tecnológico na área da saúde e de ATS.
Resumo:
A Presente dissertação apresenta uma aplicação de Inteligência Computacional na área de Geotecnia, com a utilização da Técnica de Neuro-Fuzzy para indicar a suscetibilidade de escorregamento de taludes no município do Rio de Janeiro, a partir de inspeção visual. Neste trabalho, a suscetibilidade corresponde à possibilidade de ocorrência de escorregamento sem considerar os danos relacionados ao evento. Adotou-se como variável de saída a Previsão de Escorregamento (PE) com três adjetivos que correspondem a Suscetibilidades Alta, Média e Baixa. A metodologia utilizada consistiu em, inicialmente, montar um banco de dados com informações preliminares de análise de estabilidade, com a indicação dos condicionantes de escorregamento relacionados à geomorfologia, pluviosidade, capacidade de drenagem, vegetação e ocupação com seus respectivos graus de suscetibilidades de escorregamento obtidos em um conjunto de Laudos de Vistoria da Geo Rio. O banco de dados foi aplicado em um algoritmo de Neuro-Fuzzy. Diversos testes foram realizados com as alterações dos parâmetros do modelo Neuro-Fuzzy para uma combinação de fatores condicionantes de escorregamento e refinamento do banco de dados. Os testes apresentaram diminuição do erro fornecido pelo programa com o aumento de tipos de condicionantes utilizados no treinamento, o que permite inferir que o escorregamento ocorre por uma complexa relação entre diversos fatores condicionantes. O banco de dados utilizado nos testes apresenta descontinuidades nas relações entre os diversos condicionantes, ou seja, para uma mesma faixa de valores de Altura do talude, não é possível obter uma relação para todas as faixas de outro condicionante e, até mesmo, para todas as faixas da Previsão de Escorregamento. As PEs obtidas na validação do modelo tiveram seus valores próximos aos desejados somente nos conjuntos de variáveis utilizadas para o treinamento. O modelo não foi capaz de apresentar valores de suscetibilidades dentro da faixa de valores utilizados no treinamento para combinação de variáveis com pequenos ruídos, o que indica a necessidade de ampliação do banco de dados tanto quantitativamente quanto qualitativamente de modo a cobrir as descontinuidades apresentadas nas relações entre as variáveis.
Resumo:
Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.
Resumo:
A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.
Resumo:
O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.
Resumo:
Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura