887 resultados para Algoritmo Boosting
Resumo:
A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.
Resumo:
O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.
Resumo:
Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.
Resumo:
Este trabalho tem por objetivo o estudo do m~todo da Programação Linear e de sua aplicação no planejamento da empresa agricola, tendo em vista a demonstração de sua importancia como instrumento analItico no processo de tomada de decisões. Inicialmente ~ feita uma abordagem sobre a problematica da programação e seus fundamentos, sendo examinados os principais conceitos sobre os quais o assunto se baseia. A discussão encaminhada no sentido de chamar a atenção para o fato de que, em vista das pressões a que esta submetida a agricultura no estagio contemporâneo do desenvolvimento, - que lhe exigem melhores niveis de desempenho traduzidos em Indices mais elevados de produtividade, generalizou-se o consenso sobre a conveniência de se dar maior atenção i programação das atividades do setor agrIcola, tanto a nIvel de Região como no ambito de sua area empresarial. Entre os varias modelos gerados com o objetivo de oferecer respostas aos problemas de organização da produção, otimização de resuItados c racionalização do uso dos fatores, o da Programação Linear considerado o mais geralmente aceito pela comunidade cientIfica, por sua estrutura teórico sofisticada e pela capacidade de dar respostas exatas e diretas a questões de maior complexidade. A parte teórica do metodo da Programação Linear ~ examinada no Capítulo 11. De maneira sumária são abordados os seus fundamentos matemáticos e discutidos os principais teoremas sobre conjuntos convexos, corno elementos do espaço das soluções possiveis. A álgebra do algorÍtmo Simplex ~ abordada em sua forma ardinária, com a demonstração dos passos sucessivos do algoritmo, ato encontro do vertice característico da solução otima. No Capítulo 111 os conceitos teoricos da Programação Linear sao aplicados aos dados de uma empresa agricola, com a finalidade de demonstrar a operacionalização do algoritmo Simplcx ! através de programas de computador.
Resumo:
O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.
Resumo:
A urbanização descontrolada das cidades brasileiras tem provocado o agravamento das enchentes naturais e a ampliação de sua freqüência, além de criar novos pontos de alagamento localizados. Isto se deve à crescente impermeabilização do solo com aumento do volume pluvial escoado e redução de amortecimento. A concepção de um projeto de macrodrenagem em uma bacia urbana que considere o controle das inundações, como por exemplo, a implementação de reservatórios de amortecimento em áreas sujeitas a alagamentos, constitui-se em uma tarefa complexa e difícil devido ao grande número de alternativas possíveis, considerando todas as variáveis envolvidas, como capacidades hidráulicas existentes e necessárias das redes de drenagem, disponibilidade de áreas para construção de reservatórios, custos de desapropriação destas áreas, existência de sistemas mistos de coleta, uso de reservatórios abertos ou subterrâneos, dentre outras. Desta forma o projetista coloca-se diante de um dilema: qual o conjunto destas alternativas podem ser o mais eficiente? Este estudo promoveu a análise da aplicabilidade e eficiência de um modelo de otimização associado a modelos hidrológico-hidráulicos como instrumentos de suporte à decisão em problemas de drenagem urbana. A ferramenta desenvolvida compôs-se pelo modelo IPHS1 para a simulação hidrológica e hidráulica, pelo algoritmo de evolução SCE-UA para o processo de otimização através da minimização do custo de implantação das soluções e do módulo EXTRAN do modelo SWMM para a verificação hidráulica dos resultados obtidos e análises de riscos superiores. Os resultados mostraram-se bons e o sistema implementado adaptou-se bem às características das duas bacias analisadas: bacia do arroio do Moinho e bacia do arroio da Areia. O sistema forneceu os cenários de custos otimizados de implantação da solução com detenções distribuídas nas bacias e ampliações de redes, em um curto período de tempo e utilizando dados que seriam necessários para qualquer projeto de macrodrenagem deste tipo. Com os resultados compilados, foram obtidas funções de auxílio à tomada de decisão em planos e projetos de drenagem urbana através de curvas ajustadas aos pontos gerados nas bacias estudadas. Foi realizada a análise de sensibilidade e a avaliação das incertezas envolvidas com o modelo hidrológico utilizado com relação ao seu parâmetro principal, o Curve Number. Esta análise mostrou grandes variações nas vazões de saída das bacias e nos custos das obras com pequenas alterações nos valores de CN. Apresenta-se ainda uma análise econômica da aplicação dos valores obtidos de forma extrapolada para todo o município de Porto Alegre.
Resumo:
O objetivo desse trabalho é obter um conjunto de evidências empíricas a respeito da dinâmica econômica de curto-prazo das regiões brasileiras para avaliar se as diferenças regionais resultam em ausência de sincronia econômica. Foi construida uma séries de evidências acerca do comportamento cíclico das regiões brasileiras, sendo uma parte delas por datação via o algoritmo de Bry Boschan e outra parte por meio da construção de um indicador do nível de atividade, pela metodologia de Stock e Watson de fatores dinâmicos. Em decorrência à dificuldade de disponibilidade de dados, só foi possível analisar dez estados brasileiros. Apesar das evidências geradas pelo algoritmo de Bry Boschan terem diferenças em relação as evidências geradas pelo modelo de Stock Watson, foi possível constatar que os ciclos regionais são bastante diferentes se comparados com os ciclos nacionais, sendo São Paulo o Estado que possui a maior sincronia e os Estados de Pernambuco e Rio Grande do Sul as menores. No entanto, duas recessões foram captadas na maioria dos estados, a de 2002 e a de 2008, sugerindo o quanto esses períodos foram abrangentes sendo que boa parte dos estados foi afetada.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.
Resumo:
Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.
Resumo:
O controle de robôs móveis não holonômicos apresenta como principal desafio o fato de estes sistemas não serem estabilizáveis em um ponto através de uma realimentação de estados suave e invariante no tempo, conforme o Teorema de Brockett. Para contornar este resultado, técnicas clássicas utilizam leis de controle variante no tempo ou não suaves (descontínuas). Entretanto, estas técnicas não prevêem durante o cálculo da lei de controle restrições nas variáveis do sistema e assim, muitas vezes, geram entradas de controle que são incompatíveis com uma implementação real. Neste trabalho são desenvolvidos algoritmos de controle preditivo baseado em modelo (MPC) para o controle de robôs móveis não holonômicos dotados de rodas. No MPC, restrições nas variáveis de estado e de controle podem ser consideradas durante o cálculo da lei de controle de uma forma bastante direta. Além disso, o MPC gera implicitamente uma lei de controle que respeita as condições de Brockett. Como o modelo do robô é não linear, é necessário um algoritmo de MPC não linear (NMPC). Dois objetivos são estudados: (1) estabilização em um ponto e (2) rastreamento de trajetória. Através de extensivos resultados de simulação, é mostrada a eficácia da técnica. Referente ao primeiro problema, é feita uma análise comparativa com algumas leis clássicas de controle de robôs móveis, mostrando que o MPC aplicado aqui apresenta uma melhor performance com relação às trajetórias de estado e de controle. No problema de rastreamento de trajetória, é desenvolvida uma técnica linear, alternativa ao NMPC, utilizando linearizações sucessivas ao longo da trajetória de referência, a fim de diminuir o esforço computacional necessário para o problema de otimização. Para os dois problemas, análises referentes ao esforço computacional são desenvolvidas com o intuito de mostrar a viabilidade das técnicas de MCP apresentadas aqui em uma implementação real.
Resumo:
In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.
Resumo:
Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.
Resumo:
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.
Análise de escoamentos incompressíveis utilizando simulação de grandes escalas e adaptação de malhas
Resumo:
No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.