898 resultados para Algoritmos Evolutivos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Postulando a unidade do domínio vital, Jean Piaget formula a tese da continuidade entre os níveis biológico e psicológico e hipotetiza uma correspondência funcional entre processos evolutivos da natureza orgânica e psicogenese de estruturas cognitivas. No âmbito dos mecanismos evolutivos, o epistemólogo propõe um modelo explicativo para a fenocópia, processo que ele define como substituição de variações fenotípicas devidas a fatores exógenos por variações genotípicas determinadas de modo endógeno. Segundo o autor, existiria um equivalente cognitivo da fenocópia, o qual é concebido como um processo psicológico são discutidos os fundamentos teóricos do modelo biológico elaborado pelo autor e são apresentadas suas hipóteses explicativas para a fenocópia. são examinadas as críticas que os biólogos dirigiram ao modelo piagetiano e são analisadas as relações entre as fenocópias orgânica e cognitiva são então avaliadas, no terreno da Psicologia Cognitiva, eventuais implicações das objeções lançadas contra o modelo biológico de Piaget. Verifica-se que as relações entre os dois processos reduzem-se a analogias e que as críticas e explicações alternativas à hipótese piagetiana não se aplicam de modo imediato à psicogênese dos conhecimentos, embora comportem consequências epistemológicas para a abordagem biológica da formação dos conhecimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As áreas de visualização e modelagem baseados em pontos têm sido pesquisadas ativamente na computação gráfica. Pontos com atributos (por exemplo, normais) são geralmente chamados de surfels e existem vários algoritmos para a manipulação e visualização eficiente deles. Um ponto chave para a eficiência de muitos métodos é o uso de estruturas de particionamento do espaço. Geralmente octrees e KD-trees, por utilizarem cortes alinhados com os eixos são preferidas em vez das BSP-trees, mais genéricas. Neste trabalho, apresenta-se uma estrutura chamada Constrained BSP-tree (CBSP-tree), que pode ser vista como uma estrutura intermediárias entre KD-trees e BSP-trees. A CBSP-tree se caracteriza por permitir cortes arbitrários desde que seja satisfeito um critério de validade dos cortes. Esse critério pode ser redefinido de acordo com a aplicação. Isso permite uma aproximação melhor de regões curvas. Apresentam-se algoritmos para construir CBSP-trees, valendo-se da flexibilidade que a estrutura oferece, e para realizar operações booleanas usando uma nova classificação de interior/exterior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O controle de robôs móveis não holonômicos apresenta como principal desafio o fato de estes sistemas não serem estabilizáveis em um ponto através de uma realimentação de estados suave e invariante no tempo, conforme o Teorema de Brockett. Para contornar este resultado, técnicas clássicas utilizam leis de controle variante no tempo ou não suaves (descontínuas). Entretanto, estas técnicas não prevêem durante o cálculo da lei de controle restrições nas variáveis do sistema e assim, muitas vezes, geram entradas de controle que são incompatíveis com uma implementação real. Neste trabalho são desenvolvidos algoritmos de controle preditivo baseado em modelo (MPC) para o controle de robôs móveis não holonômicos dotados de rodas. No MPC, restrições nas variáveis de estado e de controle podem ser consideradas durante o cálculo da lei de controle de uma forma bastante direta. Além disso, o MPC gera implicitamente uma lei de controle que respeita as condições de Brockett. Como o modelo do robô é não linear, é necessário um algoritmo de MPC não linear (NMPC). Dois objetivos são estudados: (1) estabilização em um ponto e (2) rastreamento de trajetória. Através de extensivos resultados de simulação, é mostrada a eficácia da técnica. Referente ao primeiro problema, é feita uma análise comparativa com algumas leis clássicas de controle de robôs móveis, mostrando que o MPC aplicado aqui apresenta uma melhor performance com relação às trajetórias de estado e de controle. No problema de rastreamento de trajetória, é desenvolvida uma técnica linear, alternativa ao NMPC, utilizando linearizações sucessivas ao longo da trajetória de referência, a fim de diminuir o esforço computacional necessário para o problema de otimização. Para os dois problemas, análises referentes ao esforço computacional são desenvolvidas com o intuito de mostrar a viabilidade das técnicas de MCP apresentadas aqui em uma implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisamos aglomeradosimersosem nuvens moleculares, os quais são fundamentais para a compreensão dos estágios evolutivos iniciais da formação estelar. Na presente tese exploramos principalmente objetos associados a nebulosas de reflexão. Os objetos que estão no foco central do nosso estudo são possíveis aglomerados presentes na direção de nebulosas de reflexãoou emissão,já apontados pelos trabalhos de Bica et aI. (2003b) e Dutra et alo (2003). No estudo desses sistemas utilizamos principalmente dados do Catálogo 2MASS. A análise fotométrica é baseada em diagramas cor-magnitude e cor-cor, juntamente com isócronas teóricas de pré-seqüência-principaI. A distribuição angular de densidade superficial de estrelas no aglomerado e no campo próximo é um outro método de análise utilizado. Através da análise fotométrica e espectroscópica obtivemos os parâmetros físicos fundamentais dos aglomerados. Com base na emissão de estrelas na banda Ks realizamos uma busca por novos aglomerados imersos. A busca foi orientada na direção central de 47 nebulosas no ótico selecionadas a partir do Catálogo de Dutra et aI. (2003), varrendo um raio angular de r = 10' para cada direção. A busca resultou na descoberta de um aglomerado imerso ainda não catalogado, e aqueles já catalogados foram redescobertos. Neste trabalho obtivemos parâmetros físicos para mais de 30 aglomerados imersos. O raio linear derivado para esses objetos situa-se na faixa de 0,3 a 0,9 pc e o número de estrelas membros detectadas fica geralmente na faixa de 20 a 50 A idade média derivada para a amostra indica uma população bastante jovem. A maior parte dos aglomerados possui uma idade de 1 a 2 milhões de anos. Em nossa amostra o objeto mais massivo encontrado possui uma massa estimada de ~ 200M<=).Entretanto, a maioria dos aglomerados possui massa estimada na faixa de ~ 20M<=)a ~ 60M<=).Os valores de massa total para cada aglomerado não possuem uma correlação aparente com o ambiente da nebulosa. Os aglomerados imersos associados a nebulosas em ambientes de complexo HII podem apresentar massas tão baixas quanto aqueles associados a nebulosas de reflexão. Estes sistemas estelares provavelmente não apresentam estrelas com massas superiores àquela de uma estrela com tipo espectral B. Finalmente, estudamos um aglomerado imerso contendo uma estrela OV, o aglomerado NGC 2264. Obtivemos uma função de massa inicial (FMI) para o aglomerado NGC 2264 a partir de 346 fontes de raio-X detectadas pelo CHANDRA com contrapartida no infra-vermelho. A FMI derivada inclui massas estelares acima de M = O,03M<=). Em comparação com a FMI da vizinhança solar existe uma deficiência de estrelas de baixa massa para M < O,3M<=). As massas estimadas para os objetos analisados indicam que eles são sistemas estelares não-ligados gravitacionalmente. A maioria dos aglomerados de nossa amostra possui massa inferior a 100M<=)e está associada a nebulosas de reflexão. A formação de estrelas do tipo O em aglomerados imersos não-ligados gravitacionalmente não parece ser freqüente, segundo nossos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Algoritmos ótimos na extração de componentes principais com aprendizado não-supervisionado em redes neurais de múltiplos neurônios de saída são não-locais, ou seja, as modificações em uma dada sinapse entre dois neurônios dependem também da atividade de outros neurônios. Esta rede ótima extrairá as principais componentes dos dados e submetidos à sua primeira camada. As principais componentes são as projeções destes vetores nos autovalores máximos da matriz de correlação Gij = (eiej), onde a média (-) é sobre a distribuição de e. Existem fortes evidências indicando que sinapses biológicas só se modificam via regras locais, como por exemplo a regra de Hebb. Mas se aplicarmos regras locais numa rede com múltiplas saídas, todos os neurônios da saída serão equivalentes e darão respostas redundantes. A rede será bastante ineficiente. Um modo de contornar este problema é através da restrição dos campos receptivos dos neurônios de saída. Se cada neurônio acessar diferentes partes dos estímulos de entrada, a redundância diminui significativamente. Em contrapartida, ao mesmo tempo que a redundância diminui, também diminui a informação contida em cada neurônio; assim, devemos balancear os dois efeitos otimizando o campo receptivo. O valor ótimo, em geral, depende da natureza dos estímulos, sua estatística, e também do ruído intrínseco à rede. Objetivamos com este trabalho determinar a estrutura ótima de campos receptivos com aprendizado não-supervisionado para uma rede neural de uma camada em diversas condições medindo seu desempenho a partir de técnicas de reconstrução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso combinado de algoritmos para a descoberta de tópicos em coleções de documentos com técnicas orientadas à visualização da evolução daqueles tópicos no tempo permite a exploração de padrões temáticos em corpora extensos a partir de representações visuais compactas. A pesquisa em apresentação investigou os requisitos de visualização do dado sobre composição temática de documentos obtido através da modelagem de tópicos – o qual é esparso e possui multiatributos – em diferentes níveis de detalhe, através do desenvolvimento de uma técnica de visualização própria e pelo uso de uma biblioteca de código aberto para visualização de dados, de forma comparativa. Sobre o problema estudado de visualização do fluxo de tópicos, observou-se a presença de requisitos de visualização conflitantes para diferentes resoluções dos dados, o que levou à investigação detalhada das formas de manipulação e exibição daqueles. Dessa investigação, a hipótese defendida foi a de que o uso integrado de mais de uma técnica de visualização de acordo com a resolução do dado amplia as possibilidades de exploração do objeto em estudo em relação ao que seria obtido através de apenas uma técnica. A exibição dos limites no uso dessas técnicas de acordo com a resolução de exploração do dado é a principal contribuição desse trabalho, no intuito de dar subsídios ao desenvolvimento de novas aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We nd that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.