921 resultados para algoritmo CTC


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é obter um conjunto de evidências empíricas a respeito da dinâmica econômica de curto-prazo das regiões brasileiras para avaliar se as diferenças regionais resultam em ausência de sincronia econômica. Foi construida uma séries de evidências acerca do comportamento cíclico das regiões brasileiras, sendo uma parte delas por datação via o algoritmo de Bry Boschan e outra parte por meio da construção de um indicador do nível de atividade, pela metodologia de Stock e Watson de fatores dinâmicos. Em decorrência à dificuldade de disponibilidade de dados, só foi possível analisar dez estados brasileiros. Apesar das evidências geradas pelo algoritmo de Bry Boschan terem diferenças em relação as evidências geradas pelo modelo de Stock Watson, foi possível constatar que os ciclos regionais são bastante diferentes se comparados com os ciclos nacionais, sendo São Paulo o Estado que possui a maior sincronia e os Estados de Pernambuco e Rio Grande do Sul as menores. No entanto, duas recessões foram captadas na maioria dos estados, a de 2002 e a de 2008, sugerindo o quanto esses períodos foram abrangentes sendo que boa parte dos estados foi afetada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O controle de robôs móveis não holonômicos apresenta como principal desafio o fato de estes sistemas não serem estabilizáveis em um ponto através de uma realimentação de estados suave e invariante no tempo, conforme o Teorema de Brockett. Para contornar este resultado, técnicas clássicas utilizam leis de controle variante no tempo ou não suaves (descontínuas). Entretanto, estas técnicas não prevêem durante o cálculo da lei de controle restrições nas variáveis do sistema e assim, muitas vezes, geram entradas de controle que são incompatíveis com uma implementação real. Neste trabalho são desenvolvidos algoritmos de controle preditivo baseado em modelo (MPC) para o controle de robôs móveis não holonômicos dotados de rodas. No MPC, restrições nas variáveis de estado e de controle podem ser consideradas durante o cálculo da lei de controle de uma forma bastante direta. Além disso, o MPC gera implicitamente uma lei de controle que respeita as condições de Brockett. Como o modelo do robô é não linear, é necessário um algoritmo de MPC não linear (NMPC). Dois objetivos são estudados: (1) estabilização em um ponto e (2) rastreamento de trajetória. Através de extensivos resultados de simulação, é mostrada a eficácia da técnica. Referente ao primeiro problema, é feita uma análise comparativa com algumas leis clássicas de controle de robôs móveis, mostrando que o MPC aplicado aqui apresenta uma melhor performance com relação às trajetórias de estado e de controle. No problema de rastreamento de trajetória, é desenvolvida uma técnica linear, alternativa ao NMPC, utilizando linearizações sucessivas ao longo da trajetória de referência, a fim de diminuir o esforço computacional necessário para o problema de otimização. Para os dois problemas, análises referentes ao esforço computacional são desenvolvidas com o intuito de mostrar a viabilidade das técnicas de MCP apresentadas aqui em uma implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente Dissertação aborda a questão da localização varejista. Trata da temática da localização varejista em zonas urbanas, apresentando uma metodologia e o correspondente algoritmo que possibilitam ter uma visão global das áreas de uma zona urbana que representam possíveis oportunidades de negócio para estabelecimentos de auto-serviço alimentício, por apresentarem a demanda pior atendida pelas lojas instaladas, relativamente às demais áreas dessa zona urbana. Apresenta, ainda, a título de ilustração da aplicação do algoritmo, a situação existente na cidade de Uberlândia, MG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho fazemos um resumo de alguns artigos que tratam de equilíbrio geral dinâmico com custos de default. Focamos no estudo dos modelos de Kehoe e Levine (1993) e de Alvarez e Jermann (2000). Também descrevemos algumas adaptações do modelo de Alvarez e Jermann, como os trabalhos de Hellwig e Lorenzoni (2009) e de Azariadis e Kaas (2008), e comparamos os resultados desses modelos com os de Huggett (1993), no qual os mercados são exogenamente incompletos. Finalmente, expomos uma falha no algoritmo computacional sugerido por Krueger e Perry (2010) para se computar os equilíbrios estacionários de economias como as de Alvarez e Jermann (2000).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação expõe reflexões sobre o ensino da Matemática e tem como referencial teórico básico a Epistemologia Genética. O objetivo do trabalho é elucidar os conhecimentos sobre a operação de divisão que as crianças pesquisadas trouxeram para a escola antes de entrarem em contato com o algoritmo convencional. Para a coleta de dados, foram entrevistados estudantes de seis, sete e oito anos, pertencentes a classes multisseriadas de duas escolas do município de Teutônia, RS. Os estudantes foram divididos em dois grupos (G1 e G2). A entrevista inicial foi realizada com os dois grupos. As intervenções didáticas, denominadas, no seu conjunto, “unidade instrutiva”, foram realizadas apenas com o grupo G2, após a entrevista inicial, e tinham como objetivo contribuir para a compreensão do conceito de divisão a partir do esquema da correspondência. A unidade instrutiva elucidou a importância das intervenções didáticas apoiadas no estudo sobre a construção lógico-matemática bem como na compreensão do processo de ensinar e aprender. Considerando que crianças de primeira e segunda série de classes multisseriadas foram capazes de resolver problemas de divisão através do registro espontâneo, conclui-se que é necessário rever a forma de trabalho proposto pela escola, a qual utiliza técnicas que levam ao fracasso nas séries seguintes (terceira e quarta), quando a divisão passa a ser ensinada. Com esse objetivo, propomos, uma intervenção didática que nos parece mais apropriada considerando-se o que os estudos nos têm mostrado. Compreendendo como a criança constrói o conceito de divisão, o professor poderá realizar intervenções que se baseiem no esquema de correspondência, que tem se mostrado um caminho promissor para que a criança compreenda tal conceito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo comparar metodologias distintas para cálculo de desalinhamento cambial além de testar a hipótese se as taxas de câmbio dos diversos países sofrem influencia apenas dos seus próprios fundamentos ou também da taxa de câmbio e dos fundamentos de outros países. Estas hipóteses consistem, respectivamente, na ausência ou na existência de interdependência entre os diversos países. Para realizar tal tarefa utilizam-se duas estratégias empíricas. A primeira baseia-se em avaliar se um modelo multivariado de séries de tempo usualmente utilizada na literatura de desalinhamento cambial com dados apenas do próprio país em análise pode ser melhorado através da adição de variáveis relacionadas a outros países usando o algoritmo proposto por David Hendry e co-autores. A segunda estratégia consiste em estimar um panel longo com as variáveis utilizadas para estimar desalinhamento cambial e testar formalmente a hipótese de ausência de interdependências. Os resultados sugerem que em ambas estratégias existe evidência de existência de interdependência. Esta ocorreria mais por conta de fatores ligados ao curto prazo, ou seja, o que explicaria o valor da taxa de câmbio de um país no longo prazo seriam seus próprios fundamentos enquanto no curto prazo fatores externos poderiam causar desvios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.