1000 resultados para Algoritmos quase-analíticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo dos últimos 20 anos tem havido uma profusão de estudos que examinam, no âmbito de empresas, a contribuição dos mecanismos de aprendizagem e da adoção de técnicas de gestão para o processo de acumulação tecnológica. No entanto, ainda são escassos os estudos que examinem, de maneira conjunta e sob uma perspectiva dinâmica, o relacionamento entre a adoção de técnicas de gestão, mecanismos de aprendizagem e trajetórias de acumulação de capacidades tecnológicas. Mais que isto, faltam estudos que examinem o duplo papel das técnicas de gestão, ora como parte do estoque de capacidades tecnológicas, ora como um processo de aprendizagem tecnológica em si. Esta dissertação objetiva oferecer uma contribuição para preencher esta lacuna neste campo de estudo. O enfoque desta dissertação deriva de observações empíricas, realizadas em empresas, e inspira-se no clássico estudo Innovation and Learning: the two faces of R&D, de Cohen e Levinthal (1989). Assim a dissertação baseia-se em um estudo de caso individual, realizado em uma empresa do setor siderúrgico no Brasil, no período de 1984 a 2008, examinando estas questões à luz de modelos analíticos disponíveis na literatura internacional. Neste sentido, adotou-se o entendimento de capacidade tecnológica como o conjunto de recursos necessários para gerar e gerir mudanças tecnológicas, sendo construída e acumulada de forma gradual, a partir do engajamento em processos de aprendizagem e da coordenação de bases de conhecimentos acumulados em diferentes dimensões, simbioticamente relacionadas. As métricas utilizadas identificam tipos e níveis de capacidade tecnológica para diferentes funções e identifica quatro tipos de processos de aprendizagem tecnológica e os avalia em termos de suas características-chave. Tomando-se por base evidências empíricas qualitativas e quantitativas, colhidas em primeira mão, a base de trabalho de campo, este estudo verificou que: 1. A empresa acumulou níveis inovativos de capacidades tecnológicas em todas as funções examinadas, sendo o nível Inovativo Intermediário (Nível 5) nas funções Engenharia de Projetos (de forma incompleta) e Equipamentos e o nível Intermediário Avançado (Nível 6) nas funções Processos e Organização da Produção e Produtos. 2. Os mecanismos de aprendizagem subjacentes à acumulação destes níveis de capacidade tecnológica apresentaram resultados relevantes em termos de suas características-chave, principalmente no que diz respeito à variedade e intensidade: de 24 mecanismos em 1984 para um total de 59 em 2008, com uma variação de 145,8%, e com 56 dos 59 mecanismos (94,92%) utilizados atualmente de forma sistemática. 3. O período compreendido entre os anos de 1990 e 2004, no qual foram implementadas as técnicas de gestão estudadas, exceto o Plano de Sugestões, se caracteriza por apresentar a maior taxa de acumulação de capacidades tecnológicas e por dar início à utilização da quase totalidade dos 35 novos mecanismos de aprendizagem incorporados pela empresa após o início de suas operações (1984). E que as técnicas de gestão estudadas: 1. Colaboraram para o processo de aprendizagem tecnológica da AMBJF, principalmente pela necessidade de se: (i) incorporar novos mecanismos de aprendizagem que lhe permitissem acumular, antecipadamente, a base de conhecimentos necessária à implementação das técnicas de gestão estudadas; (ii) coordenar um número maior de mecanismos que dessem o adequado suporte ao aumento da complexidade de seu Sistema de Gestão Integrada (SOl). 2. Ampliaram, por si, o estoque de capacidades tecnológicas da empresa, maIS especificamente em sua dimensão organizacional, a partir da acumulação de conhecimento em procedimentos, instruções de trabalho, manuais, processos e fluxos de gestão e de produção, dentre outros. Desta forma, os resultados aqui encontrados confirmam que a adoção e a implementação das técnicas de gestão estudadas contribuíram com e influenciaram o processo de aprendizagem tecnológica e a trajetória de acumulação tecnológica da empresa, ao mesmo tempo, exercendo, portanto, um duplo papel na organização. Esta conclusão nos leva a um melhor entendimento do tema e pode contribuir para a compreensão de ações políticas e gerenciais que possam acelerar a acumulação de capacidades tecnológicas, entendendo a relevância das técnicas de gestão menos em termos de sua "mera" adoção e mais do seu processo de implementação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, estudamos o regime de partilha de produção brasileiro, instituído pela Lei N$^o$ 12.351, para exploração de petróleo através de uma abordagem teórica. Alguns artigos da literatura de leilões de valor quase comum foram estudados aqui. Além disso, desenvolvemos um modelo de partilha de produção com informação assimétrica a fim de capturar algumas características do modelo de partilha brasileiro. Através de solução numérica, fazemos uma análise das estratégias dos participantes e dos ganhos esperados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cloridrato de epinastina é um agente não sedativo, antagonista H1 da histamina, utilizado no tratamento da asma ou como anti-histamínico, comercializado no Brasil na forma farmacêutica comprimido revestido com o nome de Talerc ®. Embora, seja um medicamento amplamente comercializado não há referências relativas aos métodos de análise da forma farmacêutica. Este trabalho teve como objetivos o desenvolvimento e a validação de métodos analíticos para o controle de qualidade do cloridrato de epinastina nos comprimidos revestidos, bem como a realização de estudos preliminares de estabilidade térmica e de fotoestabilidade e determinação da cinética de reação do anti-histamínico em estudo.A análise qualitativa do cloridrato de epinastina foi realizada por ressonância magnética nuclear de próto n, determinação da faixa de fusão, espectrofotometria na região do infravermelho e do ultravioleta, cromatografia em camada delgada e por cromatografia a líquido de alta eficiência. Para análise quantitativa, foram validados os métodos por espectrofotometria na região do ultravioleta derivada de primeira ordem e por cromatografia a líquido de alta eficiência. A validação foi efetuada de acordo com as guias de validação disponíveis na literatura. No estudo preliminar de estabilidade térmica utilizou-se a forma farmacêutica submetida a temperatura de 80 °C por 10 dias. A fotoestabilidade foi realizada em câmara de luz ultravioleta de 254 nm por um período de 18 horas. Os métodos qualitativos foram úteis para identificação do cloridrato de epinastina. Os métodos quantitativos propostos foram validados de acordo com os parâmetros analíticos preconizados, podendo ser perfeitamente intercambiáveis. O estudo preliminar de estabilidade térmica não apresentou degradação da amostra nas condições de análise empregadas. O estudo de fotoestabilidade apresentou degradação intensa obedecendo uma cinética de reação de primeira ordem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Brazilian economy is quasi-stagnant since 1980, with exception of the short 2006-2010 boom, caused by the high prices of the commodities. Up to 1994, the causes were the major financial crisis of the 1980s and the ensuing high inertial inflation. Since these two causes were overcome, the Brazilian economy should have resumed growth, but didn’t. According to new developmental macroeconomics, the new fact that explains this low growth is the 1990-91 trade liberalization, which had as non-predicted consequence the suspension of the neutralization of the Dutch disease. This fact made the Brazilian manufacturing industry to have since then a competitive disadvantage of 20 to 25%, which is causing premature deindustrialization and quasi-stagnation. There is a solution for this stalemate today, but liberal as well as developmental Brazilian economists are not being able to consider the new macroeconomic models that justify it

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Copa do Mundo trouxe notícias ruins para o país não só em relação ao que aconteceu com a seleção brasileira nos gramados, mas, também, quanto aos impactos sobre o nível de atividade da economia. As preocupações estão mais recentemente fundamentadas nos resultados de junho: da produção industrial (Pesquisa Industrial Mensal – Produção Física); das vendas no comércio varejista (Pesquisa Mensal do Comércio — PMC); e da produção de Serviços (Pesquisa Mensal de Serviços —PMS, todas do IBGE).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A primeira fase da Copa do Mundo no Brasil encerrou-se na última quinta-feira (26), tendo atraído grande atenção internacional. Até ontem, foram registradas cerca de 17 milhões de menções relacionadas ao torneio no Twitter no mundo inteiro, com média de mais de 1 milhão de "tuítes" por dia. Os principais destaques até o momento foram Neymar, astro da Seleção Brasileira e um dos artilheiros do Mundial com quatro gols, e Luis Suárez, artilheiro uruguaio que praticamente monopolizou as redes desde a terça-feira (25), após morder o italiano Giorgio Chiellini em partida válida pela terceira rodada da primeira fase.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A primeira fase da Copa do Mundo no Brasil encerrou-se na última quinta-feira (26), tendo atraído grande atenção internacional. Até ontem, foram registradas cerca de 17 milhões de menções relacionadas ao torneio no Twitter no mundo inteiro, com média de mais de 1 milhão de "tuítes" por dia. Os principais destaques até o momento foram Neymar, astro da Seleção Brasileira e um dos artilheiros do Mundial com quatro gols, e Luis Suárez, artilheiro uruguaio que praticamente monopolizou as redes desde a terça-feira (25), após morder o italiano Giorgio Chiellini em partida válida pela terceira rodada da primeira fase. Os números são do Mundial na Rede, ferramenta da Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas em parceria com a empresa britânica Brandwatch, que monitora menções à Copa do Mundo no Twitter. A ferramenta, que pode ser acessada no site da FGV/DAPP, monitora os "tuítes" em inglês no mundo inteiro e também em português, oferecendo insights em tempo real sobre cada um dos países participantes do Mundial.