15 resultados para Algoritmos quase-analíticos
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Este trabalho apresenta novos algoritmos para o roteamento de circuitos integrados, e discute sua aplicação em sistemas de síntese de leiaute. As interconexões têm grande impacto no desempenho de circuitos em tecnologias recentes, e os algoritmos propostos visam conferir maior controle sobre sua qualidade, e maior convergência na tarefa de encontrar uma solução aceitável. De todos os problemas de roteamento, dois são de especial importância: roteamento de redes uma a uma com algoritmos de pesquisa de caminhos, e o chamado roteamento de área. Para o primeiro, procura-se desenvolver um algoritmo de pesquisa de caminhos bidirecional e heurístico mais eficiente, LCS*, cuja aplicação em roteamento explora situações específicas que ocorrem neste domínio. Demonstra-se que o modelo de custo influencia fortemente o esforço de pesquisa, além de controlar a qualidade das rotas encontradas, e por esta razão um modelo mais preciso é proposto. Para roteamento de área, se estuda o desenvolvimento de uma nova classe de algoritmos sugerida em [JOH 94], denominados LEGAL. A viabilidade e a eficiência de tais algoritmos são demonstradas com três diferentes implementações. Devem ser também estudados mecanismos alternativos para gerenciar espaços e tratar modelos de grade não uniforme, avaliando-se suas vantagens e sua aplicabilidade em outros diferentes contextos.
Resumo:
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Neste trabalho, estudamos a interação de íons com um conjunto quase-monocromático de ondas eletrostáticas de frequência na faixa das frequências híbridas inferiores, propagando-se perpendicularmente a um campo magnético uniforme. Consideramos que as fases das ondas são aleatoriamente distribuídas (ondas incoerentes), tratando o caso de ondas de fases coerentes (ondas coerentes) como um caso particular. Derivamos o Hamiltoniano adequado a esse sistema, e deduzimos as equações de movimento, cujas soluções são analisadas numericamente, mostrando a ocorrência de difusão estocástica no espaçoo de fase ângulo-ação, para amplitudes de onda suficientemente grandes. Também fazemos estimativas sobre a amplitude mínima (threshold) para o aparecimento de ilhas de primeira ordem no espaço de fase. Estimamos, também, o limiar para as ilhas de segunda ordem e de ordens maiores, bem como o limiar de estocasticidade. A análise mostra que para o caso de várias ondas o comportamento estocástico ocorre antes do limiar de estocasticidade comparado com o caso de uma onda. No caso de ondas coerentes, observa-se que o limiar de estocasticidade diminui com o aumento do número de ondas que comp˜oem o conjunto de ondas, proporcionalmente ao inverso da raiz quadrada deste número, portanto, tendendo a ser nulo no limite em que o número de ondas no pacote tende a infinito. No caso de ondas incoerentes, observa-se também uma diminuição do limiar de estocasticidade com o aumento do número de ondas, mas nesse caso, saturando com valor até um terço do valor do limiar de estocasticidade para o caso de uma onda. Observa-se também que o limite superior da região de estocasticidade no espaço de fase aumenta com o aumento do número de ondas. No caso de ondas coerentes, esse aumento é proporcional à raiz cúbica do número de ondas que compõem o conjunto de ondas. No caso de ondas incoerentes o limite superior da região de estocasticidade têm um aumento de até o dobro em relação ao caso de uma onda. A análise também mostra que o mecanismo da estocasticidade para o caso de várias ondas é diferente do mecanismo atuante no caso de uma onda. No caso de uma onda, a estocasticidade ocorre por superposição de ilhas de ordens maiores do que um, com o aumento da intensidade da onda. No caso de várias ondas, a presençaa de ondas de frequências próximas à frequência de ressonância causa pequenas perturbações na trajetória principal das partículas, causada pela onda central, espalhando-a pelo espaço de fase de forma mais eficiente que o mecanismo de estocasticidade para o caso de uma onda.
Resumo:
A glico-hemoglobina (HbA1c) é um parâmetro importante no controle glicêmico de pacientes diabéticos. Vários estudos clínicos mostraram claramente que a melhora no controle glicêmico está fortemente associada com a diminuição no desenvolvimento e/ou progressão das complicações microvasculares do diabetes. A medida exata e precisa da HbA1c é uma questão importante para os laboratórios clínicos. Vários fatores afetam os resultados e podem levar a resultados errôneos. Este trabalho analisou o efeito de fatores analíticos, estados patológicos e drogas nos resultados de HbA1c. Em um primeiro estudo, demonstramos que a fração lábil de HbA1c contribui significativamente para o resultado final. Quando está fração é separada inadequadamente, há a necessidade de um pré - tratamento na amostra, para evitarmos valores falsamente elevados. O armazenamento das amostras é um fator pré – analítico importante. Amostras mantidas sob refrigeração são estáveis por 10 dias e o armazenamento a longo prazo deve ser feito a – 80oC. No entanto, amostras congeladas a –20oC apresentam uma diminuição significativa nos valores de HbA1c, já nas primeiras 24h de armazenamento. Em um segundo estudo, relatamos que as hemoglobinas anômalas estão associadas com valores muito baixos de HbA1c. Adicionalmente, também demonstramos que a anemia é uma importante fonte de interferência negativa nos resultados. Sugerimos que, para a correta interpretação dos valores de HbA1c, o estado hematológico do paciente seja sempre considerado. Em um terceiro estudo, analisamos o uso crônico de aspirina, vitamina C e vitamina E nos níveis de HbA1c. Houve inexistência de efeito significativo nos resultados de HbA1c, medidos por 3 métodos rotineiramente utilizados pelos laboratórios clínicos, em indivíduos não - diabéticos. O clínico deve conhecer os fatores que afetam a determinação de HbA1c na população atendida e os resultados discordantes com a história clínica do paciente devem ser sempre investigado.
Resumo:
A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.
Resumo:
Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.
Resumo:
Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.
Resumo:
Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.
Resumo:
A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.
Resumo:
Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.
Resumo:
O cloridrato de epinastina é um agente não sedativo, antagonista H1 da histamina, utilizado no tratamento da asma ou como anti-histamínico, comercializado no Brasil na forma farmacêutica comprimido revestido com o nome de Talerc ®. Embora, seja um medicamento amplamente comercializado não há referências relativas aos métodos de análise da forma farmacêutica. Este trabalho teve como objetivos o desenvolvimento e a validação de métodos analíticos para o controle de qualidade do cloridrato de epinastina nos comprimidos revestidos, bem como a realização de estudos preliminares de estabilidade térmica e de fotoestabilidade e determinação da cinética de reação do anti-histamínico em estudo.A análise qualitativa do cloridrato de epinastina foi realizada por ressonância magnética nuclear de próto n, determinação da faixa de fusão, espectrofotometria na região do infravermelho e do ultravioleta, cromatografia em camada delgada e por cromatografia a líquido de alta eficiência. Para análise quantitativa, foram validados os métodos por espectrofotometria na região do ultravioleta derivada de primeira ordem e por cromatografia a líquido de alta eficiência. A validação foi efetuada de acordo com as guias de validação disponíveis na literatura. No estudo preliminar de estabilidade térmica utilizou-se a forma farmacêutica submetida a temperatura de 80 °C por 10 dias. A fotoestabilidade foi realizada em câmara de luz ultravioleta de 254 nm por um período de 18 horas. Os métodos qualitativos foram úteis para identificação do cloridrato de epinastina. Os métodos quantitativos propostos foram validados de acordo com os parâmetros analíticos preconizados, podendo ser perfeitamente intercambiáveis. O estudo preliminar de estabilidade térmica não apresentou degradação da amostra nas condições de análise empregadas. O estudo de fotoestabilidade apresentou degradação intensa obedecendo uma cinética de reação de primeira ordem.