855 resultados para Algoritmos e Meta-heurísticas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Avaliação de Desempenho geralmente é vista como uma ferramenta na qual a subjetividade é um viés a ser controlado. O presente trabalho traça uma trajetória da Avaliação, desde o seu surgimento até os dias atuais. Este levantamento histórico apresenta o tratamento dado às questões do Humano até o momento, a partir da revisão de vários autores. Utilizando um referencial quantitativo e qualitativo, unindo a Abordagem Fenomenológica e a Matriz de Correlações, foi realizada a Meta-Avaliação do processo de uma empresa na qual a prática da Avaliação ocorre há alguns anos, sendo considerada ponto importante para o seu sucesso. O presente estudo demonstra que o Humano é parte indissociável da Avaliação, a qual não pode mais ser considerada como ferramenta, mas como processo. Ao invés do controle da subjetividade, vista anteriormente mais como fonte de problemas e distorções, propõe-se o reconhecimento mais amplo de sua presença: tanto em seus aspectos complexos e problemáticos como em seu enorme potencial de desenvolvimento e aprendizado. Ao invés do controle, propõe-se o engajamento; ao invés de retirar o máximo possível a subjetividade, tê-la como aliada; ao invés de uma ferramenta minuciosamente estruturada, um processo flexível que acompanhe o dinamismo inerente ao Humano. Ou seja, ter o Humano da Avaliação atuando a favor do processo, cujo grande fim é o aprendizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar, a partir da experiência vivida no Hospital Orêncio de Freitas - Ministério da Saúde - S.U.S - Fundação Municipal de Saúde de Niterói, se a satisfação da clientela tem para as organizações prestadoras de serviços de assistência médico-hospitalar como um todo, particularmente para hospitais e mais especificamente para hospitais públicos, o mesmo significado que para as empresas fornecedoras de produtos e serviços em geral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Processos químicos integrados apresentam uma maior dificuldade para garantir o controle global da planta em função das fortes interações que se estabelecem entre as variáveis de processo. A área de estudo conhecida como Plant Wide Control preocupa-se em propor soluções a este problema de controle. Soluções típicas consistem no projeto de estruturas de controle, a partir de técnicas quantitativas de análise da controlabilidade operacional. Entretanto a dificuldade em obter-se modelos confiáveis na fase de projeto de processos, bem como as incertezas derivadas das não-linearidades de sistemas reais, são alguns exemplos das dificuldades que limitam a aplicabilidade de tais métodos e incentivam o desenvolvimento de heurísticas capazes de auxiliar a seleção de estruturas de controle adequadas. Nesta dissertação são utilizadas análises estruturais e técnicas quantitativas no estudo de sistemas simplificados e hipotéticos, permitindo a formulação de heurísticas comprometidas com o controle global do balanço material. O resultado destas análises mostra ser possível implementar uma estrutura de base, de configuração feedforward, fundamentada na garantia de baixa variabilidade do tempo de residência do sistema reacional, através de controle direto ou flutuação do inventário, e na proporcionalidade entre as correntes de processo, via introdução de razões fixas entre as vazões da planta. A utilização destas duas heurísticas garante a estabilidade do balanço material frente a variações da taxa de produção, mesmo sem a implementação de controladores de composição. Em um nível supervisório, são introduzidas malhas de controle feedback, em cascata com a estrutura de base, a fim de corrigir off-sets e controlar composições sob um horizonte de tempo longo de resposta. As estruturas de controle projetadas a partir desta base heurística apresentam um desempenho satisfatório para a rejeição de distúrbios sobre a taxa de produção, de acordo com os resultados de validação do estudo de caso Tennessee Eastman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo introduz uma nova abordagem estratégica para a política monetária: o regime de meta de inflação. O trabalho começa com uma revisão da literatura sobre política monetária desde a Curva de Phillips, a seguir os regimes clássicos de política monetária são analisados e se introduz a estrutura conceitual do regime de meta de inflação. As experiências práticas de quatro países (Alemanha, Nova Zelândia, Canadá e Inglaterra) são detalhadamente examinadas. A análise de séries temporais é empregada para comparar o padrão de autoregressividade da inflação sob o novo regime com o período precedente. O estudo aponta o regime de meta de inflação como uma estratégia mais eficiente no longo prazo porque responde melhor aos desafios da teoria e da prática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As aplicações que lidam com dados temporais e versionados podem ser modeladas através do Modelo Temporal de Versões. No entanto, para que se possa utilizar esse modelo,é necessário que bases de dados tradicionais sejam estendidas para bases temporais versionadas, habilitando dessa forma, a manipulação desses dados. O padrão XML tem sido amplamente utilizado para publicar e trocar dados pela internet. Porém, pode ser utilizado também para a formalização de conceitos, dados, esquemas, entre outros. Com a especificação do Modelo Temporal de Versões em XML,é possível gerar automaticamente um script SQL com as características do modelo, de forma a ser aplicado a um banco de dados, tornando-o apto a trabalhar com os conceitos de tempo e de versão. Para isso,é necessário criar regras de transformação (XSLT), que serão aplicadas às especificações definidas para o modelo. O resultado final (script SQL) será executado em uma base de dados que implemente os conceitos de orientação a objetos, transformando essa base em uma base temporal versionada. Cada banco de dados possui sua própria linguagem de definição de dados. Para gerar o script em SQL com as características do Modelo Temporal de Versões, regras de transformação deverão ser definidas para os bancos que utilizarão o modelo, observando sua sintaxe específica. Essas diversas regras serão aplicadas à mesma especificação do modelo em XML. O resultado será o script em SQL definido na sintaxe de cada base de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar o uso de regras ótimas irrestritas e de regras simples restritas de política monetária para a economia brasileira, com especial atenção ao impacto da taxa de câmbio na transmissão da política monetária. As regras foram encontradas através de um processo de programação dinâmica e comparadas em termos da eficiência econômica de cada uma, medida pela redução da variância do produto e da inflação. Estes resultados serviram de referência para avaliar o desempenho do regime de metas de inflação no Brasil, desde a sua implementação em julho de 1999.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Revisão da Literatura: O Transtorno de Ansiedade Generalizada (TAG) é caracterizado por preocupação excessiva, persistente e incontrolável sobre diversos aspectos da vida do paciente. Tem prevalência entre 1,6% e 5,1% e índice de comorbidades de até 90,4%. As principais comorbidades são depressão maior (64%) e distimia (37%). Os antidepressivos podem ser eficazes no tratamento do TAG. A Medicina Baseada em Evidências (MBE) busca reunir a melhor evidência disponível com experiência clínica e conhecimentos de fisiopatologia. A melhor maneira disponível de síntese das evidências é a revisão sistemática e a meta-análise. Objetivos: Investigar a eficácia e tolerabilidade dos antidepressivos no tratamento do TAG através de uma revisão sistemática da literatura e meta-análise. Sumário do artigo científico: A revisão sistemática incluiu ensaios clínicos randomizados e controlados e excluiu estudos não-randomizados, estudos com pacientes com TAG e outro transtorno de eixo I. Os dados foram extraídos por dois revisores independentes e risco relativo, diferença da média ponderada e número necessário para tratamento (NNT) foram calculados. Antidepressivos (imipramina, paroxetina e venlafaxina) foram superiores ao placebo. O NNT calculado foi de 5,5. A evidência disponível sugere que os antidepressivos são superiores ao placebo no tratamento do TAG e bem tolerados pelos pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Decisões humanas foram a preocupação central de Herbert Simon em sua vasta produção acadêmica através da qual difundiu sua abordagem de racionalidade limitada pela economia. O reconhecimento do ambiente complexo e dos limites cognitivos do ser humano, levaram-no a propor mecanismos usados para facilitar o processo decisório. Dentre eles, salientou como o mais importante o uso de heurísticas, regras que simplificam a tomada de decisão. Em torno dessa ideia um novo e promissor caminho para o estudo das decisões humanas em economia tem se desenvolvido e inúmeros trabalhos têm se debruçado sobre o assunto. Mais atualmente o tema remete ao trabalho de Daniel Kahneman e Amos Tversky que analisaram comportamentos anômalos em relação à teoria da decisão mais tradicional devido ao uso de heurísticas. Essa abordagem chamada de heuristics and biases ganhou um grande espaço na academia sendo utilizada na análise de muitos eventos empíricos na administração, direito, economia e medicina. A presente tese está estruturada em três artigos. O primeiro artigo trata do uso de heurística na análise do comportamento do agente econômico a partir da contribuição de Simon, Kahneman e Tversky. A apresentação de críticas feitas às duas propostas jogam luz sobre o debate em torno de questões quanto a possível relação entre elas. A partir da análise da literatura, este trabalho propõe uma complementaridade promissora para a economia com a construção de uma teoria comportamental em torno de heurísticas. No segundo artigo, as contribuições de Herbert Simon, Daniel Kahneman e Amos Tversky são utilizadas na análise do comportamento do consumidor. Através de um modelo de simulação baseada em agentes são comparadas cinco heurísticas que representam diferentes regras utilizadas pelo consumidor na decisão de compra: Menor preço de 3, 4 e 5 alternativas pesquisadas, Take-The-Best (TTB), proposta por Gigerenzer e Goldstein, e Time-Is-Money (TIM). Os resultados obtidos se afastam da maximização mas podem ser interpretados como eficientes em função da redução do esforço de pesquisa e do preço obtido. Duas heurísticas mostram grande eficiência: a Menor preço de 3 alternativas e a TTB. A inclusão de custo crescente de pesquisa na análise torna muito eficientes os resultados da TIM e chama a atenção para a relevância da definição de custo na avaliação da eficiência da heurística. O terceiro artigo discute um mecanismo de adaptação do comportamento que objetiva melhorias do resultado obtido com a decisão. Através de simulação baseada em agentes são modelados consumidores de bens homogêneos que utilizam heurísticas para decidir sua compra. É desenvolvida uma heurística, a Take-The-Best adaptaviva (TTBA), que incorpora uma proposta de Simon de um mecanismo de adaptação como reação a performances recentes que pode alterar a aspiração em relação aos resultados futuros e, dessa forma, definir a extensão da pesquisa por alternativas. Os resultados alcançados com o uso da TTBA são comparados a três outras heurísticas: Procura Randômica, Menor de 3 alternativas e Take-The-Best (TTB). A simulação mostrou que a Menor de 3 continua obtendo bons resultados e que a incorporação à TTB do mecanismo de adaptação gera eficiência à TTBA.