847 resultados para Otimização combinatoria


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa a existência de benefícios, em termos de risco e retorno, na inclusão de mercados emergentes globais e, em especial, dos países latinoamericanos na formação de carteiras internacionais ótimas, segundo o modelo de Markowitz (1952) e considerando o risco cambial. Para isto, o estudo baseia-se na análise das taxas de retornos mensais, desvio-padrão e coeficientes de correlação em termos de moeda local, dólar, iene, marco alemão e euro, dos Índices dos Mercados de Ações (IMAs) de dezenove países, dos Índices de Bolsa de Valores de São Paulo (IBOVESPA), Buenos Aires (MERVAL), México (IPC), Santiago (IPSA), e de Caracas (IBC), para o período compreendido entre janeiro de 1994 e dezembro de 2000. Utilizou-se o aplicativo SOLVER como ferramenta para a seleção de carteiras ótimas encontrando-se uma taxa livre de risco para este período de estudo como elemento para otimizar as diferentes carteiras internacionais, tomando como base o histórico das taxas das letras do tesouro dos EUA. Tem-se, como restrição, que os investidores não podem efetuar vendas a descoberto. Os resultados indicam que ainda existem evidências dos benefícios da diversificação internacional em termos de desempenho para os investidores mas que estes são menores comparados com aqueles encontrados no trabalho de Zanette (1995) ao considerar o fator cambial. Cabe indicar, também, que a inclusão do componente latino-americano nas diferentes carteiras otimizadas, quase não acrescenta benefício algum do desempenho geral destas carteiras, sendo nulo para as carteiras do investidor japonês.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A melhoria de produtos e processos industriais pode ser realizada utilizando-se métodos de otimização experimental. Este trabalho apresenta um método estruturado para otimização envolvendo variáveis relacionadas com qualidade, comumente utilizadas, e variáveis que descrevem a confiabilidade do produto. O interesse em particular, está em sistematizar uma forma apropriada de determinar o prazo de garantia de produtos, baseado em testes de degradação acelerados. Para atingir este propósito utiliza-se projeto de experimentos conjuntamente com técnicas de avaliação sensorial, utilizada para medir o grau de degradação das amostras provindas dos testes de confiabilidade acelerados. O método é ilustrado com um estudo de caso realizado num produto fabricado em injeção de plástico. No exemplo do estudo de caso, deseja-se modelar a garantia de um piso plástico utilizado, na maternidade, para criação de suínos. Até o momento da realização da análise ocorriam reclamações de problemas com o produto dentro do prazo e garantia. O principal problema era a delaminação do produto devida a intensa fucção entre os cascos do animal e o piso. Um número elevado de reclamações durante o prazo de garantia levou ao desenvolvimento de uma nova composição do piso; o método proposto aqui é utilizado para determinar um prazo de garantia apropriado para produtos novos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os autores objetivam, com este trabalho, bem como com aqueles que lhe precederam (capítulos l, 2, 3 e 4) registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade e em que ordem. É neste sentido que os autores esperam. com a sequência didática aqui apresentada, trazer alguma contribuição para o assunto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática que aqui se inicia, trazer alguma contribuição para o assunto. A parte teórica relativa à demonstração do Teorema de Kuhn Tucker aqui apresentada transcreve, com a aquiescência do autor, textos selecionados de "Análise Convexa do Rn." de Mario Henrique Simonsen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O traçado de obras com características lineares num espaço geográfico tem, em princípio, um número muito grande de soluções. A seleção de traçados mais convenientes é hoje abordada pela Pesquisa Operacional por meio da Programação Dinâmica tradicional e das técnicas para resolver o problema conhecido como leastcost- path, (caminho de mínimo custo). Por sua vez, o planejamento de espaços geográficos é feito com o auxílio de técnicas de SIG (sistemas de informação geográfica). O estudo algorítmico dos caminhos de mínimo custo não é novidade e até os programas comerciais para SIG mais utilizados têm incorporado comandos que, com certas limitações, resolvem esse problema. Mas, seja qual for a abordagem, sempre é preciso conhecer a priori a funçãoobjetivo (FO), e isto não é tarefa fácil, pois devem ser conjugados objetivos de satisfação de necessidades sociais, políticas, ambientais e econômicas, o que gera um verdadeiro problema de otimização multiobjetivo e multicritério. Este trabalho teve como foco principal elaborar um modelo de decisão para ajudar na formulação da FO, adotando o paradigma multiobjetivo/multicritério, explorando inclusive o relaxamento difuso de pareceres dos decisores. Foram utilizadas apenas ferramentas computacionais (software e hardware) simples, de ampla difusão entre os engenheiros e de baixo custo, como a planilha de cálculo Excel e o programa Idrisi 32, procurando explorar suas aptidões e limitações, sem recorrer à elaboração e/ou utilização de códigos computacionais próprios, sobre os quais muitas pessoas sentem receios até não serem testados suficientemente. Foi obtido um sistema de apoio à decisão eficaz e de fácil utilização e sua possibilidade de aplicação foi testada na definição do traçado ótimo de parte da defesa norte da cidade de Resistencia (Argentina).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os serviços em geral estão em evolução dentro de um cenário de crescente competição, e as particularidades de cada segmento necessitam ser atendidas de forma manter os clientes atuais ampliar carteira dentre os clientes potenciais. papel do relacionamento nas atividades de serviços torna-se cada dia mais importante, em especial se setor da atividade da saúde. saúde um setor onde tecnologia pouco contribui para redução dos custos; ao contrário, encarece prática da medicina, juntamente com acréscimo da demanda das expectativas dos usuários. Além disso, setor passou para condição de concessionário, regulamentado por uma Agência governamental, com forte pressão de nova legislação qual aumentou significativamente as coberturas serem entregues pelos Planos de Saúde seus usuários, ampliada pelos órgãos de defesa do consumidor pela exposição na mídia, por tratar-se de assunto de forte apelo social, econômico político. estudo analisa, através de uma pesquisa, importância de um programa de Marketing de Relacionamento desenvolvido por um Grupo que presta serviços de saúde no interior do Rio Grande do Sul, qual procura manter os clientes atuais ampliar sua carteira. organização desenvolve um programa valorizando os colaboradores, orienta-se para mercado busca fortalecer as relações internas externas, por meio do comprometimento, da confiança da cooperação, que são as bases do relacionamento. Os resultados apontam para validade do programa no tocante fidelização dos atuais clientes, sua evolução permite prever fortalecimento dos vínculos do Grupo com seus colaboradores clientes, necessitando de mais tempo para confirmar eficácia também na ampliação de sua carteira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação insere-se na linha de pesquisa Justiça e Sociedade do Programa de Pós-Graduação da Fundação Getúlio Vargas, Escola de Direito do Rio de Janeiro, Mestrado Profissional em Poder Judiciário, Área multidisciplinar. Teve como objeto de estudo o uso da videoconferência, analisando-a como prática inovadora de informática como expediente de otimização e modernização do Poder Judiciário. Quanto a metodologia empregou-se a pesquisa bibliográfica e de campo analisando medidas já implantadas em alguns Tribunais que possam ser utilizadas e aprimoradas em âmbito nacional. Examinou-se a controvérsia existente sobre a aplicação da videoconferência e conseqüências jurídicas e sociais do uso desta tecnologia. Com relação aos resultados concluiu-se que a utilização deste instrumento não viola princípios processuais, bem como não se trata de prática inconstitucional, mas sim gera benefícios para os cofres públicos e para o jurisdicionado, acarretando melhoria de qualidade na prestação jurisdicional

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tomada de decisões é um procedimento complexo e que envolve muitas variáveis. A análise multiobjeto estabelece relações para que, em projetos e planejamento de unidades de gerenciamento, sejam analisados os diversos condicionantes envolvidos. Como nos recursos hìdricos a tomada de decisão envolve cada vez mais a resolução de conflitos e um aumento da diversidade de objetivos, a análise multiobjetivo vem sendo cada vez mais utilizada..O objetivo deste trabalho é desenvolver ferramenta e metodologias que busquem formas de quantificar, avaliar e analisar múltiplos objetivos envolvidos na tomada de decisão em projetos, planejamento e gerenciamento de bacias hidrográficas. Para a elaboração dos estudos foi escolhida a bacia do rio dos Sinos. A bacia do rio dos Sinos abrange parte da Região Metropolitana de Porto Alegre, e é importante pólo econômico do Estado do Rio Grande do Sul Foram identificados condicionantes para a bacia, quais sejam: eficiência econômica, melhoria da qualidade da água, comprometimento social e minimização do impacto ambiental. Cada condicionante foi modelado por metodologias já consagradas para tal. A novidade é o casamento delas o que tornou o problema mais complexo de ser resolvido. Foi elaborada função de compromisso para a bacia do rio dos Sinos.Por fim, baseado em preferências estabelecidas pelo Comitê da Bacia Hidrográfica, foram elaborados tabela e gráficos que auxiliam na tomada de decisão para intervenções no rio, definindo assim, o que deve ser feito primeiro com os recursos disponíveis em um plano de despoluição para a bacia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.