96 resultados para Estoque : Otimização


Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como objeto de estudo a análise do processo de acompanhamento dos clientes portadores de feridas na atenção primária do município de Angra dos Reis. Os objetivos são: verificar a existência de processo de acompanhamento de clientes portadores de feridas nas unidades de atenção primária do município de Angra dos Reis; analisar as dificuldades inerentes ao processo de acompanhamento de clientes portadores de feridas nas unidades de atenção primária do município de Angra dos Reis. O método foi descritivo, o tipo é de levantamento e de natureza quantitativa. O instrumento de coleta de dados foi o formulário, tendo como sujeitos do estudo a população de enfermeiros atuantes na atenção primária do município de Angra dos Reis e que assinaram o Termo de Consentimento Livre e Esclarecido, conforme disposto na Resolução 196/96 do Conselho Nacional de saúde. O cenário utilizado foi o município de Angra dos Reis. A pesquisa foi aprovada pelo Comitê de Ética em Pesquisa do Instituto de Medicina Social da UERJ, através da Plataforma Brasil em 28/06/2013. A análise demonstrou que mais de 93% dos enfermeiros realizam curativos durante sua atuação profissional na atenção primária, destes, 80% realizam algum tipo de acompanhamento de clientes portadores de feridas. Este acompanhamento nem sempre é contínuo, por contada dificuldade técnica do próprio profissional, da interrupção do fornecimento de materiais por parte do almoxarifado, da baixa adesão do cliente e da inexistência de uma rotina institucionalizada. A insuficiência de produtos disponíveis no município para a realização de curativos também foi um fator descrito pelos sujeitos como prejudicador no processo de acompanhamento destes pacientes. Foi verificado que a utilização de produtos de segunda geração para realização de curativos, quando indicados de forma correta e respeitando o prazo de troca, proporciona uma economia nos fastos do município no que se refere ao tratamento tópico de feridas, economia esta que pode chegar à metade dos gastos. Este estudo foi relevante para a otimização do processo de acompanhamento de clientes portadores de feridas no município, bem como reorganização defluxos, rotinas e do cuidado prestado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em muitas representações de objetos ou sistemas físicos se faz necessário a utilização de técnicas de redução de dimensionalidade que possibilitam a análise dos dados em baixas dimensões, capturando os parâmetros essenciais associados ao problema. No contexto de aprendizagem de máquina esta redução se destina primordialmente à clusterização, reconhecimento e reconstrução de sinais. Esta tese faz uma análise meticulosa destes tópicos e suas conexões que se encontram em verdadeira ebulição na literatura, sendo o mapeamento de difusão o foco principal deste trabalho. Tal método é construído a partir de um grafo onde os vértices são os sinais (dados do problema) e o peso das arestas é estabelecido a partir do núcleo gaussiano da equação do calor. Além disso, um processo de Markov é estabelecido o que permite a visualização do problema em diferentes escalas conforme variação de um determinado parâmetro t: Um outro parâmetro de escala, Є, para o núcleo gaussiano é avaliado com cuidado relacionando-o com a dinâmica de Markov de forma a poder aprender a variedade que eventualmente seja o suporte do dados. Nesta tese é proposto o reconhecimento de imagens digitais envolvendo transformações de rotação e variação de iluminação. Também o problema da reconstrução de sinais é atacado com a proposta de pré-imagem utilizando-se da otimização de uma função custo com um parâmetro regularizador, γ, que leva em conta também o conjunto de dados iniciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, analisamos o modo como o processo de seleção de pessoal se estabeleceu em meio às determinações de sentido nesta que Martin Heidegger denominou a era da técnica. Esse filósofo descreve a época em que vivemos como uma era que se caracteriza essencialmente pela ênfase no pensamento técnico-calculante, em que todas as coisas são tomadas pelo caráter da mensuração e calculabilidade. Nesse sentido, podemos afirmar que a era moderna detém como verdades algumas características, como: fundo de reserva, funcionalidade (serventia) e a produtividade sem limites. Esse modelo de pensamento tem um impacto direto na realização do processo de seleção de pessoal pela Psicologia, haja vista ser esse o critério básico exigido para que o trabalhador seja aprovado. Ocorre que, ao tomar esse critério como a única e absoluta verdade da capacidade do trabalhador, outras capacidades e motivações, quando muito, ficam relegadas a um segundo plano. O homem, tomado como um estoque de matéria-prima, com funcionalidades específicas e pela determinação da produtividade incessante, passa a se comportar de modo autômato, tal como a máquina, cuja utilidade dura enquanto durar a necessidade de sua produção, sendo descartado quando outras necessidades se sobrepõem àquela. Através da análise da trajetória da organização do trabalho e sua interface com a Psicologia, procuramos esclarecer o domínio do caráter técnico instrumental que vem sustentando a Psicologia no modo de realização da seleção de pessoal, baseando-nos em autores como Sampaio, Chiavenato, Pontes e Leme. Apresentamos, também, a contribuição de outros autores, como Sennett, Dejours e Schwartz, que tentaram, a seu modo, construir uma análise crítica da relação homem-trabalho sob os parâmetros predominantes na atualidade. Por fim, por meio a uma visada fenomenológico-hermenêutica, pudemos refletir sobre o processo de seleção em Psicologia e compreender como esta, ao ser constantemente interpelada pela era da técnica, vem tomando os atributos dessa era como verdades absolutas e, assim, estabelecendo seu fazer em seleção de pessoal sob essas verdades. Ao orientar seu fazer por esse modo, a Psicologia, comprometida com o processo de seleção, compactua, sedimenta e fortalece essa forma de pensar em que o homem é tomado como objeto de produção tal qual a máquina, consolidando uma relação homem-trabalho em bases preponderantemente deterministas e, como tal, aprisionadoras. A proposta aqui desenvolvida consiste em evidenciar a possibilidade de outra posição da Psicologia frente ao modo de estabelecimento do processo de seleção, de forma a resistir à perspectiva de homem apenas como um fator produtivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tomate (Solanum lycopersicum L.) é considerado um alimento funcional por sua propriedade antioxidante. O fruto contém dos carotenoides, ácido L-ascórbico, vitamina E e substâncias fenólicas. Estudos indicam que o consumo do tomate pode retardar o envelhecimento e favorecer o funcionamento do sistema imunológico em humanos, embora não seja possível afirmar uma relação direta entre a prevenção ou cura de qualquer carcinoma com o consumo de produtos à base licopeno. Na década de 1990, a Empresa Brasileira de Pesquisa Agropecuária (EMBRAPA) criou o projeto TOMATEC, o tomate ecologicamente cultivado. A produção é baseada em um manejo diferenciado, que objetiva a otimização do uso do solo, menor consumo de pesticidas, herbicidas e incentivo à produção familiar dos agricultores. O estudo objetiva observar a influencia dos diferentes manejos: tradicional e TOMATEC na produção de (15E)-licopeno nos frutos do tomate, em diferentes cultivares do Brasil. Assim, foi utilizada a técnica de cromatografia líquida de alta eficiência acoplada a detector por arranjo de diodos (CLAE-DAD), em fase estacionária polimérica composta de 30 carbonos (C30). Esta fase estacionária é capaz de separar carotenoides, incluvise, isômeros geométricos do licopeno. As amostras foram coletadas, tratadas, extraídas e analisadas sob as mesmas condições para avaliação das concentrações de (15E)-licopeno nos frutos. Ensaios realizados foram capazes de demonstrar, de maneira objetiva, que a metodologia proposta conduziu a resultados confiáveis à qualidade desejada, de acordo com o guia de validação proposto pelo Instituto Nacional de Metrologia, Normalização e Qualidade Industrial (INMETRO). Foram utilizadas ferramentas estatísticas para comparar os teores de (15E)-licopeno, em diferentes Estados do Brasil, sob diferentes manejos. Os resultados indicam os maiores teores da substância em cultivares convencionais e mostram que o ensacamento do fruto é um fator decisivo para a biossíntese do (15E)-licopeno

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Chagas é uma zoonose causada pelo protozoário flagelado Trypanosoma cruzi. Estima-se que 8 milhões de pessoas estão infectadas com o T. cruzi em todo o mundo, principalmente na América Latina. Testes tradicionais de diagnóstico estão sendo gradualmente substituídos por métodos inovadores. A utilização de antígenos recombinantes foi proposta nos anos 90, e várias combinações foram testadas com soros de pacientes com diferentes formas clínicas de diferentes regiões da América Latina. Apesar do ganho em especificidade, estes testes apresentaram menor sensibilidade, frustrando expectativas. Este estudo objetivou analisar a variabilidade genética dos genes KMP11 e 1F8 que codificam antígenos comumente utilizados em diagnóstico experimental. Cepas de T. cruzi pertencentes a diferentes sub-grupos taxonômicos e de diferentes regiões foram analisadas para avaliar o impacto da variação antigênica em testes de diagnóstico. Maximizando a sensibilidade, evitar reatividade cruzada com epítopos de outros agentes patogênicos deve permitir a concepção de melhores testes rápidos. Num primeiro passo, DNA genômico foi extraído das seguintes cepas: Dm28c, Colombiana, Y, 3663, 4167, LL014 e CL Brener e foi realizada a amplificação dos genes 1F8 e KMP11 que codificam antígenos a partir destas cepas. Em seguida foram realizadas a clonagem, sequenciamento, expressão e detecção dos antígenos recombinantes. Na etapa final, análises de estruturas secundárias e terciárias, a última apenas para o antígeno 1F8, visualizaram as diferenças nas sequências de aminoácidos obtidas a partir de sequenciamento de DNA. Os resultados apresentados neste estudo mostram que o antígeno KMP11 de T. cruzi possui uma similaridade na sequência de aminoácidos muito elevada com o T. rangeli, mostrando a necessidade de um mapeamento antigênico desta proteína em todos os tripanosomatídeos que apresentaram alta similaridade com o antígeno de T. cruzi, como o T. rangeli, para verificar a presença de epítopos específicos de T. cruzi. O antígeno 1F8 pode ser uma ferramenta útil no diagnóstico da doença de Chagas e que será necessário aprofundar os conhecimentos sobre os determinantes antigênicos para futuramente elaborar poli-epítopos sintéticos adaptados de um maior número possível de antígenos, obtendo a maior especificidade e sensibilidade nos testes de diagnóstico sorológico e de teste rápido da doença de Chagas. Este estudo representa um passo crucial para a otimização de antígenos recombinantes para o diagnóstico da doença de Chagas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de danos estruturais é uma questão de fundamental importância na engenharia, visto que uma estrutura está sujeita a processos de deterioração e a ocorrência de danos durante a sua vida útil. A presença de danos compromete o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e resultam em perdas econômicas consideráveis. Técnicas de identificação de danos estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto, a obtenção de um problema geralmente mal posto e o elevado custo computacional, inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades, na formulação do problema de identificação de danos, pode-se utilizar o Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR da estrutura, objetivando-se a minimização de uma função de erro definida a partir das frequências naturais experimentais e das correspondentes frequências previstas pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli simplesmente apoiada na presença de danos é analisado, com intuito de se verificar as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No processo de identificação de danos, do presente trabalho, são avaliados os tipos de superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta a ser utilizado, determina-se a superfície de resposta considerando os dados experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do método Evolução Diferencial (ED) no problema inverso de identificação de danos é considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade do modelo de identificação de danos proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um simulador MATLAB para sistemas ópticos WDM amplificados baseado na solução das equações não lineares de Schrödinger acopladas, pelo método de Fourier de passo alternado. Este simulador permite o estudo da propagação de pulsos em fibras ópticas, considerando dispersão cromática, efeitos não lineares como automodulação de fase e modulação de fase cruzada e atenuação, prevendo também o emprego de amplificadores ópticos a fibra dopada com Érbio (EDFAs). Através de simulações numéricas, foi explorada a técnica de otimização do posicionamento de um EDFA ao longo de um enlace óptico, sem repetidores, que objetiva a redução dos custos de implantação de sistemas ópticos, seja pela diminuição da potência do transmissor ou pela relaxação da exigência de sensibilidade do receptor. Além disto, pode favorecer um aumento na capacidade do sistema, através do aumento do alcance ou da taxa de transmissão. A concordância dos resultados obtidos com os disponíveis na literatura confirmam a validade da técnica, bem como a versatilidade e robustez do simulador desenvolvido.