72 resultados para Simulação de defeitos
Resumo:
Esta tese tem como foco principal a análise dos principais tipos de amplificação óptica e algumas de suas aplicações em sistemas de comunicação óptica. Para cada uma das tecnologias abordadas, procurou-se definir o estado da arte bem como identificar as oportunidades de desenvolvimento científico relacionadas. Os amplificadores para os quais foi dirigido alguma atenção neste documento foram os amplificadores em fibra dopada com Érbio (EDFA), os amplificadores a semicondutor (SOA) e os amplificadores de Raman (RA). Este trabalho iniciou-se com o estudo e análise dos EDFA’s. Dado o interesse científico e económico que estes amplificadores têm merecido, apenas poucos nichos de investigação estão ainda em aberto. Dentro destes, focá-mo-nos na análise de diferentes perfis de fibra óptica dopada de forma a conseguir uma optimização do desempenho dessas fibras como sistemas de amplificação. Considerando a fase anterior do trabalho como uma base de modelização para sistemas de amplificação com base em fibra e dopantes, evoluiu-se para amplificadores dopados mas em guias de onda (EDWA). Este tipo de amplificador tenta reduzir o volume físico destes dispositivos, mantendo as suas características principais. Para se ter uma forma de comparação de desempenho deste tipo de amplificador com os amplificadores em fibra, foram desenvolvidos modelos de caixa preta (BBM) e os seus parâmetros afinados por forma a termos uma boa modelização e posterior uso deste tipo de amplificiadores em setups de simulação mais complexos. Depois de modelizados e compreendidos os processo em amplificadores dopados, e com vista a adquirir uma visão global comparativa, foi imperativo passar pelo estudo dos processos de amplificação paramétrica de Raman. Esse tipo de amplificação, sendo inerente, ocorre em todas as bandas de propagação em fibra e é bastante flexível. Estes amplificadores foram inicialmente modelizados, e algumas de suas aplicações em redes passivas de acesso foram estudadas. Em especial uma série de requisitos, como por exemplo, a gama de comprimentos de onda sobre os quais existem amplificação e os altos débitos de perdas de inserção, nos levaram à investigação de um processo de amplificação que se ajustasse a eles, especialmente para buscar maiores capacidades de amplificação (nomeadamente longos alcances – superiores a 100 km – e altas razões de divisão – 1:512). Outro processo investigado foi a possibilidade de flexibilização dos parâmetros de comprimento de onda de ganho sem ter que mudar as caractísticas da bomba e se possível, mantendo toda a referenciação no transmissor. Este processo baseou-se na técnica de clamping de ganho já bastante estudada, mas com algumas modificações importantes, nomeadamente a nível do esquema (reflexão apenas num dos extremos) e da modelização do processo. O processo resultante foi inovador pelo recurso a espalhamentos de Rayleigh e Raman e o uso de um reflector de apenas um dos lados para obtenção de laser. Este processo foi modelizado através das equações de propagação e optimizado, tendo sido demonstrado experimentalmente e validado para diferentes tipos de fibras. Nesta linha, e dada a versatilidade do modelo desenvolvido, foi apresentada uma aplicação mais avançada para este tipo de amplificadores. Fazendo uso da sua resposta ultra rápida, foi proposto e analisado um regenerador 2R e analisada por simulação a sua gama de aplicação tendo em vista a sua aplicação sistémica. A parte final deste trabalho concentrou-se nos amplificadores a semiconductor (SOA). Para este tipo de amplificador, os esforços foram postos mais a nível de aplicação do que a nível de sua modelização. As aplicações principais para estes amplificadores foram baseadas em clamping óptico do ganho, visando a combinação de funções lógicas essenciais para a concepção de um latch óptico com base em componentes discretos. Assim, com base num chip de ganho, foi obtido uma porta lógica NOT, a qual foi caracterizada e demonstrada experimentalmente. Esta foi ainda introduzida num esquema de latching de forma a produzir um bi-estável totalmente óptico, o qual também foi demonstrado e caracterizado. Este trabalho é finalizado com uma conclusão geral relatando os subsistemas de amplificação e suas aplicacações.
Resumo:
O presente trabalho centra-se no estudo dos amplificadores de Raman em fibra ótica e suas aplicações em sistemas modernos de comunicações óticas. Abordaram-se tópicos específicos como a simulação espacial do amplificador de Raman, a equalização e alargamento do ganho, o uso de abordagens híbridas de amplificação através da associação de amplificadores de Raman em fibra ótica com amplificadores de fibra dopada com Érbio (EDFA) e os efeitos transitórios no ganho dos amplificadores. As actividades realizadas basearam-se em modelos teóricos, sendo os resultados validados experimentalmente. De entre as contribuições mais importantes desta tese, destaca-se (i) o desenvolvimento de um simulador eficiente para amplificadores de Raman que suporta arquitecturas de bombeamento contraprogantes e bidirecionais num contexto com multiplexagem no comprimento de onda (WDM); (ii) a implementação de um algoritmo de alocação de sinais de bombeamento usando a combinação do algoritmo genético com o método de Nelder- Mead; (iii) a apreciação de soluções de amplificação híbridas por associação dos amplificadores de Raman com EDFA em cenários de redes óticas passivas, nomeadamente WDM/TDM-PON com extensão a região espectral C+L; e (iv) a avaliação e caracterização de fenómenos transitórios em amplificadores para tráfego em rajadas/pacotes óticos e consequente desenvolvimento de soluções de mitigação baseadas em técnicas de clamping ótico.
Resumo:
O presente trabalho tem por objectivo o estudo de novos dispositivos fotónicos aplicados a sistemas de comunicações por fibra óptica e a sistemas de processamento de sinais RF. Os dispositivos apresentados baseiam-se em processamento de sinal linear e não linear. Dispositivos lineares ópticos tais como o interferómetro de Mach-Zehnder permitem adicionar sinais ópticos com pesos fixos ou sintonizáveis. Desta forma, este dispositivo pode ser usado respectivamente como um filtro óptico em amplitude com duas saídas complementares, ou, como um filtro óptico de resposta de fase sintonizável. O primeiro princípio de operação serve como base para um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. O segundo princípio de operação é explorado num novo sistema fotónico de direccionamento do campo eléctrico radiado por um agregado de antenas, e também num novo compensador sintonizável de dispersão cromática. O processamento de sinal é não linear quando sinais ópticos são atrasados e posteriormente misturados entre si, em vez de serem linearmente adicionados. Este princípio de operação está por detrás da mistura de um sinal eléctrico com um sinal óptico, que por sua vez é a base de um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. A mistura de sinais ópticos em meios não lineares permite uma operação eficiente numa grande largura espectral. Tal operação é usada para realizar conversão de comprimento de onda sintonizável. Um sinal óptico com multiplexagem no domínio temporal de elevada largura de banda é misturado com duas bombas ópticas não moduladas com base em processos não lineares paramétricos num guia de ondas de niobato de lítio com inversão periódica da polarização dos domínios ferroeléctricos. Noutro trabalho, uma bomba pulsada em que cada pulso tem um comprimento de onda sintonizável serve como base a um novo conversor de sinal óptico com multiplexagem no domínio temporal para um sinal óptico com multiplexagem no comprimento de onda. A bomba é misturada com o sinal óptico de entrada através de um processo não linear paramétrico numa fibra óptica com parâmetro não linear elevado. Todos os dispositivos fotónicos de processamento de sinal linear ou não linear propostos são experimentalmente validados. São também modelados teoricamente ou através de simulação, com a excepção dos que envolvem mistura de sinais ópticos. Uma análise qualitativa é suficiente nestes últimos dispositivos.
Resumo:
Low level protein synthesis errors can have profound effects on normal cell physiology and disease development, namely neurodegeneration, cancer and aging. The biology of errors introduced into proteins during mRNA translation, herein referred as mistranslation, is not yet fully understood. In order to shed new light into this biological phenomenon, we have engineered constitutive codon misreading in S. cerevisiae, using a mutant tRNA that misreads leucine CUG codons as serine, representing a 240 fold increase in mRNA translational error relative to typical physiological error (0.0001%). Our studies show that mistranslation induces autophagic activity, increases accumulation of insoluble proteins, production of reactive oxygen species, and morphological disruption of the mitochondrial network. Mistranslation also up-regulates the expression of the longevity gene PNC1, which is a regulator of Sir2p deacetylase activity. We show here that both PNC1 and SIR2 are involved in the regulation of autophagy induced by mistranslation, but not by starvation-induced autophagy. Mistranslation leads to P-body but not stress-granule assembly, down-regulates the expression of ribosomal protein genes and increases slightly the selective degradation of ribosomes (ribophagy). The study also indicates that yeast cells are much more resistant to mistranslation than expected and highlights the importance of autophagy in the cellular response to mistranslation. Morpho-functional alterations of the mitochondrial network are the most visible phenotype of mistranslation. Since most of the basic cellular processes are conserved between yeast and humans, this study reinforces the importance of yeast as a model system to study mistranslation and suggests that oxidative stress and accumulation of misfolded proteins arising from aberrant protein synthesis are important causes of the cellular degeneration observed in human diseases associated to mRNA mistranslation.
Resumo:
O presente trabalho centra-se no desenvolvimento e aplicação de sensores de aceleração ópticos, baseados em redes de Bragg gravadas em fibras ópticas, para monitorização da integridade estrutural de estruturas de engenharia civil. Foram implementados dois acelerómetros uniaxiais e um acelerómetro biaxial. Recorreu-se a uma ferramenta de simulação baseada no método dos elementos finitos que permitiu optimizar, sem custos de produção, as características dos sensores, nomeadamente a sua frequência de ressonância. A caracterização dos sensores foi realizada em ambiente laboratorial e a sua resposta comparada com os resultados de simulação, de modo a validar os modelos numéricos. A aplicabilidade e demonstração de conceito foram realizadas na monitorização de estruturas com testes de campo. Foi monitorizado um teste destrutivo de uma parede de adobe, construída à escala real no Departamento de Engenharia Civil da Universidade de Aveiro, onde foram utilizados sensores estáticos e dinâmicos baseados em redes de Bragg gravadas em fibra óptica. Foram realizadas medidas dinâmicas na ponte pedonal do Campus Universitário da Universidade de Aveiro, onde se compararam os resultados obtidos com os sensores ópticos com resultados de sensores electrónicos comerciais. O acelerómetro biaxial foi testado na monitorização de estruturas esbeltas, nomeadamente na monitorização de duas torres de telecomunicações móveis, onde se demonstrou a possibilidade da utilização de sensores ópticos na caracterização dinâmica deste tipo de estruturas. Outro tipo de estruturas de engenharia civil onde foi demonstrada a aplicabilidade dos sensores ópticos desenvolvidos na monitorização estrutural foram os reservatórios de água elevados. Foi realizada a monitorização dinâmica de um exemplo deste tipo de estruturas, localizado no Campus Universitário da Universidade de Aveiro. A monitorização foi realizada recorrendo ao sensor biaxial desenvolvido e a um sismógrafo, ficando o sensor óptico instalado na estrutura de modo a permitir futuras leituras e assim a monitorização periódica da estrutura. Foi ainda desenvolvido um sensor de humidade relativa do ar, com um material sol-gel, que permitiu registar o nível de humidade relativa no interior de blocos de betão, durante um ano. Este sensor pode ser incluído numa rede de sensores multiplexados, na caracterização e monitorização da integridade estrutural de certas estruturas de engenharia civil.
Resumo:
Apresenta-se uma avaliação de vários métodos de downscaling dinâmico. Os métodos utilizados vão desde o método clássico de aninhar um modelo regional nos resultados de um modelo global, neste caso as reanálises do ECMWF, a métodos propostos mais recentemente, que consistem em utilizar métodos de relaxamento Newtoniano de forma a fazer tender os resultados do modelo regional aos pontos das reanálises que se encontram dentro do domínio deste. O método que apresenta melhores resultados envolve a utilização de um sistema variacional de assimilação de dados de forma a incorporar dados de observações com resultados do modelo regional. A climatologia de uma simulação de 5 anos usando esse método é testada contra observações existentes sobre Portugal Continental e sobre o oceano na área da Plataforma Continental Portuguesa, o que permite concluir que o método desenvolvido é apropriado para reconstrução climática de alta resolução para Portugal Continental.
Resumo:
Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.
Resumo:
O tema principal desta tese é o problema de cancelamento de interferência para sistemas multi-utilizador, com antenas distribuídas. Como tal, ao iniciar, uma visão geral das principais propriedades de um sistema de antenas distribuídas é apresentada. Esta descrição inclui o estudo analítico do impacto da ligação, dos utilizadores do sistema, a mais antenas distribuídas. Durante essa análise é demonstrado que a propriedade mais importante do sistema para obtenção do ganho máximo, através da ligação de mais antenas de transmissão, é a simetria espacial e que os utilizadores nas fronteiras das células são os mais bene ciados. Tais resultados são comprovados através de simulação. O problema de cancelamento de interferência multi-utilizador é considerado tanto para o caso unidimensional (i.e. sem codi cação) como para o multidimensional (i.e. com codi cação). Para o caso unidimensional um algoritmo de pré-codi cação não-linear é proposto e avaliado, tendo como objectivo a minimização da taxa de erro de bit. Tanto o caso de portadora única como o de multipla-portadora são abordados, bem como o cenário de antenas colocadas e distribuidas. É demonstrado que o esquema proposto pode ser visto como uma extensão do bem conhecido esquema de zeros forçados, cuja desempenho é provado ser um limite inferior para o esquema generalizado. O algoritmo é avaliado, para diferentes cenários, através de simulação, a qual indica desempenho perto do óptimo, com baixa complexidade. Para o caso multi-dimensional um esquema para efectuar "dirty paper coding" binário, tendo como base códigos de dupla camada é proposto. No desenvolvimento deste esquema, a compressão com perdas de informação, é considerada como um subproblema. Resultados de simulação indicam transmissão dedigna proxima do limite de Shannon.
Resumo:
Esta tese centra-se no desenvolvimento de materiais biodegradáveis e nãodegradáveis produzidos por eletrofiação com aplicação na área biomédica. O poli(3-hidroxibutirato-co-3-hidroxivalerato) (PHBV), um poliéster biodegradável, foi selecionado como base dos materiais biodegradáveis, enquanto o poli(tereftalato de etileno) (PET), um polímero sintético, estável e biocompatível, foi selecionado para a produção das matrizes não degradáveis. Adicionou-se quitosana aos sistemas com o objetivo de melhorar o processo de eletrofiação e as propriedades morfológicas, físico-químicas e biológicas dos materiais resultantes. A composição química, bem como as características morfológicas e físicoquímicas dos materiais em estudo, foram manipuladas de modo a otimizar a sua performance como suportes celulares para engenharia de tecidos. Foram realizados estudos in vitro com cultura de fibroblastos L929 para avaliar o comportamento das células, i.e. viabilidade, adesão, proliferação e morte, quando cultivadas nas matrizes produzidas por eletrofiação. Adicionalmente foram realizados ensaios in vivo para investigar o potencial dos materiais em estudo na regeneração cutânea e como tela abdominal. Os principais resultados encontrados incluem: o desenvolvimento de novas matrizes híbridas (PHBV/quitosana) adequadas ao crescimento de fibroblastos e ao tratamento de lesões de pele; o desenvolvimento de um sistema de eletrofiação com duas seringas para a incorporação de compostos bioativos; diversas estratégias para manipulação das características morfológicas dos materiais de PHBV/quitosana e PET/quitosana produzidos por eletrofiação; uma melhoria do conhecimento das interações fibroblastos-suporte polimérico; a verificação de uma resposta inflamatória desencadeada pelos materiais nãodegradáveis quando utilizados no tratamento de defeitos da parede abdominal, o que sugere a necessidade de novos estudos para avaliar a segurança do uso de biomateriais produzidos por eletrofiação.
Resumo:
A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.
Resumo:
O presente trabalho descreve um projeto de implementação da metodologia de Manutenção Produtiva Total (TPM) desenvolvido na Simoldes Plásticos, unidade industrial de injeção de plásticos que opera no setor automóvel. A metodologia TPM salienta o papel fundamental que o trabalho em equipa e, em particular, a participação do pessoal, podem desempenhar na identificação de oportunidades de melhoria e na sua implementação. A sua aplicação visa a diminuição dos desperdícios, acidentes, defeitos, paragens e falhas ao longo de um processo produtivo. De uma forma geral, a TPM utiliza uma ideia base elementar que passa pela sensibilização, formação e treino dos operadores para que estes consigam realizar a manutenção autónoma dos equipamentos e melhorar continuamente o seu desempenho. Este trabalho apresenta em primeiro lugar uma revisão dos conceitos de Gestão da Qualidade Total, particularmente da Melhoria Contínua e da Metodologia TPM. De seguida, é descrita a aplicação da TPM na empresa Simoldes Plásticos, que inclui uma descrição dos principais problemas encontrados e das medidas aplicadas para a sua correção. Finalmente é feita uma análise do impacto das melhorias implementadas, a partir da análise de um indicador de eficiência específico, desenvolvido na empresa - o RUTPM - Rendimento de Utilização TPM.
Resumo:
Os nitretos binários semicondutores do grupo III, e respetivos compostos, são vastamente estudados devido à sua possível aplicabilidade em dispositivos optoeletrónicos, tais como díodos emissores de luz (LEDs) e LASERs, assim como dispositivos para a eletrónica de elevadas temperatura, potência e frequência. Enquanto se concretizou a comercialização na última década de LEDs e LASERs recorrendo ao ternário In1-yGayN, estudos das propriedades fundamentais estruturais e óticas, assim como de técnicas de processamento no desenvolvimento de novas aplicações de outros ternários do grupo III-N encontram-se na sua fase inicial. Esta tese apresenta a investigação experimental de filmes finos epitaxiais de Al1-xInxN crescidos sobre camadas tampão de GaN e de Al1-yGayN e o estudo do recozimento e implantação de super-redes (SL) compostas por pontos quânticos de GaN (QD) envolvidos por camadas de AlN. Apesar do hiato energético do Al1-xInxN poder variar entre os 0,7 eV e os 6,2 eV e, por isso, numa gama, consideravelmente superior à dos ternários Al1-yGayN e InyGa1-yN, o primeiro é o menos estudado devido a dificuldades no crescimento de filmes com elevada qualidade cristalina. É efetuada, nesta tese, uma caracterização estrutural e composicional de filmes finos de Al1-xInxN crescidos sobre camadas tampão de GaN e de Al1-yGayN usando técnicas de raios-X, feixe de iões e de microscopia. Mostra-se que o Al1-xInxN pode ser crescido com elevada qualidade cristalina quando a epitaxia do crescimento se aproxima da condição de rede combinada do Al1-xInxN e da camada tampão (GaN ou Al1-yGayN), isto é, com conteúdo de InN de ~18%, quando crescido sobre uma camada de GaN. Quando o conteúdo de InN é inferior/superior à condição de rede combinada, fenómenos de relaxação de tensão e deterioração do cristal tais como o aumento da rugosidade de superfície prejudicam a qualidade cristalina do filme de Al1-xInxN. Observou-se que a qualidade dos filmes de Al1-xInxN depende fortemente da qualidade cristalina da camada tampão e, em particular, da sua morfologia e densidade de deslocações. Verificou-se que, dentro da exatidão experimental, os parâmetros de rede do ternário seguem a lei empírica de Vegard, ou seja, variam linearmente com o conteúdo de InN. Contudo, em algumas amostras, a composição determinada via espetrometria de retrodispersão de Rutherford e difração e raios-X mostra valores discrepantes. Esta discrepância pode ser atribuída a defeitos ou impurezas capazes de alterar os parâmetros de rede do ternário. No que diz respeito às SL dos QD e camadas de AlN, estudos de recozimento mostraram elevada estabilidade térmica dos QD de GaN quando estes se encontram inseridos numa matriz de AlN. Por implantação iónica, incorporou-se európio nestas estruturas e, promoveu-se a ativação ótica dos iões de Eu3+ através de tratamentos térmicos. Foram investigados os efeitos da intermistura e da relaxação da tensão ocorridos durante o recozimento e implantação nas propriedades estruturais e óticas. Verificou-se que para fluências elevadas os defeitos gerados por implantação são de difícil remoção. Contudo, a implantação com baixa fluência de Eu, seguida de tratamento térmico, promove uma elevada eficiência e estabilidade térmica da emissão vermelha do ião lantanídeo incorporado nos QD de GaN. Estes resultados são, particularmente relevantes, pois, na região espetral indicada, a eficiência quântica dos LEDs convencionais de InGaN é baixa.
Resumo:
Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.