884 resultados para Simulação de Enchimento de Moldes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Do ponto de vista da política económica, existe a possibilidade de utilizar a receita dos impostos ambientais para baixar os impostos sobre o trabalho, promovendo assim o emprego. Esta oportunidade surge na literatura como forma dos países industrializados responderem a um duplo desafio: um crescente nível de poluição e um decrescente nível de emprego. Alguns países tomaram já decisões no sentido de alcançar o “duplo dividendo”: melhorias ambientais e diminuição do desemprego. Os resultados teóricos, na sua maioria cépticos em relação à verificação do segundo dividendo, são substancialmente contrariados por uma série de estudos que utilizam modelos de equilíbrio geral. Pretendese com este trabalho fazer uma simulação para a economia portuguesa de uma reforma fiscal ambiental com as características referidas e a verificação da existência do “duplo dividendo”, através de um modelo computacional de equilíbrio geral. Para além disso, é feita uma análise dos impactos do Mercado Europeu de Licenças de Emissão, ao nível sectorial e regional, em Portugal, utilizando dados microeconómicos, com o objectivo de estudar as consequências ao nível das trasacções entre sectores e efeitos distributivos entre regiões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese investigam-se e desenvolvem-se dispositivos para processamento integralmente óptico em redes com multiplexagem densa por divisão no comprimento de onda (DWDM). O principal objectivo das redes DWDM é transportar e distribuir um espectro óptico densamente multiplexado com sinais de débito binário ultra elevado, ao longo de centenas ou milhares de quilómetros de fibra óptica. Estes sinais devem ser transportados e encaminhados no domínio óptico de forma transparente, sem conversões óptico-eléctrico-ópticas (OEO), evitando as suas limitações e custos. A tecnologia baseada em amplificadores ópticos de semicondutor (SOA) é promissora graças aos seus efeitos não-lineares ultra-rápidos e eficientes, ao potencial para integração, reduzido consumo de potência e custos. Conversores de comprimento de onda são o elemento óptico básico para aumentar a capacidade da rede e evitar o bloqueio de comprimentos de onda. Neste trabalho, são estudados e analisados experimentalmente métodos para aumentar a largura de banda operacional de conversores de modulação cruzada de ganho (XGM), a fim de permitir a operação do SOA para além das suas limitações físicas. Conversão de um comprimento de onda, e conversão simultânea de múltiplos comprimentos de onda são testadas, usando interferómetros de Mach-Zehnder com SOA. As redes DWDM de alto débito binário requerem formatos de modulação optimizados, com elevada tolerância aos efeitos nefastos da fibra, e reduzida ocupação espectral. Para esse efeito, é vital desenvolver conversores integramente ópticos de formatos de modulação, a fim de permitir a interligação entre as redes já instaladas, que operam com modulação de intensidade, e as redes modernas, que utilizam formatos de modulação avançados. No âmbito deste trabalho é proposto um conversor integralmente óptico de formato entre modulação óptica de banda lateral dupla e modulação óptica de banda lateral residual; este é caracterizado através de simulação e experimentalmente. Adicionalmente, é proposto um conversor para formato de portadora suprimida, através de XGM e modulação cruzada de fase. A interligação entre as redes de transporte com débito binário ultra-elevado e as redes de acesso com débito binário reduzido requer conversão óptica de formato de impulso entre retorno-a-zero (RZ) e não-RZ. São aqui propostas e investigadas duas estruturas distintas: uma baseada em filtragem desalinhada do sinal convertido por XGM; uma segunda utiliza as dinâmicas do laser interno de um SOA com ganho limitado (GC-SOA). Regeneração integralmente óptica é essencial para reduzir os custos das redes. Dois esquemas distintos são utilizados para regeneração: uma estrutura baseada em MZI-SOA, e um método no qual o laser interno de um GC-SOA é modulado com o sinal distorcido a regenerar. A maioria dos esquemas referidos é testada experimentalmente a 40 Gb/s, com potencial para aplicação a débitos binários superiores, demonstrado que os SOA são uma tecnologia basilar para as redes ópticas do futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma descrição detalhada do processo de electroluminescência é um prérequisito na optimização de detectores gasosos para sistemas de imagiologia, astrofísica, física de altas energias e experiências de eventos raros. Neste trabalho, é apresentada e caracterizada uma nova e versátil plataforma de simulação da emissão de luz durante a deriva de electrões em gases nobres, desenvolvida usando os programas Magboltz e Garfield. Propriedades intrínsecas da electroluminescência em gases nobres são calculadas e apresentadas em função do campo eléctrico aplicado, nomeadamente eficiências, rendimento e flutuações estatísticas associadas. São obtidos resultados em grande concordância com dados experimentais e simulações Monte Carlo anteriores. A plataforma é usada para determinar as condições óptimas de funcionamento de detectores como o NEXT (Neutrino Experiment with a Xenon TPC) e outros baseados nas micro-estruturas GEM (Gas Electron Multiplier) e MHSP (Micro- Hole & Strip Plate).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como foco principal a análise dos principais tipos de amplificação óptica e algumas de suas aplicações em sistemas de comunicação óptica. Para cada uma das tecnologias abordadas, procurou-se definir o estado da arte bem como identificar as oportunidades de desenvolvimento científico relacionadas. Os amplificadores para os quais foi dirigido alguma atenção neste documento foram os amplificadores em fibra dopada com Érbio (EDFA), os amplificadores a semicondutor (SOA) e os amplificadores de Raman (RA). Este trabalho iniciou-se com o estudo e análise dos EDFA’s. Dado o interesse científico e económico que estes amplificadores têm merecido, apenas poucos nichos de investigação estão ainda em aberto. Dentro destes, focá-mo-nos na análise de diferentes perfis de fibra óptica dopada de forma a conseguir uma optimização do desempenho dessas fibras como sistemas de amplificação. Considerando a fase anterior do trabalho como uma base de modelização para sistemas de amplificação com base em fibra e dopantes, evoluiu-se para amplificadores dopados mas em guias de onda (EDWA). Este tipo de amplificador tenta reduzir o volume físico destes dispositivos, mantendo as suas características principais. Para se ter uma forma de comparação de desempenho deste tipo de amplificador com os amplificadores em fibra, foram desenvolvidos modelos de caixa preta (BBM) e os seus parâmetros afinados por forma a termos uma boa modelização e posterior uso deste tipo de amplificiadores em setups de simulação mais complexos. Depois de modelizados e compreendidos os processo em amplificadores dopados, e com vista a adquirir uma visão global comparativa, foi imperativo passar pelo estudo dos processos de amplificação paramétrica de Raman. Esse tipo de amplificação, sendo inerente, ocorre em todas as bandas de propagação em fibra e é bastante flexível. Estes amplificadores foram inicialmente modelizados, e algumas de suas aplicações em redes passivas de acesso foram estudadas. Em especial uma série de requisitos, como por exemplo, a gama de comprimentos de onda sobre os quais existem amplificação e os altos débitos de perdas de inserção, nos levaram à investigação de um processo de amplificação que se ajustasse a eles, especialmente para buscar maiores capacidades de amplificação (nomeadamente longos alcances – superiores a 100 km – e altas razões de divisão – 1:512). Outro processo investigado foi a possibilidade de flexibilização dos parâmetros de comprimento de onda de ganho sem ter que mudar as caractísticas da bomba e se possível, mantendo toda a referenciação no transmissor. Este processo baseou-se na técnica de clamping de ganho já bastante estudada, mas com algumas modificações importantes, nomeadamente a nível do esquema (reflexão apenas num dos extremos) e da modelização do processo. O processo resultante foi inovador pelo recurso a espalhamentos de Rayleigh e Raman e o uso de um reflector de apenas um dos lados para obtenção de laser. Este processo foi modelizado através das equações de propagação e optimizado, tendo sido demonstrado experimentalmente e validado para diferentes tipos de fibras. Nesta linha, e dada a versatilidade do modelo desenvolvido, foi apresentada uma aplicação mais avançada para este tipo de amplificadores. Fazendo uso da sua resposta ultra rápida, foi proposto e analisado um regenerador 2R e analisada por simulação a sua gama de aplicação tendo em vista a sua aplicação sistémica. A parte final deste trabalho concentrou-se nos amplificadores a semiconductor (SOA). Para este tipo de amplificador, os esforços foram postos mais a nível de aplicação do que a nível de sua modelização. As aplicações principais para estes amplificadores foram baseadas em clamping óptico do ganho, visando a combinação de funções lógicas essenciais para a concepção de um latch óptico com base em componentes discretos. Assim, com base num chip de ganho, foi obtido uma porta lógica NOT, a qual foi caracterizada e demonstrada experimentalmente. Esta foi ainda introduzida num esquema de latching de forma a produzir um bi-estável totalmente óptico, o qual também foi demonstrado e caracterizado. Este trabalho é finalizado com uma conclusão geral relatando os subsistemas de amplificação e suas aplicacações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho centra-se no estudo dos amplificadores de Raman em fibra ótica e suas aplicações em sistemas modernos de comunicações óticas. Abordaram-se tópicos específicos como a simulação espacial do amplificador de Raman, a equalização e alargamento do ganho, o uso de abordagens híbridas de amplificação através da associação de amplificadores de Raman em fibra ótica com amplificadores de fibra dopada com Érbio (EDFA) e os efeitos transitórios no ganho dos amplificadores. As actividades realizadas basearam-se em modelos teóricos, sendo os resultados validados experimentalmente. De entre as contribuições mais importantes desta tese, destaca-se (i) o desenvolvimento de um simulador eficiente para amplificadores de Raman que suporta arquitecturas de bombeamento contraprogantes e bidirecionais num contexto com multiplexagem no comprimento de onda (WDM); (ii) a implementação de um algoritmo de alocação de sinais de bombeamento usando a combinação do algoritmo genético com o método de Nelder- Mead; (iii) a apreciação de soluções de amplificação híbridas por associação dos amplificadores de Raman com EDFA em cenários de redes óticas passivas, nomeadamente WDM/TDM-PON com extensão a região espectral C+L; e (iv) a avaliação e caracterização de fenómenos transitórios em amplificadores para tráfego em rajadas/pacotes óticos e consequente desenvolvimento de soluções de mitigação baseadas em técnicas de clamping ótico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem por objectivo o estudo de novos dispositivos fotónicos aplicados a sistemas de comunicações por fibra óptica e a sistemas de processamento de sinais RF. Os dispositivos apresentados baseiam-se em processamento de sinal linear e não linear. Dispositivos lineares ópticos tais como o interferómetro de Mach-Zehnder permitem adicionar sinais ópticos com pesos fixos ou sintonizáveis. Desta forma, este dispositivo pode ser usado respectivamente como um filtro óptico em amplitude com duas saídas complementares, ou, como um filtro óptico de resposta de fase sintonizável. O primeiro princípio de operação serve como base para um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. O segundo princípio de operação é explorado num novo sistema fotónico de direccionamento do campo eléctrico radiado por um agregado de antenas, e também num novo compensador sintonizável de dispersão cromática. O processamento de sinal é não linear quando sinais ópticos são atrasados e posteriormente misturados entre si, em vez de serem linearmente adicionados. Este princípio de operação está por detrás da mistura de um sinal eléctrico com um sinal óptico, que por sua vez é a base de um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. A mistura de sinais ópticos em meios não lineares permite uma operação eficiente numa grande largura espectral. Tal operação é usada para realizar conversão de comprimento de onda sintonizável. Um sinal óptico com multiplexagem no domínio temporal de elevada largura de banda é misturado com duas bombas ópticas não moduladas com base em processos não lineares paramétricos num guia de ondas de niobato de lítio com inversão periódica da polarização dos domínios ferroeléctricos. Noutro trabalho, uma bomba pulsada em que cada pulso tem um comprimento de onda sintonizável serve como base a um novo conversor de sinal óptico com multiplexagem no domínio temporal para um sinal óptico com multiplexagem no comprimento de onda. A bomba é misturada com o sinal óptico de entrada através de um processo não linear paramétrico numa fibra óptica com parâmetro não linear elevado. Todos os dispositivos fotónicos de processamento de sinal linear ou não linear propostos são experimentalmente validados. São também modelados teoricamente ou através de simulação, com a excepção dos que envolvem mistura de sinais ópticos. Uma análise qualitativa é suficiente nestes últimos dispositivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho centra-se no desenvolvimento e aplicação de sensores de aceleração ópticos, baseados em redes de Bragg gravadas em fibras ópticas, para monitorização da integridade estrutural de estruturas de engenharia civil. Foram implementados dois acelerómetros uniaxiais e um acelerómetro biaxial. Recorreu-se a uma ferramenta de simulação baseada no método dos elementos finitos que permitiu optimizar, sem custos de produção, as características dos sensores, nomeadamente a sua frequência de ressonância. A caracterização dos sensores foi realizada em ambiente laboratorial e a sua resposta comparada com os resultados de simulação, de modo a validar os modelos numéricos. A aplicabilidade e demonstração de conceito foram realizadas na monitorização de estruturas com testes de campo. Foi monitorizado um teste destrutivo de uma parede de adobe, construída à escala real no Departamento de Engenharia Civil da Universidade de Aveiro, onde foram utilizados sensores estáticos e dinâmicos baseados em redes de Bragg gravadas em fibra óptica. Foram realizadas medidas dinâmicas na ponte pedonal do Campus Universitário da Universidade de Aveiro, onde se compararam os resultados obtidos com os sensores ópticos com resultados de sensores electrónicos comerciais. O acelerómetro biaxial foi testado na monitorização de estruturas esbeltas, nomeadamente na monitorização de duas torres de telecomunicações móveis, onde se demonstrou a possibilidade da utilização de sensores ópticos na caracterização dinâmica deste tipo de estruturas. Outro tipo de estruturas de engenharia civil onde foi demonstrada a aplicabilidade dos sensores ópticos desenvolvidos na monitorização estrutural foram os reservatórios de água elevados. Foi realizada a monitorização dinâmica de um exemplo deste tipo de estruturas, localizado no Campus Universitário da Universidade de Aveiro. A monitorização foi realizada recorrendo ao sensor biaxial desenvolvido e a um sismógrafo, ficando o sensor óptico instalado na estrutura de modo a permitir futuras leituras e assim a monitorização periódica da estrutura. Foi ainda desenvolvido um sensor de humidade relativa do ar, com um material sol-gel, que permitiu registar o nível de humidade relativa no interior de blocos de betão, durante um ano. Este sensor pode ser incluído numa rede de sensores multiplexados, na caracterização e monitorização da integridade estrutural de certas estruturas de engenharia civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cimento ósseo acrílico é o único material utilizado para a fixação de próteses em cirurgias ortopédicas, surgindo como uma alternativa às técnicas não cimentadas. Cerca de um milhão de pacientes são anualmente tratados para a substituição total da articulação do quadril e do joelho. Com a maior expectativa de vida da população e o aumento do número de cirurgias realizadas por ano espera-se que o uso do cimento ósseo aumente substancialmente. A fraca ligação do cimento ao osso é um problema comum que pode causar perda asséptica da prótese. Assim, torna-se necessário investir no desenvolvimento de cimentos ósseos alternativos que permitam promover maior estabilidade e melhor desempenho do implante. O principal objetivo desta tese foi desenvolver um cimento ósseo bioativo, capaz de ligar-se ao osso, com propriedades melhoradas relativamente aos sistemas convencionais. A preparação dos materiais foi realizada por dois processos diferentes, a polimerização por via térmica e a polimerização por via química. Inicialmente, utilizando o processo térmico, foram desenvolvidos compósitos de PMMA-co-EHA reforçados com vidro de sílica (CSi) e vidro de boro (CB) e comparados em termos do seu comportamento in vitro em meio acelular e celular. A formação de precipitados de fosfato de cálcio foi observada sobre a superfície de todos os compósitos indicando que estes materiais são potencialmente bioativos. Em relação à avaliação biológica o CSi demonstrou um efeito indutor da proliferação das células. As células apresentaram uma morfologia normal e alta taxa de crescimento quando comparadas com o padrão de cultura. Por outro lado ocorreu inibição da proliferação celular para o CB provavelmente devido à sua elevada taxa de degradação, levando a uma elevada concentraçao de iões de B e de Mg no meio de cultura. O efeito do vidro nos cimentos curados por via química, incorporando um activador de baixa toxicidade, também foi avaliado. Os resultados sugerem que as novas formulações podem diminuir o efeito exotérmico na cura do cimento e melhorar as propriedades mecânicas (flexão e compressão). Outro estudo conduzido neste trabalho explorou a possibilidade de incorporar ibuprofeno (fármaco anti-inflamatório) no cimento, dando origem a um material capaz de ser simultaneamente, bioativo e promotor da libertação controlada de fármacos. Neste contexto foi evidenciado que o desempenho do cimento desenvolvido pode contribuir para minimizar o processo inflamatório associado a uma cirurgia ortopédica. Finalmente, a fase sólida do cimento ósseo bioativo foi modificada por diferentes polímeros biodegradáveis. A adição deste enchimento deu origem a um cimento parcialmente biodegradável que pode permitir a formação de poros e o crescimento ósseo para o interior do cimento, resultando numa melhor fixação da prótese.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se uma avaliação de vários métodos de downscaling dinâmico. Os métodos utilizados vão desde o método clássico de aninhar um modelo regional nos resultados de um modelo global, neste caso as reanálises do ECMWF, a métodos propostos mais recentemente, que consistem em utilizar métodos de relaxamento Newtoniano de forma a fazer tender os resultados do modelo regional aos pontos das reanálises que se encontram dentro do domínio deste. O método que apresenta melhores resultados envolve a utilização de um sistema variacional de assimilação de dados de forma a incorporar dados de observações com resultados do modelo regional. A climatologia de uma simulação de 5 anos usando esse método é testada contra observações existentes sobre Portugal Continental e sobre o oceano na área da Plataforma Continental Portuguesa, o que permite concluir que o método desenvolvido é apropriado para reconstrução climática de alta resolução para Portugal Continental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema principal desta tese é o problema de cancelamento de interferência para sistemas multi-utilizador, com antenas distribuídas. Como tal, ao iniciar, uma visão geral das principais propriedades de um sistema de antenas distribuídas é apresentada. Esta descrição inclui o estudo analítico do impacto da ligação, dos utilizadores do sistema, a mais antenas distribuídas. Durante essa análise é demonstrado que a propriedade mais importante do sistema para obtenção do ganho máximo, através da ligação de mais antenas de transmissão, é a simetria espacial e que os utilizadores nas fronteiras das células são os mais bene ciados. Tais resultados são comprovados através de simulação. O problema de cancelamento de interferência multi-utilizador é considerado tanto para o caso unidimensional (i.e. sem codi cação) como para o multidimensional (i.e. com codi cação). Para o caso unidimensional um algoritmo de pré-codi cação não-linear é proposto e avaliado, tendo como objectivo a minimização da taxa de erro de bit. Tanto o caso de portadora única como o de multipla-portadora são abordados, bem como o cenário de antenas colocadas e distribuidas. É demonstrado que o esquema proposto pode ser visto como uma extensão do bem conhecido esquema de zeros forçados, cuja desempenho é provado ser um limite inferior para o esquema generalizado. O algoritmo é avaliado, para diferentes cenários, através de simulação, a qual indica desempenho perto do óptimo, com baixa complexidade. Para o caso multi-dimensional um esquema para efectuar "dirty paper coding" binário, tendo como base códigos de dupla camada é proposto. No desenvolvimento deste esquema, a compressão com perdas de informação, é considerada como um subproblema. Resultados de simulação indicam transmissão dedigna proxima do limite de Shannon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve um projeto de implementação da metodologia de Manutenção Produtiva Total (TPM) desenvolvido na Simoldes Plásticos, unidade industrial de injeção de plásticos que opera no setor automóvel. A metodologia TPM salienta o papel fundamental que o trabalho em equipa e, em particular, a participação do pessoal, podem desempenhar na identificação de oportunidades de melhoria e na sua implementação. A sua aplicação visa a diminuição dos desperdícios, acidentes, defeitos, paragens e falhas ao longo de um processo produtivo. De uma forma geral, a TPM utiliza uma ideia base elementar que passa pela sensibilização, formação e treino dos operadores para que estes consigam realizar a manutenção autónoma dos equipamentos e melhorar continuamente o seu desempenho. Este trabalho apresenta em primeiro lugar uma revisão dos conceitos de Gestão da Qualidade Total, particularmente da Melhoria Contínua e da Metodologia TPM. De seguida, é descrita a aplicação da TPM na empresa Simoldes Plásticos, que inclui uma descrição dos principais problemas encontrados e das medidas aplicadas para a sua correção. Finalmente é feita uma análise do impacto das melhorias implementadas, a partir da análise de um indicador de eficiência específico, desenvolvido na empresa - o RUTPM - Rendimento de Utilização TPM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.