17 resultados para Método de pontos interiores
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Esta dissertação estuda essencialmente dois problemas: (A) uma classe de equações unidimensionais de reacção-difusão-convecção em meios não uniformes (dependentes do espaço), e (B) um problema elíptico não-linear e paramétrico ligado a fenómenos de capilaridade. A Análise de Perturbação Singular e a dinâmica de Hamilton-Jacobi são utilizadas na obtenção de expressões assimptóticas para a solução (com comportamento de frente) e para a sua velocidade de propagação. Os seguintes três métodos de decomposição, Adomian Decomposition Method (ADM), Decomposition Method based on Infinite Products (DIP), e New Iterative Method (NIM), são apresentados e brevemente comparados. Adicionalmente, condições suficientes para a convergência da solução em série, obtida pelo ADM, e uma aplicação a um problema da Telecomunicações por Fibras Ópticas, envolvendo EDOs não-lineares designadas equações de Raman, são discutidas. Um ponto de vista mais abrangente que unifica os métodos de decomposição referidos é também apresentado. Para subclasses desta EDP são obtidas soluções numa forma explícita, para diferentes tipos de dados e usando uma variante do método de simetrias de Bluman-Cole. Usando Teoria de Pontos Críticos (o teorema usualmente designado mountain pass) e técnicas de truncatura, prova-se a existência de duas soluções não triviais (uma positiva e uma negativa) para o problema elíptico não-linear e paramétrico (B). A existência de uma terceira solução não trivial é demonstrada usando Grupos Críticos e Teoria de Morse.
Resumo:
Neste trabalho estudou-se a extracção supercrítica do óleo de grainha de uva, usando dióxido de carbono, e combinou-se este processo com um prétratamento enzimático da semente para aumentar o rendimento global da extracção. A qualidade dos extractos obtidos foi avaliada pelo seu conteúdo em triacilglicerídeos, perfil de ácidos gordos e capacidade antioxidante. Realizaram-se também alguns estudos exploratórios sobre a aplicação de um pré-tratamento de alta pressão (HPP) à grainha da uva. Adicionalmente, efectuou-se o estudo da extracção, fraccionamento e caracterização estrutural das procianidinas da grainha da uva, bem como a avaliação da sua capacidade antioxidante. A extracção de procianidinas da grainha da uva foi efectuada sequencialmente com metanol e acetona/água, tendo sido posteriormente fraccionadas por adição sucessiva de misturas metanol/clorofórmio progressivamente mais concentradas em clorofórmio. A caracterização das procianidinas foi feita por HPLC-UV e LC–MS, antes e depois de sujeitar as amostras a uma tiólise, e também por ESI-MS e ESI-MS/MS. Este estudo permitiu reportar, pela primeira vez, a ocorrência de procianidinas do tipo-A galoiladas na grainha da uva. Os resultados de HPLC-UV permitiram determinar o grau médio de polimerização das procianidinas e a sua composição monomérica em (+)- catequina, (-)-epicatequina e (-)-epicatequina-O-galato. Mostrou-se que a (+)- catequina é o flavan-3-ol terminal mais abundante e a (-)-epicatequina predomina largamente como unidade de extensão. No caso de procianidinas do tipo A, a ligação interflavânica C2-C7 encontra-se essencialmente nas unidades terminais. O grau médio de polimerização das diversas fracções varia entre 1.0 e 10.8. A sua capacidade antioxidante, medida pelo método espectrofotométrico de DPPH•, mostrou-se ser equivalente à de uma amostra comercial de (+)-catequina usada como referência. A partir dos graus médios de polimerização experimentais e das análises de FTIR das fracções correspondentes foi possível obter um modelo preditivo O-PLS com apenas uma variável latente. O pré-tratamento enzimático justificou-se pelo conhecimento existente acerca do uso de enzimas específicas que destroem parcialmente as paredes celulares. Atendendo à composição das paredes celulares da grainha da uva preparou-se uma suspensão contendo protease, xilanase, pectinase e celulase. Para determinar as condições experimentais do pré-tratamento que maximizam o rendimento da extracção, estudou-se o efeito do tempo de reacção, temperatura, pH, diâmetro médio das partículas de grainha moída e a concentração das enzimas. Os incrementos do rendimento da extracção de óleo observados atingiram 163.2%. O estudo da extracção supercrítica (SFE) do óleo da grainha de uva tratada e não-tratada permitiu obter as curvas de extracção correspondentes, bem com analisar a influência das condições operatórias sobre o seu andamento. Montou-se uma instalação laboratorial onde se realizaram experiências com dióxido de carbono a 160, 180, 200 e 220 bar e temperaturas de 313.15 e 323.15 K. Os rendimentos obtidos por SFE foram semelhantes aos de Soxhlet com n-hexano. As curvas de extracção medidas compreendem um primeiro período de extracção, onde se remove cerca de 92-97% do óleo disponível, e um segundo período, essencialmente difusional, com pouco impacto no rendimento final. Os vários extractos recolhidos e o óleo global obtido foram caracterizados para avaliar a sua qualidade e relacioná-la com as condições operatórias de SFE. Determinaram-se o conteúdo total em triacilglicerídeos, o seu perfil de ácidos gordos e a capacidade antioxidante (AOC). Os resultados mostraram que a AOC aumenta com a elevação da pressão e, acentuadamente, com o acréscimo da temperatura. Ao longo da curva de extracção, a AOC é mais pronunciada nos extractos iniciais, nomeadamente nos primeiros 30 a 40% da extracção. A modelação efectuada considerou que o óleo extractável se reparte entre células rompidas, predominantes na periferia da semente, e células intactas, mais interiores. Admitiu-se que o transporte de massa ocorre em série, i.e. das células intactas para as rompidas e destas para o solvente; mostrou-se que a dispersão axial era desprezável. Os balanços materiais à fase fluida e aos volumes de células rompidas e intactas, combinados com os fluxos interno, externo e a relação de equilíbrio foram resolvidos numericamente pelo método das linhas combinado com diferenças finitas atrasadas. O modelo reproduziu bem as curvas experimentais e permitiu simular curvas de eluição e os três perfis de concentração no leito.
Resumo:
Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.
Resumo:
The contemporary world is crowded of large, interdisciplinary, complex systems made of other systems, personnel, hardware, software, information, processes, and facilities. The Systems Engineering (SE) field proposes an integrated holistic approach to tackle these socio-technical systems that is crucial to take proper account of their multifaceted nature and numerous interrelationships, providing the means to enable their successful realization. Model-Based Systems Engineering (MBSE) is an emerging paradigm in the SE field and can be described as the formalized application of modelling principles, methods, languages, and tools to the entire lifecycle of those systems, enhancing communications and knowledge capture, shared understanding, improved design precision and integrity, better development traceability, and reduced development risks. This thesis is devoted to the application of the novel MBSE paradigm to the Urban Traffic & Environment domain. The proposed system, the GUILTE (Guiding Urban Intelligent Traffic & Environment), deals with a present-day real challenging problem “at the agenda” of world leaders, national governors, local authorities, research agencies, academia, and general public. The main purposes of the system are to provide an integrated development framework for the municipalities, and to support the (short-time and real-time) operations of the urban traffic through Intelligent Transportation Systems, highlighting two fundamental aspects: the evaluation of the related environmental impacts (in particular, the air pollution and the noise), and the dissemination of information to the citizens, endorsing their involvement and participation. These objectives are related with the high-level complex challenge of developing sustainable urban transportation networks. The development process of the GUILTE system is supported by a new methodology, the LITHE (Agile Systems Modelling Engineering), which aims to lightening the complexity and burdensome of the existing methodologies by emphasizing agile principles such as continuous communication, feedback, stakeholders involvement, short iterations and rapid response. These principles are accomplished through a universal and intuitive SE process, the SIMILAR process model (which was redefined at the light of the modern international standards), a lean MBSE method, and a coherent System Model developed through the benchmark graphical modeling languages SysML and OPDs/OPL. The main contributions of the work are, in their essence, models and can be settled as: a revised process model for the SE field, an agile methodology for MBSE development environments, a graphical tool to support the proposed methodology, and a System Model for the GUILTE system. The comprehensive literature reviews provided for the main scientific field of this research (SE/MBSE) and for the application domain (Traffic & Environment) can also be seen as a relevant contribution.
Resumo:
Este trabalho consiste numa proposta metodológica, denominada A∴418, que visa abordar a actividade especulativa dos performers no que diz respeito às suas concepções interpretativas dos discursos musicais. Foram identificados dois factores inerentes a esta actividade – as concepções expressiva e técnica – como estando na base da configuração final deste processo. O A∴418 resulta de um processo de aplicação de técnicas de análise musical vocacionadas para o estudo da interpretação musical, são elas a Análise da Intenção Musical Interpretativa (direccionada para a concepção expressiva da narrativa sonora) e a Análise Técnica da Intenção Musical Interpretativa (direccionada para a concepção técnico-instrumental do discurso musical). A sistematização deste processo metodológico conduz à produção de uma partitura final, revista pelo músico-instrumentista, na qual acrescem ao discurso original do compositor indicações que reflectem a concepção técnicoexpressiva produzida pelo performer que interpreta a obra musical. Esta metodologia foi demonstrada através da sua aplicação à concepção musical interpretativa do Concerto para Violoncelo em La menor, RV 418, de Antonio Vivaldi, tendo em conta as demandas específicas deste instrumento musical e a leitura idiossincrática que o autor fez desta obra musical em concreto.
Resumo:
O presente trabalho apresenta um levantamento de processos transcricionais usados por músicos, desde compositores do período barroco até músicos contemporâneos. Este conjunto de técnicas permite encontrar alternativas às eventuais problemáticas levantadas durante a transcrição e simultaneamente, processos para manter inalterada a significação proposta pelo compositor. Seguidamente, apresenta-se um conjunto de obras transcritas com apoio nas técnicas anteriormente observadas.
Resumo:
Apresenta-se uma avaliação de vários métodos de downscaling dinâmico. Os métodos utilizados vão desde o método clássico de aninhar um modelo regional nos resultados de um modelo global, neste caso as reanálises do ECMWF, a métodos propostos mais recentemente, que consistem em utilizar métodos de relaxamento Newtoniano de forma a fazer tender os resultados do modelo regional aos pontos das reanálises que se encontram dentro do domínio deste. O método que apresenta melhores resultados envolve a utilização de um sistema variacional de assimilação de dados de forma a incorporar dados de observações com resultados do modelo regional. A climatologia de uma simulação de 5 anos usando esse método é testada contra observações existentes sobre Portugal Continental e sobre o oceano na área da Plataforma Continental Portuguesa, o que permite concluir que o método desenvolvido é apropriado para reconstrução climática de alta resolução para Portugal Continental.
Resumo:
Nas empresas desportivas o principal ativo é o direito desportivo sobre o jogador profissional. O nosso estudo debruça-se no resultante da formação. Começámos por verificar que o direito desportivo preenche os requisitos para ser reconhecido como ativo intangível. Posteriormente analisámos os relatórios e contas de clubes europeus e de clubes brasileiros de modo a identificarmos semelhanças e diferenças ao nível contabilístico dos ativos intangíveis resultantes da formação, um dos nossos objetivos. Verificámos que a principal diferença reside no não reconhecimento do direito desportivo resultante da formação pelos primeiros, contrariamente à prática verificada nos clubes brasileiros. No cenário atual, pelo menos, os clubes europeus não proporcionam informação plena e a comparabilidade entre clubes encontra-se comprometida. Por conseguinte, outro dos nossos objetivos é propor um modelo que permita valorizar com fiabilidade o direito desportivo resultante da formação. A conceção do modelo teve o auxílio dos clubes portugueses e brasileiros, através da resposta a um inquérito dirigido a clubes europeus e brasileiros. Esta metodologia possibilitou, igualmente, confirmar conclusões resultantes da análise da informação contabilística elaborada pelos clubes e identificar outros pontos de contacto e de afastamento entre os clubes relativamente a jogadores formados internamente e ao reconhecimento inicial do direito desportivo. Concluímos que em Portugal existe informação contabilística incompleta sobre os jogadores formados internamente, dado os clubes portugueses considerarem não existir um critério de valorização fiável, e sobre os jogadores que chegam em fim de contrato. Por outro lado, todos os clubes brasileiros respondentes valorizam e reconhecem o direito desportivo resultante da formação como ativo intangível com base nos encargos com a formação do jogador. Por fim, apresentamos a nossa proposta de modelo assente no custo de formação, com a aplicação do método dos centros de gastos. Os componentes incluídos tiveram em conta a opinião dos clubes, tendo posteriormente sido efetuada a análise de clusters e a seleção final de acordo com a IAS 38 da UE. A nossa proposta foi validada junto de agentes com conhecimento e experiência sobre o fenómeno em estudo através de entrevista.
Resumo:
Esta dissertação estuda em detalhe três problemas elípticos: (I) uma classe de equações que envolve o operador Laplaciano, um termo singular e nãolinearidade com o exponente crítico de Sobolev, (II) uma classe de equações com singularidade dupla, o expoente crítico de Hardy-Sobolev e um termo côncavo e (III) uma classe de equações em forma divergente, que envolve um termo singular, um operador do tipo Leray-Lions, e uma função definida nos espaços de Lorentz. As não-linearidades consideradas nos problemas (I) e (II), apresentam dificuldades adicionais, tais como uma singularidade forte no ponto zero (de modo que um "blow-up" pode ocorrer) e a falta de compacidade, devido à presença do exponente crítico de Sobolev (problema (I)) e Hardy-Sobolev (problema (II)). Pela singularidade existente no problema (III), a definição padrão de solução fraca pode não fazer sentido, por isso, é introduzida uma noção especial de solução fraca em subconjuntos abertos do domínio. Métodos variacionais e técnicas da Teoria de Pontos Críticos são usados para provar a existência de soluções nos dois primeiros problemas. No problema (I), são usadas uma combinação adequada de técnicas de Nehari, o princípio variacional de Ekeland, métodos de minimax, um argumento de translação e estimativas integrais do nível de energia. Neste caso, demonstramos a existência de (pelo menos) quatro soluções não triviais onde pelo menos uma delas muda de sinal. No problema (II), usando o método de concentração de compacidade e o teorema de passagem de montanha, demostramos a existência de pelo menos duas soluções positivas e pelo menos um par de soluções com mudança de sinal. A abordagem do problema (III) combina um resultado de surjectividade para operadores monótonos, coercivos e radialmente contínuos com propriedades especiais do operador de tipo Leray- Lions. Demonstramos assim a existência de pelo menos, uma solução no espaço de Lorentz e obtemos uma estimativa para esta solução.
Resumo:
O desenvolvimento das redes de estradas rurais, especialmente em áreas montanhosas, é a intervenção chave para melhorar a acessibilidade às localidades e aos serviços públicos, cobrindo o maior número de localidades e de serviços públicos, otimizando os escassos recursos disponíveis em países em desenvolvimento. Este estudo explora diferentes modelos de organização de redes de estradas rurais considerando a construção de novas ligações ou o melhoramento de estradas existentes. Um método, baseado na cobertura da rede de estradas rurais, é utilizado para identificar os pontos nodais que formam a rede rural base numa específica região, a qual cobrirá um conjunto dos serviços públicos e de localidades. O modelo assenta numa rede rural de estradas típica ("backbone" e "branch") das regiões montanhosas do Nepal. Os modelos propostos fornecem um conjunto de possibilidades de ligações a estabelecer ou a melhorar e oferece soluções para diferentes níveis de orçamento, que otimizam os custos de transporte na rede, considerando diferentes tipos de pavimento (em solo, granular ou asfáltico). Foi realizado separadamente um modelo dedicado a análises multi-objetivo para resolver problemas de melhoramento de ligações dentro da rede considerando dois objectivos, minimizar os custos de operação para o utilizador e maximizar a população coberta pela rede de estradas, considerando ligações pavimentadas e não pavimentadas (em solo, granular ou asfáltico) dentro de um determinado limite orçamental. O modelo dá ao decisor (DM) diferentes alternativas eficientes para que este possa tomar uma decisão final. Estes modelos, desenvolvidos para redes de estradas rurais, são também aplicáveis a outras redes de infraestruturas rurais, tais como, de fornecimento de água, de eletricidade e de telecomunicações. A implementação dos modelos nas redes de estradas rurais dos distritos de Gorkha e Lamjung do Nepal permitiu confirmara sua aplicabilidade. Verifica-se que os modelos propostos são mais práticos e realísticos no estudo de soluções de melhoramento e de desenvolvimento de redes de estradas rurais em regiões montanhosas de países em desenvolvimento.
Resumo:
Os coeficientes de difusão (D 12) são propriedades fundamentais na investigação e na indústria, mas a falta de dados experimentais e a inexistência de equações que os estimem com precisão e confiança em fases comprimidas ou condensadas constituem limitações importantes. Os objetivos principais deste trabalho compreendem: i) a compilação de uma grande base de dados para valores de D 12 de sistemas gasosos, líquidos e supercríticos; ii) o desenvolvimento e validação de novos modelos de coeficientes de difusão a diluição infinita, aplicáveis em amplas gamas de temperatura e densidade, para sistemas contendo componentes muito distintos em termos de polaridade, tamanho e simetria; iii) a montagem e teste de uma instalação experimental para medir coeficientes de difusão em líquidos e fluidos supercríticos. Relativamente à modelação, uma nova expressão para coeficientes de difusão a diluição infinita de esferas rígidas foi desenvolvida e validada usando dados de dinâmica molecular (desvio relativo absoluto médio, AARD = 4.44%) Foram também estudados os coeficientes de difusão binários de sistemas reais. Para tal, foi compilada uma extensa base de dados de difusividades de sistemas reais em gases e solventes densos (622 sistemas binários num total de 9407 pontos experimentais e 358 moléculas) e a mesma foi usada na validação dos novos modelos desenvolvidos nesta tese. Um conjunto de novos modelos foi proposto para o cálculo de coeficientes de difusão a diluição infinita usando diferentes abordagens: i) dois modelos de base molecular com um parâmetro específico para cada sistema, aplicáveis em sistemas gasosos, líquidos e supercríticos, em que natureza do solvente se encontra limitada a apolar ou fracamente polar (AARDs globais na gama 4.26-4.40%); ii) dois modelos de base molecular biparamétricos, aplicáveis em todos os estados físicos, para qualquer tipo de soluto diluído em qualquer solvente (apolar, fracamente polar e polar). Ambos os modelos dão origem a erros globais entre 2.74% e 3.65%; iii) uma correlação com um parâmetro, específica para coeficientes de difusão em dióxido de carbono supercrítico (SC-CO2) e água líquida (AARD = 3.56%); iv) nove correlações empíricas e semi-empíricas que envolvem dois parâmetros, dependentes apenas da temperatura e/ou densidade do solvente e/ou viscosidade do solvente. Estes últimos modelos são muito simples e exibem excelentes resultados (AARDs entre 2.78% e 4.44%) em sistemas líquidos e supercríticos; e v) duas equações preditivas para difusividades de solutos em SC-CO2, em que os erros globais de ambas são inferiores a 6.80%. No global, deve realçar-se o facto de os novos modelos abrangerem a grande variedade de sistemas e moléculas geralmente encontrados. Os resultados obtidos são consistentemente melhores do que os obtidos com os modelos e abordagens encontrados na literatura. No caso das correlações com um ou dois parâmetros, mostrou-se que estes mesmos parâmetros podem ser ajustados usando um conjunto muito pequeno de dados, e posteriormente serem utilizados na previsão de valores de D 12 longe do conjunto original de pontos. Uma nova instalação experimental para medir coeficientes de difusão binários por técnicas cromatográficas foi montada e testada. O equipamento, o procedimento experimental e os cálculos analíticos necessários à obtenção dos valores de D 12 pelo método de abertura do pico cromatográfico, foram avaliados através da medição de difusividades de tolueno e acetona em SC-CO2. Seguidamente, foram medidos coeficientes de difusão de eucaliptol em SC-CO2 nas gamas de 202 – 252 bar e 313.15 – 333.15 K. Os resultados experimentais foram analisados através de correlações e modelos preditivos para D12.
Resumo:
In this work several techniques to monitor the performance of optical networks were developed. These techniques are dedicated either to the measurement of the data signal parameters (optical signal to noise ratio and dispersion) or to the detection of physical failures on the network infrastructure. The optical signal to noise ratio of the transmitted signal was successfully monitored using methods based on the presence of Bragg gratings imprinted on high birefringent fibres that allowed the distinction of the signal from the noise due to its polarization properties. The monitoring of the signal group-velocity dispersion was also possible. In this case, a method based on the analysis of the electric spectrum of the signal was applied. It was experimentally demonstrated that this technique is applicable on both amplitude and phase modulated signals. It was also developed a technique to monitor the physical infrastructure of an optical access network. Once again, the application of Bragg gratings (this time imprinted on standard single mode fibres) was the basis of the developed method.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
Para o ser humano, a água sempre foi um recurso essencial ao longo da sua evolução. Hoje em dia, com todo o avanço tecnológico, a água é um bem muito vulnerável às diversas atividades antropogénicas. Entre os muitos contaminantes que podem afetar a qualidade da água para consumo humano, os metais causam grande preocupação devido à sua elevada toxicidade. O mercúrio é um dos contaminantes que deve ser devidamente controlado devido ao seu elevado grau de toxicidade. Este Estágio foi realizado no Laboratório Luságua e o seu principal objetivo foi avaliar se era possível baixar o limite de quantificação da técnica existente na empresa para quantificar o mercúrio em águas de consumo e validar o método através do cálculo de vários parâmetros de controlo de qualidade. Foi ainda feita a comparação entre a técnica de quantificação de mercúrio existente na Luságua (CV-AAS) e a existente na Universidade de Aveiro (CVAFS) para avaliar se havia uma mais-valia para a Luságua se adquirisse um novo equipamento para analisar o mercúrio em águas. Os parâmetros de validação avaliados nos dois métodos derem resultados semelhantes, não identificando a necessidade atual de substituir o equipamento existente na Luságua, até porque se conseguiu baixar o limite de quantificação, atingindo assim o objetivo estabelecido no início para este Estágio.
Resumo:
Systems equipped with multiple antennas at the transmitter and at the receiver, known as MIMO (Multiple Input Multiple Output) systems, offer higher capacities, allowing an efficient exploitation of the available spectrum and/or the employment of more demanding applications. It is well known that the radio channel is characterized by multipath propagation, a phenomenon deemed problematic and whose mitigation has been achieved through techniques such as diversity, beamforming or adaptive antennas. By exploring conveniently the spatial domain MIMO systems turn the characteristics of the multipath channel into an advantage and allow creating multiple parallel and independent virtual channels. However, the achievable benefits are constrained by the propagation channel’s characteristics, which may not always be ideal. This work focuses on the characterization of the MIMO radio channel. It begins with the presentation of the fundamental results from information theory that triggered the interest on these systems, including the discussion of some of their potential benefits and a review of the existing channel models for MIMO systems. The characterization of the MIMO channel developed in this work is based on experimental measurements of the double-directional channel. The measurement system is based on a vector network analyzer and a two-dimensional positioning platform, both controlled by a computer, allowing the measurement of the channel’s frequency response at the locations of a synthetic array. Data is then processed using the SAGE (Space-Alternating Expectation-Maximization) algorithm to obtain the parameters (delay, direction of arrival and complex amplitude) of the channel’s most relevant multipath components. Afterwards, using a clustering algorithm these data are grouped into clusters. Finally, statistical information is extracted allowing the characterization of the channel’s multipath components. The information about the multipath characteristics of the channel, induced by existing scatterers in the propagation scenario, enables the characterization of MIMO channel and thus to evaluate its performance. The method was finally validated using MIMO measurements.