965 resultados para Cenários
Resumo:
The renewed concern in assessing risks and consequences from technological hazards in industrial and urban areas continues emphasizing the development of local-scale consequence analysis (CA) modelling tools able to predict shortterm pollution episodes and exposure effects on humans and the environment in case of accident with hazardous gases (hazmat). In this context, the main objective of this thesis is the development and validation of the EFfects of Released Hazardous gAses (EFRHA) model. This modelling tool is designed to simulate the outflow and atmospheric dispersion of heavy and passive hazmat gases in complex and build-up areas, and to estimate the exposure consequences of short-term pollution episodes in accordance to regulatory/safety threshold limits. Five main modules comprising up-to-date methods constitute the model: meteorological, terrain, source term, dispersion, and effects modules. Different initial physical states accident scenarios can be examined. Considered the main core of the developed tool, the dispersion module comprises a shallow layer modelling approach capable to account the main influence of obstacles during the hazmat gas dispersion phenomena. Model validation includes qualitative and quantitative analyses of main outputs by the comparison of modelled results against measurements and/or modelled databases. The preliminary analysis of meteorological and source term modules against modelled outputs from extensively validated models shows the consistent description of ambient conditions and the variation of the hazmat gas release. Dispersion is compared against measurements observations in obstructed and unobstructed areas for different release and dispersion scenarios. From the performance validation exercise, acceptable agreement was obtained, showing the reasonable numerical representation of measured features. In general, quality metrics are within or close to the acceptance limits recommended for ‘non-CFD models’, demonstrating its capability to reasonably predict hazmat gases accidental release and atmospheric dispersion in industrial and urban areas. EFRHA model was also applied to a particular case study, the Estarreja Chemical Complex (ECC), for a set of accidental release scenarios within a CA scope. The results show the magnitude of potential effects on the surrounding populated area and influence of the type of accident and the environment on the main outputs. Overall the present thesis shows that EFRHA model can be used as a straightforward tool to support CA studies in the scope of training and planning, but also, to support decision and emergency response in case of hazmat gases accidental release in industrial and built-up areas.
Resumo:
Este relatório apresenta o estudo de duas linhas de montagem de câmaras de vigilância da empresa Bosch Security Systems, S.A. de Ovar. Numa primeira fase procedeu-se à elaboração das listas de tarefas e respectivas precedências, seguindo-se a medição de trabalho, com o intuito de se actualizarem os tempos padrão existentes. Procedeu-se à comparação dos tempos obtidos com os que se encontravam em vigor de modo a perceber as diferenças e motivos das mesmas. Numa segunda fase, realizaram-se balanceamentos para as duas linhas tendo como cenários a manutenção das duas linhas e a possibilidade da sua junção numa linha única. Analisaram-se todos os resultados e efectuou-se um levantamento do investimento necessário associado a cada um dos cenários. Realizou-se deste modo uma análise de viabilidade com vista ao apoio à decisão. Por fim, realizou-se o workshop Lean Line Design que teve como resultado a configuração física da linha final. Este projecto permitiu chegar a resultados aliciantes, com ganhos a vários níveis. Constituiu mais uma acção de melhoria da empresa, levando-a a rectificar lacunas existentes e ao cumprimento de procedimentos ergonómicos que já se encontravam definidos.
Resumo:
Esta tese apresenta um estudo exploratório sobre sistemas de comunicação por luz visível e as suas aplicações em sistemas de transporte inteligentes como forma a melhorar a segurança nas estradas. Foram desenvolvidos neste trabalho, modelos conceptuais e analíticos adequados à caracterização deste tipo de sistemas. Foi desenvolvido um protótipo de baixo custo, capaz de suportar a disseminação de informação utilizando semáforos. A sua realização carece de um estudo detalhado, nomeadamente: i) foi necessário obter modelos capazes de descrever os padrões de radiação numa área de serviço pré-definida; ii) foi necessário caracterizar o meio de comunicações; iii) foi necessário estudar o comportamento de vários esquemas de modulação de forma a optar pelo mais robusto; finalmente, iv) obter a implementação do sistema baseado em FPGA e componentes discretos. O protótipo implementado foi testado em condições reais. Os resultados alcançados mostram os méritos desta solução, chegando mesmo a encorajar a utilização desta tecnologia em outros cenários de aplicação.
Resumo:
O tema principal desta tese é o problema de cancelamento de interferência para sistemas multi-utilizador, com antenas distribuídas. Como tal, ao iniciar, uma visão geral das principais propriedades de um sistema de antenas distribuídas é apresentada. Esta descrição inclui o estudo analítico do impacto da ligação, dos utilizadores do sistema, a mais antenas distribuídas. Durante essa análise é demonstrado que a propriedade mais importante do sistema para obtenção do ganho máximo, através da ligação de mais antenas de transmissão, é a simetria espacial e que os utilizadores nas fronteiras das células são os mais bene ciados. Tais resultados são comprovados através de simulação. O problema de cancelamento de interferência multi-utilizador é considerado tanto para o caso unidimensional (i.e. sem codi cação) como para o multidimensional (i.e. com codi cação). Para o caso unidimensional um algoritmo de pré-codi cação não-linear é proposto e avaliado, tendo como objectivo a minimização da taxa de erro de bit. Tanto o caso de portadora única como o de multipla-portadora são abordados, bem como o cenário de antenas colocadas e distribuidas. É demonstrado que o esquema proposto pode ser visto como uma extensão do bem conhecido esquema de zeros forçados, cuja desempenho é provado ser um limite inferior para o esquema generalizado. O algoritmo é avaliado, para diferentes cenários, através de simulação, a qual indica desempenho perto do óptimo, com baixa complexidade. Para o caso multi-dimensional um esquema para efectuar "dirty paper coding" binário, tendo como base códigos de dupla camada é proposto. No desenvolvimento deste esquema, a compressão com perdas de informação, é considerada como um subproblema. Resultados de simulação indicam transmissão dedigna proxima do limite de Shannon.
Resumo:
A integração das novas tecnologias de informação e comunicação no contexto educativo proporcionou a emergência de novos cenários de ensino e aprendizagem onde o EaD online é parte integrante. Esta realidade, recentemente implementada na Universidade Eduardo Mondlane (UEM), demanda que os professores estejam preparados com conhecimentos e competências para atuarem com sucesso no EaD online. O maior desafio que surge é como tornar o professor presencial num professor online efetivo pelo facto de muitos deles desenvolverem atitudes de resistência em relação ao EaD, permanecendo ligados às formas tradicionais de ensino. O objetivo deste estudo é conceber, implementar e avaliar um modelo de desenvolvimento profissional dos professores para o EaD, da UEM, por recurso às novas TIC que possibilite a aquisição de competências pedagógicas e tecnológicas para ensinarem em ambientes de ensino e aprendizagem online e integrarem as novas TIC no ensino presencial. Como metodologia, trata-se de um estudo de caso qualitativo, com a unidade de análise “O desenvolvimento profissional do professor para o EaD”, baseado no paradigma interpretativo, com uma vertente de investigação-ação. O estudo foi realizado na UEM, Moçambique, onde foram analisadas duas ações de formação, na modalidade de blended learning com recurso a uma plataforma LMS denominada Aulanet, e envolveu 16 professores de diferentes áreas disciplinares. Os dados foram recolhidos através de inquéritos por questionário e entrevista, do diário e de documentos eletrónicos como mensagens de fórum de debate, de chat, de correio interno e do skype. A técnica de análise de conteúdo foi utilizada para o tratamento de dados qualitativos, com suporte do Nvivo8, e os dados quantitativos recorreram ao Excel. Os resultados do estudo mostraram que a inserção dos professores num ambiente virtual permitiu mudarem de atitudes em relação ao EaD e às TIC, adoptarem estratégias pedagógicas para lidar com certos aspetos do ensino online e aprenderem a utilizar as ferramentas do EaD de modo apropriado.
Resumo:
A compreensão dos impactes das alterações climáticas é fundamental para a gestão a longo do prazo dos ecossistemas estuarinos. Esta compreensão só poderá ser efectiva considerando a variabilidade climática natural e o papel relativo das intervenções antropogénicas nestes ecossistemas. Assim, a presente dissertação analisa a influência das alterações climáticas e pressões antropogénicas na qualidade da água e dinâmica ecológica da Ria de Aveiro com base numa abordagem integrada, que combinou a análise de séries temporais dos últimos 25 anos e a modelação numérica de elevada resolução de cenários futuros de alterações climáticas e intervenções antropogénicas. A componente de modelação de qualidade da água e ecológica foi melhorada a vários níveis. A análise de sensibilidade do modelo 3D hidrodinâmicoecológico ECO-SELFE aplicado à Ria de Aveiro e a revisão das constantes de semi-saturação para absorção de nutrientes pelo fitoplâncton contribuíram para a precisão e robustez das aplicações. A concentração do fitoplâncton foi significativamente influenciada pelas taxas de crescimento do fitoplâncton e de mortalidade e excreção do zooplâncton, e apresentou uma sensibilidade reduzida à variação das constantes de semi-saturação na gama identificada para as diatomáceas. O acoplamento do ECO-SELFE a um modelo de campo próximo e a integração do ciclo do oxigénio aumentaram a sua capacidade de representação dos processos e das escalas espaciais relevantes. A validação do ECO-SELFE foi realizada com base num conjunto de campanhas específicas realizadas no canal de Mira. Os padrões espaciais e temporais observados para as várias variáveis (clorofila a, nutrientes, oxigénio dissolvido, salinidade, temperatura da água, correntes e níveis) foram simulados com erros menores ou semelhantes aos obtidos neste tipo de aplicações. A análise dos padrões de variabilidade espacial e temporal da qualidade da água e ecológica na Ria de Aveiro a diferentes escalas, efectuada com base nos dados históricos de 1985 a 2010 complementados pelas campanhas realizadas, sugeriu uma influência combinada da variabilidade climática e das acções antropogénicas. Os cenários futuros de alterações climáticas e intervenções antropogénicas simulados evidenciaram uma influência mais significativa das alterações climáticas quando comparadas com os efeitos das acções antropogénicas analisadas. As variações mais significativas são previstas para os cenários de subida do nível do mar, seguidos dos cenários de alterações dos regimes hidrológicos, evidenciando o papel da circulação (maré e caudal fluvial) no estabelecimento da qualidade da água e dinâmica ecológica na laguna. Para os cenários de subida do nível do mar são previstos decréscimos significativos da clorofila a e dos nutrientes a jusante e nas zonas intermédias do canal, e um aumento significativo da salinidade a montante. Estas alterações poderão favorecer modificações da composição e distribuição das comunidades, afectando a cadeia alimentar e causando uma progressão para montante de espécies marinhas. Os resultados sugerem ainda que os efeitos poderão ser mais significativos em estuários pouco profundos.
Resumo:
Coordenação Multicélula é um tópico de investigação em rápido crescimento e uma solução promissora para controlar a interferência entre células em sistemas celulares, melhorando a equidade do sistema e aumentando a sua capacidade. Esta tecnologia já está em estudo no LTEAdvanced sob o conceito de coordenação multiponto (COMP). Existem várias abordagens sobre coordenação multicélula, dependendo da quantidade e do tipo de informação partilhada pelas estações base, através da rede de suporte (backhaul network), e do local onde essa informação é processada, i.e., numa unidade de processamento central ou de uma forma distribuída em cada estação base. Nesta tese, são propostas técnicas de pré-codificação e alocação de potência considerando várias estratégias: centralizada, todo o processamento é feito na unidade de processamento central; semidistribuída, neste caso apenas parte do processamento é executado na unidade de processamento central, nomeadamente a potência alocada a cada utilizador servido por cada estação base; e distribuída em que o processamento é feito localmente em cada estação base. Os esquemas propostos são projectados em duas fases: primeiro são propostas soluções de pré-codificação para mitigar ou eliminar a interferência entre células, de seguida o sistema é melhorado através do desenvolvimento de vários esquemas de alocação de potência. São propostas três esquemas de alocação de potência centralizada condicionada a cada estação base e com diferentes relações entre desempenho e complexidade. São também derivados esquemas de alocação distribuídos, assumindo que um sistema multicelular pode ser visto como a sobreposição de vários sistemas com uma única célula. Com base neste conceito foi definido uma taxa de erro média virtual para cada um desses sistemas de célula única que compõem o sistema multicelular, permitindo assim projectar esquemas de alocação de potência completamente distribuídos. Todos os esquemas propostos foram avaliados em cenários realistas, bastante próximos dos considerados no LTE. Os resultados mostram que os esquemas propostos são eficientes a remover a interferência entre células e que o desempenho das técnicas de alocação de potência propostas é claramente superior ao caso de não alocação de potência. O desempenho dos sistemas completamente distribuídos é inferior aos baseados num processamento centralizado, mas em contrapartida podem ser usados em sistemas em que a rede de suporte não permita a troca de grandes quantidades de informação.
Resumo:
Uma das áreas de investigação em Telecomunicações de interesse crescente prende-se com os futuros sistemas de comunicações móveis de 4a geração e além destes. Nos últimos anos tem sido desenvolvido o conceito de redes comunitárias, no qual os utilizadores se agregam de acordo com interesses comuns. Estes conceitos têm sido explorados de uma forma horizontal em diferentes camadas da comunicação, desde as redes comunitárias de comunicação (Seattle Wireless ou Personal Telco, p.ex.) até às redes de interesses peer-to-peer. No entanto, estas redes são usualmente vistas como redes de overlay, ou simplesmente redes de associação livre. Na prática, a noção de uma rede auto-organizada, completamente orientada ao serviço/comunidade, integralmente suportada em termos de arquitetura, não existe. Assim este trabalho apresenta uma realização original nesta área de criação de redes comunitárias, com uma arquitetura subjacente orientada a serviço, e que suporta integralmente múltiplas redes comunitárias no mesmo dispositivo, com todas as características de segurança, confiança e disponibilização de serviço necessárias neste tipo de cenários (um nó pode pertencer simultaneamente a mais do que uma rede comunitária). Devido à sua importância para os sistemas de redes comunitárias, foi dado particular atenção a aspetos de gestão de recursos e controlo de acessos. Ambos realizados de uma forma descentralizada e considerando mecanismos dotados de grande escalabilidade. Para isso, é apresentada uma linguagem de políticas que suporta a criação de comunidades virtuais. Esta linguagem não é apenas utilizada para o mapeamento da estrutura social dos membros da comunidade, como para, gerir dispositivos, recursos e serviços detidos pelos membros, de uma forma controlada e distribuída.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
As ciências são um elemento central da cultura contemporânea pelo que a educação científica tem de ser vista como um direito essencial dos cidadãos. A qualidade do ensino das ciências na escola torna-se, portanto, um especial foco de interesse, científico, político e social, ao nível local, nacional, e global. A investigação em educação em ciências tem produzido conhecimentos que permitem compreender os problemas e fundamentar decisões conducentes a um ensino de ciências ajustado aos desafios atuais. Por outro lado, várias organizações internacionais (UE, OCDE e UNESCO) também têm produzido documentos que visam regular as políticas globais de ensino de ciências, assumindo que a educação científica dos cidadãos é uma condição para a prosperidade económica e social de qualquer estado. Assim, atualmente, existe um acervo documental extenso e diverso relativo ao ensino de ciências, pelo que se impõe um exercício de análise e síntese que identifique quais as orientações-chave que devem ser consideradas. O ensino de nível secundário (ISCE2 e ISCE3), sendo uma etapa em que os jovens fazem escolhas pessoais e vocacionais importantes, merece particular atenção, pois diversos estudos revelam que regista níveis preocupantes de abandono e de desinteresse pelas áreas científicas e tecnológicas. Sendo as práticas dos professores um dos principais fatores de inovação e mudança importa sistematizar os conhecimentos científicos que explicam a sua complexidade e podem orientar a promoção da sua qualidade. O estudo que se apresenta situa-se na confluência de todos estes interesses e visou duas finalidades: delimitar um conceito unificador que permita estudar e desenvolver a qualidade das práticas dos professores de ciências de nível secundário; desenvolver um instrumento de inquérito que operacionalize esse conceito, numa perspetiva de investigação, formação e supervisão de práticas de ensino de ciências. O plano da investigação decorreu em duas fases. Na fase I foi delimitado o conceito perfil de ensino do professor de ciências (PEPC); este estrutura-se em três dimensões – didática, epistemológica e psicológica – cujos referenciais teórico-empíricos decorreram de revisão sistemática de literatura e de abordagem empírica de natureza exploratória e qualitativa, baseada em entrevistas a professores de ciências. Na fase II foi construído e validado o questionário do perfil de ensino do professor de ciências (QPEPC); este contém itens empiricamente situados, construídos a partir do discurso dos professores entrevistados na fase I e seguidamente validados. A validação de QPEPC envolveu dois processos de inquérito por questionário e uma metodologia mista de investigação (análise de conteúdo e análise estatística de dados): a primeira validação contou com um painel internacional de 12 especialistas em didática de ciências; a segunda validação envolveu 184 professores de ciências portugueses. Concluindo-se que QPEPC avalia duas dimensões de PEPC, construíram-se índices e modelos gráficos para facilitar a interpretação dos dados recolhidos. Analisaram-se limitações e potencialidades heurísticas de PEPC e QPEPC, enquanto produtos da investigação, perspetivando o seu uso em contextos diversos, nomeadamente futuras investigações e cenários de formação, reflexão e supervisão de professores de ciências.
Resumo:
Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
This work investigates new channel estimation schemes for the forthcoming and future generation of cellular systems for which cooperative techniques are regarded. The studied cooperative systems are designed to re-transmit the received information to the user terminal via the relay nodes, in order to make use of benefits such as high throughput, fairness in access and extra coverage. The cooperative scenarios rely on OFDM-based systems employing classical and pilot-based channel estimators, which were originally designed to pointto-point links. The analytical studies consider two relaying protocols, namely, the Amplifyand-Forward and the Equalise-and-Forward, both for the downlink case. The relaying channels statistics show that such channels entail specific characteristics that comply to a proper filter and equalisation designs. Therefore, adjustments in the estimation process are needed in order to obtain the relay channel estimates, refine these initial estimates via iterative processing and obtain others system parameters that are required in the equalisation. The system performance is evaluated considering standardised specifications and the International Telecommunication Union multipath channel models.
Resumo:
A evolução constante em novas tecnologias que providenciam suporte à forma como os nossos dispositivos se ligam, bem como a forma como utilizamos diferentes capacidades e serviços on-line, criou um conjunto sem precedentes de novos desafios que motivam o desenvolvimento de uma recente área de investigação, denominada de Internet Futura. Nesta nova área de investigação, novos aspectos arquiteturais estão ser desenvolvidos, os quais, através da re-estruturação de componentes nucleares subjacentesa que compõem a Internet, progride-a de uma forma capaz de não são fazer face a estes novos desafios, mas também de a preparar para os desafios de amanhã. Aspectos chave pertencendo a este conjunto de desafios são os ambientes de rede heterogéneos compostos por diferentes tipos de redes de acesso, a cada vez maior mudança do tráfego peer-to-peer (P2P) como o tipo de tráfego mais utilizado na Internet, a orquestração de cenários da Internet das Coisas (IoT) que exploram mecanismos de interação Maquinaa-Maquina (M2M), e a utilização de mechanismos centrados na informação (ICN). Esta tese apresenta uma nova arquitetura capaz de simultaneamente fazer face a estes desafios, evoluindo os procedimentos de conectividade e entidades envolvidas, através da adição de uma camada de middleware, que age como um mecanismo de gestão de controlo avançado. Este mecanismo de gestão de controlo aproxima as entidades de alto nível (tais como serviços, aplicações, entidades de gestão de mobilidade, operações de encaminhamento, etc.) com as componentes das camadas de baixo nível (por exemplo, camadas de ligação, sensores e atuadores), permitindo uma otimização conjunta dos procedimentos de ligação subjacentes. Os resultados obtidos não só sublinham a flexibilidade dos mecanismos que compoem a arquitetura, mas também a sua capacidade de providenciar aumentos de performance quando comparados com outras soluÇÕes de funcionamento especÍfico, enquanto permite um maior leque de cenáios e aplicações.
Resumo:
Esta tese descreve uma framework de trabalho assente no paradigma multi-camada para analisar, modelar, projectar e optimizar sistemas de comunicação. Nela se explora uma nova perspectiva acerca da camada física que nasce das relações entre a teoria de informação, estimação, métodos probabilísticos, teoria da comunicação e codificação. Esta framework conduz a métodos de projecto para a próxima geração de sistemas de comunicação de alto débito. Além disso, a tese explora várias técnicas de camada de acesso com base na relação entre atraso e débito para o projeto de redes sem fio tolerantes a atrasos. Alguns resultados fundamentais sobre a interação entre a teoria da informação e teoria da estimação conduzem a propostas de um paradigma alternativo para a análise, projecto e optimização de sistemas de comunicação. Com base em estudos sobre a relação entre a informação recíproca e MMSE, a abordagem descrita na tese permite ultrapassar, de forma inovadora, as dificuldades inerentes à optimização das taxas de transmissão de informação confiáveis em sistemas de comunicação, e permite a exploração da atribuição óptima de potência e estruturas óptimas de pre-codificação para diferentes modelos de canal: com fios, sem fios e ópticos. A tese aborda também o problema do atraso, numa tentativa de responder a questões levantadas pela enorme procura de débitos elevados em sistemas de comunicação. Isso é feito através da proposta de novos modelos para sistemas com codificação de rede (network coding) em camadas acima da sua camada física. Em particular, aborda-se a utilização de sistemas de codificação em rede para canais que variam no tempo e são sensíveis a atrasos. Isso foi demonstrado através da proposta de um novo modelo e esquema adaptativo, cujos algoritmos foram aplicados a sistemas sem fios com desvanecimento (fading) complexo, de que são exemplos os sistemas de comunicação via satélite. A tese aborda ainda o uso de sistemas de codificação de rede em cenários de transferência (handover) exigentes. Isso é feito através da proposta de novos modelos de transmissão WiFi IEEE 801.11 MAC, que são comparados com codificação de rede, e que se demonstram possibilitar transferência sem descontinuidades. Pode assim dizer-se que esta tese, através de trabalho de análise e de propostas suportadas por simulações, defende que na concepção de sistemas de comunicação se devem considerar estratégias de transmissão e codificação que sejam não só próximas da capacidade dos canais, mas também tolerantes a atrasos, e que tais estratégias têm de ser concebidas tendo em vista características do canal e a camada física.