186 resultados para Cascas (Engenharia)
Resumo:
Atualmente, a poluição atmosférica constitui uma das principais causas ambientais de mortalidade. Cerca de 30% da população europeia residente em áreas urbanas encontra-se exposta a níveis de poluição atmosférica superiores aos valores- limite de qualidade do ar legislados para proteção da saúde humana, representando o tráfego rodoviário uma das principais fontes de poluição urbana. Além dos poluentes tradicionais avaliados em áreas urbanas, os poluentes classificados como perigosos para a saúde (Hazard Air Pollutants - HAPs) têm particular relevância devido aos seus conhecidos efeitos tóxicos e cancerígenos. Neste sentido, a avaliação da exposição tornase primordial para a determinação da relação entre a poluição atmosférica urbana e efeitos na saúde. O presente estudo tem como principal objetivo o desenvolvimento e implementação de uma metodologia para avaliação da exposição individual à poluição atmosférica urbana relacionada com o tráfego rodoviário. De modo a atingir este objetivo, foram identificados os parâmetros relevantes para a quantificação de exposição e analisados os atuais e futuros potenciais impactos na saúde associados com a exposição à poluição urbana. Neste âmbito, o modelo ExPOSITION (EXPOSure model to traffIc-relaTed aIr pOllutioN) foi desenvolvido baseado numa abordagem inovadora que envolve a análise da trajetória dos indivíduos recolhidas por telemóveis com tecnologia GPS e processadas através da abordagem de data mining e análise geoespacial. O modelo ExPOSITION considera também uma abordagem probabilística para caracterizar a variabilidade dos parâmetros microambientais e a sua contribuição para exposição individual. Adicionalmente, de forma a atingir os objetivos do estudo foi desenvolvido um novo módulo de cálculo de emissões de HAPs provenientes do transporte rodoviário. Neste estudo, um sistema de modelação, incluindo os modelos de transporteemissões- dispersão-exposição, foi aplicado na área urbana de Leiria para quantificação de exposição individual a PM2.5 e benzeno. Os resultados de modelação foram validados com base em medições obtidas por monitorização pessoal e monitorização biológica verificando-se uma boa concordância entre os resultados do modelo e dados de medições. A metodologia desenvolvida e implementada no âmbito deste trabalho permite analisar e estimar a magnitude, frequência e inter e intra-variabilidade dos níveis de exposição individual, bem como a contribuição de diferentes microambientes, considerando claramente a sequência de eventos de exposição e relação fonte-recetor, que é fundamental para avaliação dos efeitos na saúde e estudos epidemiológicos. O presente trabalho contribui para uma melhor compreensão da exposição individual em áreas urbanas, proporcionando novas perspetivas sobre a exposição individual, essenciais na seleção de estratégias de redução da exposição à poluição atmosférica urbana, e consequentes efeitos na saúde.
Resumo:
Neste trabalho foram produzidos nanocompósitos de AlSiC misturando alumínio puro com nano partículas de SiC com diâmetro de 45 – 55 nm, usando, de forma sequencial, a técnica da metalurgia do pó e a compactação por “ Spark Plasma Sintering”. O compósito obtido apresentava grãos com 100 nm de diâmetro, encontrandose as partículas de SiC localizadas, principalmente, nas fronteiras de grão. O nanocompósito sob a forma de provetes cilíndricos foi submetido a testes de compressão uniaxial e a testes de nanoindentação para analisar a influência das nanopartículas de SiC, da fração volúmica de ácido esteárico e do tempo de moagem, nas propriedades mecânicas do material. Para efeitos de comparação, utilizouse o comportamento mecânico do Al puro processado em condições similares e da liga de alumínio AA1050O. A tensão limite de elasticidade do nanocompósito com 1% Vol./Vol. de SiC é dez vezes superior à do AA1050. O refinamento de grão à escala nano constitui o principal mecanismo de aumento de resistência mecânica. Na realidade, o Al nanocristalino sem reforço de partículas de SiC, apresenta uma tensão limite de elasticidade sete vezes superior à da liga AA1050O. A adição de 0,5 % Vol./Vol. e de 1 % Vol./Vol. de SiC conduzem, respetivamente, ao aumento da tensão limite de elasticidade em 47 % e 50%. O aumento do tempo de moagem e a adição de ácido esteárico ao pó durante a moagem conduzem apenas a um pequeno aumento da tensão de escoamento. A dureza do material medida através de testes de nanoindentação confirmaram os dados anteriores. A estabilidade das microestruturas do alumínio puro e do nanocompósito AlSiC, foi testada através de recozimento de restauração realizado às temperaturas de 150 °C e 250 °C durante 2 horas. Aparentemente, o tratamento térmico não influenciou as propriedades mecânicas dos materiais, excepto do nanocompósito com 1 % Vol./Vol. de SiC restaurado à temperatura de 250 °C, para o qual se observou uma redução da tensão limite de elasticidade na ordem dos 13 %. No alumínio nanocristalino, a tensão de escoamento é controlada pelo efeito de HallPetch. As partículas de SiC, são segregadas pelas fronteiras do grão e não contribuem para o aumento de resistência mecânica segundo o mecanismo de Orowan. Alternativamente, as nanopartículas de SiC constituem um reforço das fronteiras do grão, impedindo o seu escorregamento e estabilizando a nanoestrutura. Deste modo, as propriedades mecânicas do alumínio nanocristalino e do nanocompósito de AlSiC poderão estar relacionadas com a facilidade ou dificuldade do escorregamento das fronteiras de grão, embora não seja apresentada prova explícita deste mecanismo à temperatura ambiente.
Resumo:
Uma das maiores causas de degradação dos revestimentos é a presença de sais solúveis, tanto nas zonas costeiras como nas zonas continentais. Estes sais podem ter origens distintas, tais como: humidade ascensional, nevoeiro salino, inundações ou ainda estarem presentes nos próprios materiais, como é o caso da utilização de areias mal lavadas. O local onde os sais cristalizam é dependente do tipo de transporte entre a alvenaria e o revestimento, assim como da severidade da envolvente ambiental (temperatura e humidade relativa). Com esta tese pretende-se desenvolver revestimentos de substituição compatíveis, eficazes e duráveis para alvenarias antigas sujeitas à ação severa da água (humidade ascensional através das fundações com elevada concentração de NaCl); desenvolver ensaios de envelhecimento acelerado baseados em ciclos de dissolução e cristalização que permitam simular a ação severa da água; perceber a influência de revestimentos com caraterísticas extremas de permeabilidade ao vapor de água aplicados nas duas faces do mesmo suporte (argamassas de cimento e resina versus argamassas de cal), e sujeitos à ação severa da água; perceber a influência de vários fatores, tais como : rasgos verticais contínuos executados no emboço e a utilização de hidrófugo no reboco no desempenho dos vários sistemas de revestimento desenvolvidos, quando sujeitos à ação severa da água;; utilizar a remoção eletrocinética de sais, em provetes simulando a influência da alvenaria e dos revestimentos, com o objetivo de reduzir a sua concentração de NaCl, para que no futuro possa ser aplicado de forma eficaz em paredes de edifícios antigos, enquanto ação de manutenção, e desta forma aumentar a durabilidade dos revestimentos. Para atingir os objetivos descritos, foram considerados: i) o desenvolvimento de provetes que permitam considerar os sistemas de revestimento desenvolvidos nesta tese e o suporte, e que simulem uma alvenaria revestida em ambas as faces, e com os quais seja possível a simulação da ação severa da água em laboratório e, ii) o desenvolvimento ciclos de dissolução e cristalização numa parede de grandes dimensões existente em laboratório, que permitam simular a ação severa da água em condições tão reais quanto possível. O objetivo final deste estudo é o desenvolvimento de um revestimento de substituição denominado “emboço ventilado” para paredes de edifícios antigos com revestimentos degradados devido à presença de humidade ascensional e sais solúveis. Pretende-se que este sistema de revestimento, composto por duas camadas de revestimento (camada base e reboco), seja compatível, durável e eficaz, e que funcione como um sistema de acumulação no qual os sais cristalizem na camada base do sistema de revestimento (executada com rasgos verticais) e não na alvenaria ou na camada exterior.
Resumo:
Os biocombustíveis têm estado na linha da frente das políticas energéticas mundiais visto que as suas vantagens conseguem colmatar as incertezas e resolver alguns dos problemas associados aos combustíveis fósseis. O biodiesel tem provado ser um combustível muito fiável, alternativo ao petrodiesel. É uma mistura de ésteres alquílicos produzidos a partir de óleos vegetais e gorduras animais através de uma reacção de transesterificação. Como combustível, o biodiesel é economicamente viável, socialmente responsável, tecnicamente compatível e ambientalmente amigável. O principal desafio associado ao seu desenvolvimento tem a ver com a escolha de matéria-prima para a sua produção. Nos países do terceiro mundo, óleos alimentares são mais importantes para alimentar pessoas do que fazer funcionar carros. Esta tese tem como objectivos produzir/processar biodiesel a partir de recursos endógenos de Timor-Leste e medir/prever as propriedades termodinâmicas do biodiesel, a partir das dos esteres alquílicos. A síntese do biodiesel a partir dos óleos de Aleurites moluccana, Jatropha curcas e borras de café foram aqui estudados. As propriedades termodinâmicas como densidade, viscosidade, tensão superficial, volatilidade e velocidade do som também foram medidas e estimadas usando modelos preditivos disponíveis na literatura, incluindo as equações de estado CPA e soft-SAFT. Timor-Leste é um país muito rico em recursos naturais, mas a maioria da população ainda vive na pobreza e na privação de acesso a serviços básicos e condições de vida decentes. A exploração de petróleo e gás no mar de Timor tem sido controlado pelo Fundo Petrolífero. O país ainda carece de electricidade e combustíveis que são cruciais para materializar as políticas de redução da pobreza. Como solução, o governo timorense criou recentemente o Plano Estratégico de Desenvolvimento a 20 anos cujas prioridades incluem trazer o desenvolvimento do petróleo do mar para a costa sul de Timor-Leste e desenvolver as energias renováveis. É neste último contexto que o biodiesel se insere. O seu desenvolvimento no país poderá ser uma solução para o fornecimento de electricidade, a criação de empregos e sobretudo o combate contra a pobreza e a privação. Para ser usado como combustível, no entanto, o biodiesel deve possuir propriedades termodinâmicas coerentes com as especificadas nas normas da ASTM D6751 (nos Estados Unidos) ou EN 14214 (na Europa) para garantir uma adequada ignição, atomização e combustão do biodiesel no motor.
Resumo:
The development of a compact gamma camera with high spatial resolution is of great interest in Nuclear Medicine as a means to increase the sensitivity of scintigraphy exams and thus allow the early detection of small tumours. Following the introduction of the wavelength-shifting fibre (WSF) gamma camera by Soares et al. and evolution of photodiodes into highly sensitive silicon photomultipliers (SiPMs), this thesis explores the development of a WSF gamma camera using SiPMs to obtain the position information of scintillation events in a continuous CsI(Na) crystal. The design is highly flexible, allowing the coverage of different areas and the development of compact cameras, with very small dead areas at the edges. After initial studies which confirmed the feasibility of applying SiPMs, a prototype with 5 5 cm2 was assembled and tested at room temperature, in an active field-of-view of 10 10 mm2. Calibration and characterisation of intrinsic properties of this prototype were done using 57Co, while extrinsic measurements were performed using a high-resolution parallel-hole collimator and 99mTc. In addition, a small mouse injected with a radiopharmaceutical was imaged with the developed prototype. Results confirm the great potential of SiPMs when applied in a WSF gamma camera, achieving spatial resolution performance superior to the traditional Anger camera. Furthermore, performance can be improved by an optimisation of experimental conditions, in order to minimise and control the undesirable effects of thermal noise and non-uniformity of response of multiple SiPMs. The development and partial characterisation of a larger SiPM WSF gamma camera with 10 10 cm2 for clinical application are also presented.
Resumo:
In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.
Resumo:
Strong and sometimes extreme responses in runoff and soil erosion following wildfires have been reported worldwide. However, in the case of North-Central Portugal, little research had been carried out regarding the hydrologic and erosive impacts of several land management activities in recently burnt areas (such as ground preparation, post-fire logging or post-fire mitigation treatments). This study aims to assess post-fire runoff and soil erosion response on Eucalypt and Maritime pine plantations during the first, second and third years following wildfires. The effect of several pre-fire ground preparation operations (ploughed down-slope, contour ploughed and inclined terraces), post-fire logging activities (on both the eucalypt and pine plantations), as well as the application of hydromulch (a post-fire emergency treatment) on overland flow and soil erosion were compared to burnt but undisturbed and untreated areas. The intensive monitoring of runoff, soil erosion and selected soil properties served to determine the main factors involved in post-fire runoff and soil erosion and their spatial and temporal variation. Soil water repellency deserved special attention, due to its supposed important role for overland flow generation. Repeated rainfall simulation experiments (RSE’s), micro-scale runoff plots and bounded sediment fences were carried out and/or installed immediately after the wildfire on seven burnt slopes. Micro-scale runoff plots results under natural rainfall conditions were also compared to the RSE’s results, which was useful for assessing the representativeness of the data obtained with artificial rainfall. The results showed comparable runoff coefficient (20-60%) but lower sediment losses (125-1000 g m-2) than prior studies in Portugal, but especially outside Portugal. Lower sediment losses were related with the historic intensive land use in the area. In evaluating these losses, however, the shallowness and stoniness of the soils, as well as the high organic matter fraction of the eroded sediments (50%) must not be overlooked. Sediment limited erosion was measured in all the ploughed sites, probably due to the time since ploughing (several years). The disturbance of the soil surface cover due to post-fire logging and wood extraction substantially increased sediment losses at both the pine and eucalypt sites. Hydromulch effectiveness in reducing the runoff (70%) and sediment losses (83%) was attributed to the protective high coverage provided by hydromulch. The hydromulch significantly affected the soil cover and other soil properties and these changes also reduced the soil erosion risk. The rainfall amount was the main factor explaining the variance in runoff. However, a shift from rainfall amount to rainfall intensity was detected when either the surface cover or the infiltration capacity (hydrophilic conditions) increased. Sediment losses were controlled by rainfall intensity and surface cover. The role of soil water repellency on runoff generation was not consistent; the overall repellency levels alone were not enough to assess its hydrological impact. Soil water repellency explained runoff generation in the specific-sites model better than in the overall model. Additionally, soil moisture content was a better predictor for soil water repellency than antecedent rainfall. The natural rainfall results confirmed that RSE’s were able to capture the specific sediment losses and its organic matter content as well as the differences between the ploughed and unploughed sites. Repeated RSE’s also captured the seasonal variations in runoff and sediment losses attributed to soil water repellency. These results have implications for post-fire soil erosion modelling and soil conservation practices in the region, or areas with the same land use, climate and soil characteristics. The measured sediment loss, as well as the increasing frequency of ploughing in recently burnt and unburnt eucalypt stands, suggests ploughing is not an effective as a soil conservation measure. Logging activities with less impact are recommended in order to maintain the forest litter protecting the soil surface. Due to its high effectiveness in reducing runoff and soil erosion, hydromulch is recommended for highly sensitive and vulnerable areas.
Resumo:
A reação entre o óxido de magnésio (MgO) e o fosfato de monoamónio (MAP), à temperatura ambiente, origina os cimentos de fosfato de magnésio, materiais caracterizados pela sua presa rápida e pelas excelentes propriedades mecânicas adquiridas precocemente. As propriedades finais são dependentes, essencialmente, da composição do cimento (razão molar magnésia:fosfato e utilização de retardantes de presa) mas também são influenciadas pela reatividade da magnésia utilizada. Neste trabalho, a reação foi caracterizada através do estudo da influência da razão molar MgO:MAP (variando de 1:1 até 8:1), da presença e teor de aditivos retardantes (ácido bórico, ácido cítrico e tripolifosfato de sódio) e da variação da área superficial específica da magnésia (conseguida por calcinação do óxido), no tempo de presa, na temperatura máxima atingida e nas fases cristalinas finais formadas. A reação de presa pode ser comparada à hidratação do cimento Portland, com a existência de 4 estágios (reação inicial, indução, aceleração e desaceleração), com a diferença que estes estágios ocorrem a velocidade muito mais alta nos cimentos de fosfato de magnésio. Este estudo foi realizado utilizando a espetroscopia de impedâncias, acompanhada pela monitorização da evolução de temperatura ao longo do tempo de reação e, por paragem de reação, identificando as fases cristalinas formadas. A investigação do mecanismo de reação foi complementada com a observação da microestrutura dos cimentos formados e permitiu concluir que a origem da magnésia usada não afeta a reação nem as propriedades do cimento final. A metodologia de superfície de resposta foi utilizada para o estudo e otimização das características finais do produto, tendo-se mostrado um método muito eficaz. Para o estudo da variação da área superficial específica da magnésia com as condições de calcinação (temperatura e tempo de patamar) usou-se o planeamento fatorial de experiências tendo sido obtido um modelo matemático que relaciona a resposta da área superficial específica da magnésia com as condições de calcinação. As propriedades finais dos cimentos (resistência mecânica à compressão e absorção de água) foram estudadas utilizando o planeamento simplex de experiências, que permitiu encontrar modelos que relacionam a propriedade em estudo com os valores das variáveis (razão molar MgO:MAP, área superficial específica da magnésia e quantidade de ácido bórico). Estes modelos podem ser usados para formular composições e produzir cimentos com propriedades finais específicas.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
This work investigates new channel estimation schemes for the forthcoming and future generation of cellular systems for which cooperative techniques are regarded. The studied cooperative systems are designed to re-transmit the received information to the user terminal via the relay nodes, in order to make use of benefits such as high throughput, fairness in access and extra coverage. The cooperative scenarios rely on OFDM-based systems employing classical and pilot-based channel estimators, which were originally designed to pointto-point links. The analytical studies consider two relaying protocols, namely, the Amplifyand-Forward and the Equalise-and-Forward, both for the downlink case. The relaying channels statistics show that such channels entail specific characteristics that comply to a proper filter and equalisation designs. Therefore, adjustments in the estimation process are needed in order to obtain the relay channel estimates, refine these initial estimates via iterative processing and obtain others system parameters that are required in the equalisation. The system performance is evaluated considering standardised specifications and the International Telecommunication Union multipath channel models.
Resumo:
Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
Ao longo das últimas décadas, a micromoldação (u-moldação) por injeção de termoplásticos ganhou um lugar de destaque no mercado de equipamentos eletrónicos e de uma ampla gama de componentes mecânicos. No entanto, quando o tamanho do componente diminui, os pressupostos geralmente aceites na moldação por injeção convencional deixam de ser válidos para descrever o comportamento reológico e termomecânico do polímero na microimpressão. Por isso, a compreensão do comportamento dinâmico do polímero à escala micro bem como da sua caraterização, análise e previsão das propriedades mecânicas exige uma investigação mais alargada. O objetivo principal deste programa doutoral passa por uma melhor compreensão do fenómeno físico intrínseco ao processo da μ-moldação por injeção. Para cumprir com o objetivo estabelecido, foi efetuado um estudo paramétrico do processo de μ-moldação por injeção, cujos resultados foram comparados com os resultados obtidos por simulação numérica. A caracterização dinâmica mecânica das μ-peças foi efetuada com o objetivo de recolher os dados necessários para a previsão do desempenho mecânico das mesmas, a longo prazo. Finalmente, depois da calibração do modelo matemático do polímero, foram realizadas análises estruturais com o intuito de prever o desempenho mecânico das μ-peças no longo prazo. Verificou-se que o desempenho mecânico das μ-peças pode ser significativamente afetado pelas tensões residuais de origem mecânica e térmica. Estas últimas, resultantes do processo de fabrico e das condições de processamento, por isso, devem ser consideradas na previsão do desempenho mecânico e do tempo de serviço das u-moldações.