914 resultados para Cascas (Engenharia)
Resumo:
A reação entre o óxido de magnésio (MgO) e o fosfato de monoamónio (MAP), à temperatura ambiente, origina os cimentos de fosfato de magnésio, materiais caracterizados pela sua presa rápida e pelas excelentes propriedades mecânicas adquiridas precocemente. As propriedades finais são dependentes, essencialmente, da composição do cimento (razão molar magnésia:fosfato e utilização de retardantes de presa) mas também são influenciadas pela reatividade da magnésia utilizada. Neste trabalho, a reação foi caracterizada através do estudo da influência da razão molar MgO:MAP (variando de 1:1 até 8:1), da presença e teor de aditivos retardantes (ácido bórico, ácido cítrico e tripolifosfato de sódio) e da variação da área superficial específica da magnésia (conseguida por calcinação do óxido), no tempo de presa, na temperatura máxima atingida e nas fases cristalinas finais formadas. A reação de presa pode ser comparada à hidratação do cimento Portland, com a existência de 4 estágios (reação inicial, indução, aceleração e desaceleração), com a diferença que estes estágios ocorrem a velocidade muito mais alta nos cimentos de fosfato de magnésio. Este estudo foi realizado utilizando a espetroscopia de impedâncias, acompanhada pela monitorização da evolução de temperatura ao longo do tempo de reação e, por paragem de reação, identificando as fases cristalinas formadas. A investigação do mecanismo de reação foi complementada com a observação da microestrutura dos cimentos formados e permitiu concluir que a origem da magnésia usada não afeta a reação nem as propriedades do cimento final. A metodologia de superfície de resposta foi utilizada para o estudo e otimização das características finais do produto, tendo-se mostrado um método muito eficaz. Para o estudo da variação da área superficial específica da magnésia com as condições de calcinação (temperatura e tempo de patamar) usou-se o planeamento fatorial de experiências tendo sido obtido um modelo matemático que relaciona a resposta da área superficial específica da magnésia com as condições de calcinação. As propriedades finais dos cimentos (resistência mecânica à compressão e absorção de água) foram estudadas utilizando o planeamento simplex de experiências, que permitiu encontrar modelos que relacionam a propriedade em estudo com os valores das variáveis (razão molar MgO:MAP, área superficial específica da magnésia e quantidade de ácido bórico). Estes modelos podem ser usados para formular composições e produzir cimentos com propriedades finais específicas.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
This work investigates new channel estimation schemes for the forthcoming and future generation of cellular systems for which cooperative techniques are regarded. The studied cooperative systems are designed to re-transmit the received information to the user terminal via the relay nodes, in order to make use of benefits such as high throughput, fairness in access and extra coverage. The cooperative scenarios rely on OFDM-based systems employing classical and pilot-based channel estimators, which were originally designed to pointto-point links. The analytical studies consider two relaying protocols, namely, the Amplifyand-Forward and the Equalise-and-Forward, both for the downlink case. The relaying channels statistics show that such channels entail specific characteristics that comply to a proper filter and equalisation designs. Therefore, adjustments in the estimation process are needed in order to obtain the relay channel estimates, refine these initial estimates via iterative processing and obtain others system parameters that are required in the equalisation. The system performance is evaluated considering standardised specifications and the International Telecommunication Union multipath channel models.
Resumo:
Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
Ao longo das últimas décadas, a micromoldação (u-moldação) por injeção de termoplásticos ganhou um lugar de destaque no mercado de equipamentos eletrónicos e de uma ampla gama de componentes mecânicos. No entanto, quando o tamanho do componente diminui, os pressupostos geralmente aceites na moldação por injeção convencional deixam de ser válidos para descrever o comportamento reológico e termomecânico do polímero na microimpressão. Por isso, a compreensão do comportamento dinâmico do polímero à escala micro bem como da sua caraterização, análise e previsão das propriedades mecânicas exige uma investigação mais alargada. O objetivo principal deste programa doutoral passa por uma melhor compreensão do fenómeno físico intrínseco ao processo da μ-moldação por injeção. Para cumprir com o objetivo estabelecido, foi efetuado um estudo paramétrico do processo de μ-moldação por injeção, cujos resultados foram comparados com os resultados obtidos por simulação numérica. A caracterização dinâmica mecânica das μ-peças foi efetuada com o objetivo de recolher os dados necessários para a previsão do desempenho mecânico das mesmas, a longo prazo. Finalmente, depois da calibração do modelo matemático do polímero, foram realizadas análises estruturais com o intuito de prever o desempenho mecânico das μ-peças no longo prazo. Verificou-se que o desempenho mecânico das μ-peças pode ser significativamente afetado pelas tensões residuais de origem mecânica e térmica. Estas últimas, resultantes do processo de fabrico e das condições de processamento, por isso, devem ser consideradas na previsão do desempenho mecânico e do tempo de serviço das u-moldações.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
Um dos principais fatores que afetam negativamente a qualidade do ambiente em muitas cidades em todo o mundo é o material particulado (PM). A sua presença na atmosfera pode ter impactos negativos na saúde humana, clima, património edificado e ecossistemas. Muitos dos estudos realizados em áreas urbanas focam apenas as frações respiráveis (PM10 e PM2,5). No entanto, os processos de formação, a identificação das fontes emissoras e os efeitos dependem muito da distribuição granulométrica das partículas. A atenção tem recaído na análise de hidrocarbonetos poliaromáticos (PAHs), devida à sua carcinogenicidade e a informação disponível sobre outros compostos é escassa. O presente estudo consistiu na obtenção do PM distribuído por diferentes frações de tamanho e na análise detalhada da sua composição química, em dois locais urbanos da Península Ibérica (Madrid e Lisboa). Dado que os veículos representam uma das principais fontes emissoras em ambientes urbanos, efetuou-se uma caracterização mais detalhada deste tipo de emissões, conduzindo uma campanha de amostragem num túnel rodoviário (Marquês de Pombal, Lisboa). As amostragens, em ambas as cidades, decorreram durante um mês, quer no verão quer no inverno, em dois locais urbanos distintos, um junto a uma via com influência de tráfego e outro numa área urbana de fundo. No túnel a amostragem foi realizada apenas durante uma semana. Em Madrid e no túnel, o PM foi recolhido utilizando um amostrador de elevado volume com impactor em cascata com quatro tamanhos: 10-2,5, 2,5-0,95, 0,95-0,49 e < 0,49 μm. Em Lisboa, foi utilizado um impactor em cascata com apenas dois tamanhos, 10- 2,5 e < 2,5 μm. As amostras foram quimicamente analisadas e determinadas as concentrações de compostos carbonados (OC, EC e carbonatos), iões inorgânicos solúveis em água (Cl−, NO3−, SO42−, Na+, NH4+, K+, Mg2+, Ca2+),metais e compostos orgânicos. Em Madrid, as concentrações médias de PM10 foram 44 e 48% maiores nas amostras recolhidas junto à estrada do que as de fundo urbano no verão e inverno, respetivamente. A fração grosseira e o PM0,5 apresentaram concentrações mais elevadas no verão do que no inverno devido às condições climatéricas pouco usuais. No verão, as amostragens decorreram num mês em que as temperaturas foram muito elevadas e em que ocorreram vários episódios de intrusão de poeira africana. Durante o período de amostragem de inverno, as temperaturas foram muito baixas e registaram-se vários dias de precipitação quer sob a forma de chuva, quer sob a forma de neve. As situações meteorológicas sinóticas mais comuns, incluindo aquelas que causam o transporte de massas de ar com poeiras Africanas, foram identificadas em ambas as estações do ano. As concentrações mássicas de PM10, EC e OC foram encontrados predominantemente na fração de tamanho ultrafino em ambos os locais de amostragem e estações do ano. Nas restantes frações não se observou nenhuma tendência sazonal. O carbono orgânico secundário (SOC) mostrou um claro padrão sazonal, com concentrações muito mais elevadas no verão do que no inverno, em ambos os lugares. A partir do balanço mássico de iões, observou-se que, no verão, a formação de compostos inorgânicos secundários (SIC) conduziu a um enriquecimento pouco comum de Ca2+ na fração submicrométrica, quer nas amostras de tráfego, quer em fundo urbano. Os alcanos, PAHs, os álcoois e os ácidos foram as classes de compostos orgânicos identificados e quantificados no material particulado. Globalmente, representaram 0,26 e 0,11 μg m−3 no verão e inverno, respetivamente, no local de tráfego e 0,28 e 0,035 μg m−3 na área urbana de fundo. Os diferentes compostos orgânicos também apresentaram padrões sazonais, sugerindo fontes de emissão (e.g. escapes dos veículos e fontes biogénicas) ou processos de formação com contribuições variáveis ao longo do ano. As concentrações de benzoapireno equivalente foram menores que 1 ng m-3 e o risco carcinogénico estimado é baixo. No verão, os maiores enriquecimentos de metais ocorreram na fração submicrométrica, e no inverno na fração grosseira. No verão, os enriquecimentos foram ≥ 80% para o Mn, Ni, Cu, Zn, Cd, Sb e Co, no inverno, estes traçadores de emissões do tráfego foram menores, exceto para o Zn. Em Lisboa, a concentração média de PM10 foi de 48 μg m-3 no verão e de 44 μg m-3 no inverno, junto à estrada. Na área de fundo urbano, registaram-se níveis comparáveis nas duas estações (27 μg m-3 e 26 μg m-3). A média do rácio PM2,5/PM10 foi de 65% no verão e 44% no inverno na área de tráfego e 62% e 59% na área urbana de fundo. Estes resultados significam que o PM2,5 é um dos principais contaminantes que afetam a qualidade do ar no centro da cidade de Lisboa. A relação OC/EC, que reflete a composição das emissões de combustão dos veículos, variou entre 0,3 e 0,4 no interior do túnel. Os rácios de OC/EC mínimos obtidos junto às vias de tráfego em Madrid e em Lisboa encontram-se entre os do túnel e os registados em atmosferas urbanas de fundo, sugerindo que os valores mínimos habitualmente obtidos para este parâmetro em ambientes urbanos abertos sobrestimam as emissões diretas de OC pelo transporte rodoviário. Espera-se que os resultados deste trabalho contribuam para suprir, pelo menos em parte, as lacunas de informação quer sobre a composição de várias granulometrias de PM, quer sobre fontes e processos de formação em atmosferas urbanas. Como a exposição a poluentes do ar ultrapassa o controle dos indivíduos e exige ação das autoridades públicas a nível nacional, regional e até mesmo internacional, é importante propor medidas mitigadoras focadas nas principais fontes de emissão identificadas.
Resumo:
O presente trabalho teve como objetivo principal estudar o comportamento mecânico do disco intervertebral recorrendo a sensores em fibra ótica. Na expetativa de efetuar o melhor enquadramento do tema foi efetuada uma revisão exaustiva das várias configurações de sensores em fibra ótica que têm vindo a ser utilizadas em aplicações biomédicas e biomecânicas, nomeadamente para medição de temperatura, deformação, força e pressão. Nesse âmbito, procurou-se destacar as potencialidades dos sensores em fibra ótica e apresentá-los como uma tecnologia alternativa ou até de substituição das tecnologias associadas a sensores convencionais. Tendo em vista a aplicação de sensores em fibra ótica no estudo do comportamento do disco intervertebral efetuou-se também uma revisão exaustiva da coluna vertebral e, particularmente, do conceito de unidade funcional. A par de uma descrição anatómica e funcional centrada no disco intervertebral, vértebras adjacentes e ligamentos espinais foram ainda destacadas as suas propriedades mecânicas e descritos os procedimentos mais usuais no estudo dessas propriedades. A componente experimental do presente trabalho descreve um conjunto de experiências efetuadas com unidades funcionais cadavéricas utilizando sensores convencionais e sensores em fibra ótica com vista à medição da deformação do disco intervertebral sob cargas compressivas uniaxiais. Inclui ainda a medição in vivo da pressão intradiscal num disco lombar de uma ovelha sob efeito de anestesia. Para esse efeito utilizou-se um sensor comercial em fibra ótica e desenvolveu-se a respetiva unidade de interrogação. Finalmente apresenta-se os resultados da investigação em curso que tem como objetivo propor e desenvolver protótipos de sensores em fibra ótica para aplicações biomédicas e biomecânicas. Nesse sentido, são apresentadas duas soluções de sensores interferométricos para medição da pressão em fluídos corporais.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
A desmaterialização da economia é um dos caminhos para a promoção do desenvolvimento sustentável na medida em que elimina ou reduz a utilização de recursos naturais, fazendo mais com menos. A intensificação dos processos tecnológicos é uma forma de desmaterializar a economia. Sistemas mais compactos e mais eficientes consomem menos recursos. No caso concreto dos sistemas envolvendo processo de troca de calor, a intensificação resulta na redução da área de permuta e da quantidade de fluido de trabalho, o que para além de outra vantagem que possa apresentar decorrentes da miniaturização, é um contributo inegável para a sustentabilidade da sociedade através do desenvolvimento científico e tecnológico. O desenvolvimento de nanofluidos surge no sentido de dar resposta a estes tipo de desafios da sociedade moderna, contribuindo para a inovação de produtos e sistemas, dando resposta a problemas colocados ao nível das ciências de base. A literatura é unânime na identificação do seu potencial como fluidos de permuta, dada a sua elevada condutividade, no entanto a falta de rigor subjacente às técnicas de preparação dos mesmos, assim como de um conhecimento sistemático das suas propriedades físicas suportado por modelos físico-matemáticos devidamente validados levam a que a operacionalização industrial esteja longe de ser concretizável. Neste trabalho, estudou-se de forma sistemática a condutividade térmica de nanofluidos de base aquosa aditivados com nanotubos de carbono, tendo em vista a identificação dos mecanismos físicos responsáveis pela condução de calor no fluido e o desenvolvimento de um modelo geral que permita com segurança determinar esta propriedade com o rigor requerido ao nível da engenharia. Para o efeito apresentam-se métodos para uma preparação rigorosa e reprodutível deste tipo de nanofluido assim como das metodologias consideradas mais importantes para a aferição da sua estabilidade, assegurando deste modo o rigor da técnica da sua produção. A estabilidade coloidal é estabelecida de forma rigorosa tendo em conta parâmetros quantificáveis como a ausência de aglomeração, a separação de fases e a deterioração da morfologia das nanopartículas. Uma vez assegurado o método de preparação dos nanofluídos, realizou-se uma análise paramétrica conducente a uma base de dados obtidos experimentalmente que inclui a visão central e globalizante da influência relativa dos diferentes fatores de controlo com impacto nas propriedades termofísicas. De entre as propriedades termofísicas, este estudo deu particular ênfase à condutividade térmica, sendo os fatores de controlo selecionados os seguintes: fluido base, temperatura, tamanho da partícula e concentração de nanopartículas. Experimentalmente, verificou-se que de entre os fatores de controlo estudados, os que maior influência detêm sobre a condutividade térmica do nanofluido, são o tamanho e concentração das nanopartículas. Com a segurança conferida por uma base de dados sólida e com o conhecimento acerca da contribuição relativa de cada fator de controlo no processo de transferência de calor, desenvolveu-se e validou-se um modelo físico-matemático com um caracter generalista, que permitirá determinar com segurança a condutividade térmica de nanofluidos.
Resumo:
Nesta tese relatam-se estudos de fotoluminescência de nanopartículas de óxidos e fosfatos dopados com iões trivalentes de lantanídeos, respectivamente, nanobastonetes de (Gd,Eu)2O3 e (Gd,Yb,Er)2O3 e nanocristais de (Gd,Yb,Tb)PO4, demonstrando-se também aplicações destes materiais em revestimentos inteligentes, sensores de temperatura e bioimagem. Estuda-se a transferência de energia entre os sítios de Eu3+ C2 e S6 dos nanobastonetes Gd2O3. A contribuição dos mecanismos de transferência de energia entre sítios para o tempo de subida 5D0(C2) é descartada a favor da relaxação directa 5D1(C2) 5D0(C2) (i.e., transferência de energia entre níveis). O maior tempo de decaimento do nível 5D0(C2) nos nanobastonetes, relativamente ao valor medido para o mesmo material na forma de microcristais, é atribuído, quer à existência de espaços livres entre nanobastonetes próximos (factor de enchimento ou fracção volúmica), quer à variação do índice de refracção efectivo do meio em torno dos iões Eu3+. A dispersão de nanobastonetes de (Gd,Eu)2O3 em três resinas epoxi comerciais através da cura por UV permite obter nanocompósitos epoxi- (Gd,Eu)2O3. Relatam-se estudos cinéticos e das propriedades térmicas e de fotoluminescência destes nanocompósitos. Estes, preservam as típicas propriedades de emissão do Eu3+, mostrando o potencial do método de cura por UV para obter revistimentos inteligentes e fotoactivos. Considera-se um avanço significativo a realização de uma nanoplataforma óptica, incorporando aquecedor e termómetro e capaz de medir uma ampla gama de temperaturas (300-2000 K) à escala nano, baseada em nanobastonetes de (Gd,Yb,Er)2O3 (termómetros) cuja superfície se encontra revestida com nanopartículas de ouro. A temperature local é calculada usando, quer a distribuição de Boltzmann (300-1050 K) do rácio de intensidades da conversão ascendente 2H11=2!4I15=2/4S3=2!4I15=2, quer a lei de Planck (1200-2000 K) para uma emissão de luz branca atribuída à radiação do corpo negro. Finalmente, estudam-se as propriedades de fotoluminescência correspondentes às conversões ascendente e descendente de energia em nanocristais de (Gd,Yb,Tb)PO4 sintetizados por via hidrotérmica. A relaxividade (ressonância magnética) do 1H destes materiais são investigadas, tendo em vista possíveis aplicações em imagem bimodal (luminescência e ressonância magnética nuclear).
Resumo:
Esta tese descreve uma framework de trabalho assente no paradigma multi-camada para analisar, modelar, projectar e optimizar sistemas de comunicação. Nela se explora uma nova perspectiva acerca da camada física que nasce das relações entre a teoria de informação, estimação, métodos probabilísticos, teoria da comunicação e codificação. Esta framework conduz a métodos de projecto para a próxima geração de sistemas de comunicação de alto débito. Além disso, a tese explora várias técnicas de camada de acesso com base na relação entre atraso e débito para o projeto de redes sem fio tolerantes a atrasos. Alguns resultados fundamentais sobre a interação entre a teoria da informação e teoria da estimação conduzem a propostas de um paradigma alternativo para a análise, projecto e optimização de sistemas de comunicação. Com base em estudos sobre a relação entre a informação recíproca e MMSE, a abordagem descrita na tese permite ultrapassar, de forma inovadora, as dificuldades inerentes à optimização das taxas de transmissão de informação confiáveis em sistemas de comunicação, e permite a exploração da atribuição óptima de potência e estruturas óptimas de pre-codificação para diferentes modelos de canal: com fios, sem fios e ópticos. A tese aborda também o problema do atraso, numa tentativa de responder a questões levantadas pela enorme procura de débitos elevados em sistemas de comunicação. Isso é feito através da proposta de novos modelos para sistemas com codificação de rede (network coding) em camadas acima da sua camada física. Em particular, aborda-se a utilização de sistemas de codificação em rede para canais que variam no tempo e são sensíveis a atrasos. Isso foi demonstrado através da proposta de um novo modelo e esquema adaptativo, cujos algoritmos foram aplicados a sistemas sem fios com desvanecimento (fading) complexo, de que são exemplos os sistemas de comunicação via satélite. A tese aborda ainda o uso de sistemas de codificação de rede em cenários de transferência (handover) exigentes. Isso é feito através da proposta de novos modelos de transmissão WiFi IEEE 801.11 MAC, que são comparados com codificação de rede, e que se demonstram possibilitar transferência sem descontinuidades. Pode assim dizer-se que esta tese, através de trabalho de análise e de propostas suportadas por simulações, defende que na concepção de sistemas de comunicação se devem considerar estratégias de transmissão e codificação que sejam não só próximas da capacidade dos canais, mas também tolerantes a atrasos, e que tais estratégias têm de ser concebidas tendo em vista características do canal e a camada física.