937 resultados para Quantificação relativa
Resumo:
As regiões cársicas de Portugal ocupam uma parte considerável do território e albergam mais de 2000 grutas, que são habitadas por animais subterrâneos com características adaptativas únicas. Estes animais estão entre os mais raros, ameaçados e desprotegidos a nível mundial, comummente pelo simples fato de serem desconhecidos, o que associado à relativa inacessibilidade do seu habitat, constitui um desafio para o seu estudo. O presente trabalho centra-se no estudo da biodiversidade subterrânea do carso de Portugal, de forma a contribuir para a sua conservação. Os invertebrados subterrâneos têm sido ignorados no que concerne à sua proteção, sobretudo porque o conhecimento era escasso e desorganizado. Este trabalho começa por apresentar uma revisão de todas as fontes bibliográficas sobre fauna subterrânea em Portugal, incluindo um catálogo de espécies troglóbias e estigóbias, acompanhado das respetivas localizações, para congregar, pela primeira vez, o estado do conhecimento da riqueza específica, biogeografia e conservação das áreas estudadas. Para compreender os padrões de biodiversidade subterrânea, foi realizado um ano de trabalho de campo intenso e padronizado em mais de 40 cavidades de 14 unidades cársicas. Deste esforço resultou a descoberta e descrição de nove novos taxa, compreendendo três novos géneros e seis novas espécies para a ciência. Utilizando sistemas de informação geográfica foram mapeadas as distribuições das espécies subterrâneas do carso de Portugal e a sua riqueza foi comparada com a de outras áreas do mundo. Para explicar a sua riqueza específica subterrânea, foram testados vários fatores ambientais e efetuada a estimativa de espécies subterrâneas, numa escala regional. A evapotranspiração e consequentemente a produtividade primária ao nível da superfície poderão ser fatores importantes na variação da riqueza específica nas diferentes unidades cársicas, mas a profundidade e as características geológicas únicas de cada maciço parecem desempenhar um papel determinante nos padrões de biodiversidade subterrânea. Com o intuito de avaliar a sensibilidade de organismos subterrâneos à contaminação, foram testados os efeitos letais de dois tóxicos em crustáceos estigóbios com diferentes graus de troglomorfismo. Foram igualmente abordados aspectos gerais de ecotoxicologia de águas subterrâneas e perspectivas de futuro. Os principais problemas relacionados com a conservação dos habitats subterrâneos em Portugal estão associados à destruição direta do habitat e à sua contaminação. Estes carecem de proteção específica, o que implica a gestão adequada à superfície e a criação de áreas prioritárias de conservação. Integrando toda a informação gerada, o presente estudo estabelece uma hierarquização de locais prioritários para a conservação da fauna subterrânea em zonas cársicas de Portugal.
Resumo:
A patronagem tem sido considerada uma importante dimensão do modelo de governos partidários. Contudo, a concepção convencional da utilização da patronagem remete para a distribuição de cargos na administração pública a ocorrer para efeitos de recompensa por serviços prestados ao partido no governo, ou como mecanismo de compensação relativamente à incapacidade do partido no governo de converter as preferências em políticas públicas. Esta perspectiva não é inteiramente satisfatória. A crescente complexificação e fragmentação dos processos de governação, juntamente com o poder das estruturas administrativas no processo de políticas públicas parece impelir os governos partidários a procurarem novas formas de controlar a máquina administrativa do Estado. Através do controlo político da administração, os partidos no governo procuram obter uma máquina administrativa responsiva e accountable, o que pode ter consequências para a prossecução dos objectivos de controlo de políticas públicas dos partidos no governo. Deste modo, a patronagem – definida como a distribuição de cargos na cúpula dirigente da administração pública e semi-pública – pode converter-se num recurso chave para os partidos ao nível do controlo do processo de políticas públicas, permitindo-lhes assegurar um papel na governação democrática moderna. Este estudo permite confirmar, em primeiro lugar, a incapacidade de, durante o período democrático, institucionalizar mecanismos legais que possam promover a profissionalização da administração pública. Tal decorre da acentuada tendência para a revisão do enquadramento legal, que acompanha a alternância partidária no governo, sem contudo, permitir configurar um quadro legal capaz de restringir a discricionariedade política formal sobre a máquina administrativa do Estado. Em segundo lugar Portugal surge, no contexto dos 19 países europeus analisados, entre os países com maior amplitude na discricionariedade política formal. Tal como os seus congéneres do Sul da Europa, Portugal tem sido considerado como um país onde a patronagem pode penetrar os níveis hierárquicos mais baixos, motivada por questões de recompensa partidária. Esta narrativa negligencia, contudo, as consideráveis diferenças que existem entre níveis hierárquico, ignorando as diferentes motivações para a patronagem. Além disso, a perspectiva de políticos, dirigentes e outros observadores, sugere que a utilização efectiva dos mecanismos de controlo ex ante é limitada em Portugal, quando comparado com outras democracias europeias, apontando para o limitado poder explicativo da legislação em relação ao recurso à patronagem. Esta investigação pretende, assim, reanalisar a narrativa relativa à influência partidária e ao papel da patronagem para os governos partidários em Portugal. Desta forma, o estudo da importância da patronagem para os governos partidários foi baseado na análise dos padrões de patronagem em Portugal, através da análise empírica de 10482 nomeações para a cúpula da estrutura dirigente. Esta análise quantitativa foi complementada por entrevistas a 51 dirigentes, ministros e observadores privilegiados, que especificam a operacionalização da patronagem e as estratégias utilizadas pelos partidos políticos. A análise destas duas fontes permitiu confirmar, em primeiro lugar, a existência de influências partidárias nas nomeações para a cúpula dirigente. Em segundo lugar, este estudo permite confirmar a coexistência das duas motivações da patronagem. Com efeito, a lógica das nomeações enquanto recompensa pode subsistir, ao mesmo tempo que tende a emergir um valor instrumental das nomeações, com estas a serem utilizadas (também) para reforçar o controlo político e reduzir os riscos associados ao processo de delegação. Contudo, as diferentes motivações da patronagem podem variar consoante o nível hierárquico e a fase do ciclo governativo. Enquanto instrumento de poder, a patronagem pode ser identificada nos níveis hierárquicos mais elevados. Pelo contrário, as motivações de recompensa emergem nas posições hierárquicas mais baixas, menos sujeitas ao controlo dos partidos da oposição e dos eleitores. A patronagem de poder tende, ainda, a ser mais saliente nas etapas iniciais dos mandatos governativos, com as motivações de recompensa a poderem ser identificadas no final dos mandatos. Em terceiro lugar, os resultados sugerem que a utilização da patronagem depende da competição partidária, com a acção fiscalizadora dos partidos da oposição a poder limitar as nomeações para cargos na cúpula da estrutura administrativa sem, contudo, poder impedir as nomeações para os níveis hierárquicos menos visíveis (estruturas intermédias, serviços periféricos e gabinetes ministeriais). Em quarto lugar, a politização estrutural emerge como uma estratégia que permite aos governos partidários contornarem a indiferença da administração pública face a novas prioridades políticas, ao mesmo tempo que parece emergir como um instrumento que permite legitimar as opções políticas dos governos partidários ou adiar decisões nas áreas sectoriais menos importantes para os governos partidários. De uma forma geral, os governos partidários parecem recorrer a velhos instrumentos como a patronagem, com uma solução para os novos dilemas que se colocam ao controlo partidário do processo de políticas públicas.
Resumo:
Atualmente, a poluição atmosférica constitui uma das principais causas ambientais de mortalidade. Cerca de 30% da população europeia residente em áreas urbanas encontra-se exposta a níveis de poluição atmosférica superiores aos valores- limite de qualidade do ar legislados para proteção da saúde humana, representando o tráfego rodoviário uma das principais fontes de poluição urbana. Além dos poluentes tradicionais avaliados em áreas urbanas, os poluentes classificados como perigosos para a saúde (Hazard Air Pollutants - HAPs) têm particular relevância devido aos seus conhecidos efeitos tóxicos e cancerígenos. Neste sentido, a avaliação da exposição tornase primordial para a determinação da relação entre a poluição atmosférica urbana e efeitos na saúde. O presente estudo tem como principal objetivo o desenvolvimento e implementação de uma metodologia para avaliação da exposição individual à poluição atmosférica urbana relacionada com o tráfego rodoviário. De modo a atingir este objetivo, foram identificados os parâmetros relevantes para a quantificação de exposição e analisados os atuais e futuros potenciais impactos na saúde associados com a exposição à poluição urbana. Neste âmbito, o modelo ExPOSITION (EXPOSure model to traffIc-relaTed aIr pOllutioN) foi desenvolvido baseado numa abordagem inovadora que envolve a análise da trajetória dos indivíduos recolhidas por telemóveis com tecnologia GPS e processadas através da abordagem de data mining e análise geoespacial. O modelo ExPOSITION considera também uma abordagem probabilística para caracterizar a variabilidade dos parâmetros microambientais e a sua contribuição para exposição individual. Adicionalmente, de forma a atingir os objetivos do estudo foi desenvolvido um novo módulo de cálculo de emissões de HAPs provenientes do transporte rodoviário. Neste estudo, um sistema de modelação, incluindo os modelos de transporteemissões- dispersão-exposição, foi aplicado na área urbana de Leiria para quantificação de exposição individual a PM2.5 e benzeno. Os resultados de modelação foram validados com base em medições obtidas por monitorização pessoal e monitorização biológica verificando-se uma boa concordância entre os resultados do modelo e dados de medições. A metodologia desenvolvida e implementada no âmbito deste trabalho permite analisar e estimar a magnitude, frequência e inter e intra-variabilidade dos níveis de exposição individual, bem como a contribuição de diferentes microambientes, considerando claramente a sequência de eventos de exposição e relação fonte-recetor, que é fundamental para avaliação dos efeitos na saúde e estudos epidemiológicos. O presente trabalho contribui para uma melhor compreensão da exposição individual em áreas urbanas, proporcionando novas perspetivas sobre a exposição individual, essenciais na seleção de estratégias de redução da exposição à poluição atmosférica urbana, e consequentes efeitos na saúde.
Resumo:
Uma das maiores causas de degradação dos revestimentos é a presença de sais solúveis, tanto nas zonas costeiras como nas zonas continentais. Estes sais podem ter origens distintas, tais como: humidade ascensional, nevoeiro salino, inundações ou ainda estarem presentes nos próprios materiais, como é o caso da utilização de areias mal lavadas. O local onde os sais cristalizam é dependente do tipo de transporte entre a alvenaria e o revestimento, assim como da severidade da envolvente ambiental (temperatura e humidade relativa). Com esta tese pretende-se desenvolver revestimentos de substituição compatíveis, eficazes e duráveis para alvenarias antigas sujeitas à ação severa da água (humidade ascensional através das fundações com elevada concentração de NaCl); desenvolver ensaios de envelhecimento acelerado baseados em ciclos de dissolução e cristalização que permitam simular a ação severa da água; perceber a influência de revestimentos com caraterísticas extremas de permeabilidade ao vapor de água aplicados nas duas faces do mesmo suporte (argamassas de cimento e resina versus argamassas de cal), e sujeitos à ação severa da água; perceber a influência de vários fatores, tais como : rasgos verticais contínuos executados no emboço e a utilização de hidrófugo no reboco no desempenho dos vários sistemas de revestimento desenvolvidos, quando sujeitos à ação severa da água;; utilizar a remoção eletrocinética de sais, em provetes simulando a influência da alvenaria e dos revestimentos, com o objetivo de reduzir a sua concentração de NaCl, para que no futuro possa ser aplicado de forma eficaz em paredes de edifícios antigos, enquanto ação de manutenção, e desta forma aumentar a durabilidade dos revestimentos. Para atingir os objetivos descritos, foram considerados: i) o desenvolvimento de provetes que permitam considerar os sistemas de revestimento desenvolvidos nesta tese e o suporte, e que simulem uma alvenaria revestida em ambas as faces, e com os quais seja possível a simulação da ação severa da água em laboratório e, ii) o desenvolvimento ciclos de dissolução e cristalização numa parede de grandes dimensões existente em laboratório, que permitam simular a ação severa da água em condições tão reais quanto possível. O objetivo final deste estudo é o desenvolvimento de um revestimento de substituição denominado “emboço ventilado” para paredes de edifícios antigos com revestimentos degradados devido à presença de humidade ascensional e sais solúveis. Pretende-se que este sistema de revestimento, composto por duas camadas de revestimento (camada base e reboco), seja compatível, durável e eficaz, e que funcione como um sistema de acumulação no qual os sais cristalizem na camada base do sistema de revestimento (executada com rasgos verticais) e não na alvenaria ou na camada exterior.
Resumo:
The introduction of chemicals into the environment by human activities may represent a serious risk to environmental and human health. Environmental risk assessment requires the use of efficient and sensitive tools to determine the impact of contaminants on the ecosystems. The use of zebrafish for the toxicity assessment of pharmaceuticals, drugs, and pollutants, is becoming well accepted due to zebrafish unique advantages for the screening of compounds for hazard identification. The aim of the present work is to apply toxicogenomic approaches to identify novel biomarkers and uncovered potential modes of action of classic and emergent contaminants able to disrupt endocrine systems, such as the Retinoic Acid Receptor, Retinoid X Receptor and the Aryl Hydrocarbon Receptor. This study relies on different nuclear and cytosolic protein receptors and other conditional (ligand- or stress- activated) transcriptional factors that are intimately involved in the regulation of defensome genes and in mechanisms of chemical toxicity. The transcriptomic effects of organic compounds, endogenous compounds, and nanoparticles were analysed during the early stages of zebrafish development. Studying the gene expression profiles of exposed and unexposed organisms to pollutants using microarrays allowed the identification of specific gene markers and to establish a "genetic code" for the tested compounds. Changes in gene expression were observed at toxicant concentrations that did not cause morphological effects. Even at low toxicant concentrations, the observed changes in transcript levels were robust for some target genes. Microarray responses of selected genes were further complemented by the real time quantitative polymerase chain reaction (qRT-PCR) methodology. The combination of bio-informatic, toxicological analyses of differential gene expression profiles, and biochemical and phenotypic responses across the treatments allowed the identification of uncovered potential mechanisms of action. In addition, this work provides an integrated set of tools that can be used to aid management-decision making by improving the predictive capability to measure environmental stress of contaminants in freshwater ecosystems. This study also illustrates the potential of zebrafish embryos for the systematic, large-scale analysis of chemical effects on developing vertebrates.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
A desmaterialização da economia é um dos caminhos para a promoção do desenvolvimento sustentável na medida em que elimina ou reduz a utilização de recursos naturais, fazendo mais com menos. A intensificação dos processos tecnológicos é uma forma de desmaterializar a economia. Sistemas mais compactos e mais eficientes consomem menos recursos. No caso concreto dos sistemas envolvendo processo de troca de calor, a intensificação resulta na redução da área de permuta e da quantidade de fluido de trabalho, o que para além de outra vantagem que possa apresentar decorrentes da miniaturização, é um contributo inegável para a sustentabilidade da sociedade através do desenvolvimento científico e tecnológico. O desenvolvimento de nanofluidos surge no sentido de dar resposta a estes tipo de desafios da sociedade moderna, contribuindo para a inovação de produtos e sistemas, dando resposta a problemas colocados ao nível das ciências de base. A literatura é unânime na identificação do seu potencial como fluidos de permuta, dada a sua elevada condutividade, no entanto a falta de rigor subjacente às técnicas de preparação dos mesmos, assim como de um conhecimento sistemático das suas propriedades físicas suportado por modelos físico-matemáticos devidamente validados levam a que a operacionalização industrial esteja longe de ser concretizável. Neste trabalho, estudou-se de forma sistemática a condutividade térmica de nanofluidos de base aquosa aditivados com nanotubos de carbono, tendo em vista a identificação dos mecanismos físicos responsáveis pela condução de calor no fluido e o desenvolvimento de um modelo geral que permita com segurança determinar esta propriedade com o rigor requerido ao nível da engenharia. Para o efeito apresentam-se métodos para uma preparação rigorosa e reprodutível deste tipo de nanofluido assim como das metodologias consideradas mais importantes para a aferição da sua estabilidade, assegurando deste modo o rigor da técnica da sua produção. A estabilidade coloidal é estabelecida de forma rigorosa tendo em conta parâmetros quantificáveis como a ausência de aglomeração, a separação de fases e a deterioração da morfologia das nanopartículas. Uma vez assegurado o método de preparação dos nanofluídos, realizou-se uma análise paramétrica conducente a uma base de dados obtidos experimentalmente que inclui a visão central e globalizante da influência relativa dos diferentes fatores de controlo com impacto nas propriedades termofísicas. De entre as propriedades termofísicas, este estudo deu particular ênfase à condutividade térmica, sendo os fatores de controlo selecionados os seguintes: fluido base, temperatura, tamanho da partícula e concentração de nanopartículas. Experimentalmente, verificou-se que de entre os fatores de controlo estudados, os que maior influência detêm sobre a condutividade térmica do nanofluido, são o tamanho e concentração das nanopartículas. Com a segurança conferida por uma base de dados sólida e com o conhecimento acerca da contribuição relativa de cada fator de controlo no processo de transferência de calor, desenvolveu-se e validou-se um modelo físico-matemático com um caracter generalista, que permitirá determinar com segurança a condutividade térmica de nanofluidos.
Resumo:
The ability of microorganisms to use oil hydrocarbons as a source of carbon and energy is crucial for environmental oil detoxification. However, there is still a lack of knowledge on fundamental aspects of this process on specific habitats and under different climate scenarios. In the first phase of this work, the culturable fraction of the oil hydrocarbon (OH) degrading bacteria from the sea surface microlayer (SML) of the estuarine system Ria de Aveiro was characterized. In the second phase, the impact of oil contamination on the active bacterial community was studied under climate change scenarios. Pseudomonas emerged as the prevailing genera among OH degrading bacteria in the SML. Moreover, culture-independent methods revealed that the relative abundance and diversity of Gammaproteobacteria, in which Pseudomonas is included, varies along an estuarine gradient of contamination. In order to access the impact of oil contamination on microbial communities under climate change scenarios, an experimental life support system for microcosm experiments (ELLS) was developed and validated for simulation of climate change effects on microbial communities. With the ELSS it is possible to simulate, in controlled conditions, fundamental parameters of the dynamics of coastal and estuarine systems while maintaining community structure in terms of the abundance of the most relevant members of the indigenous bacterial community. A microcosm experiment in which the independent and combined impact of ultraviolet radiation, ocean acidification and oil contamination on microbial communities was conducted. The impact on bacterial communities was accessed with a 16S RNA (cDNA) based barcode pyrosequencing approach. There was a drastic decrease of Desulfobacterales relative abundance after oil contamination under the reduced pH value estimated for 2100, when compared to present values. Since members of this order are known OH degraders, such a significant decrease may have consequences on OH detoxification of contaminated environments under the pH levels of the ocean expected for the future. Metagenome predictions based on the 16S RNA database indicated that several degradation pathways of OH could be affected under oil contamination and reduced water pH. Taken together, the results from this work bring new information on the dynamics of OH degrading bacteria in coastal and estuarine environments under present and future climate scenarios.
Resumo:
This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
Bach’s Suites for unaccompanied cello are a masterpiece of the Classical Western canon for their singularity and their creator’s mastery. A myriad of transcriptions were made throughout the centuries with bigger or lesser freedom. This thesis aims at revealing insights from the art of linear polyphony and its performance on a monophonic instrument such as the baritone saxophone. The study of the musical structure is supported by examples from the visual domain that help us to understand the notion of linear polyphony as a third-dimension object. The particularity of this study, in relation to the multiple existing literature about Bach’s music, is its focus on a wind player’s point of view, a saxophonist, which, given the restriction of the polyphonic possibilities of the instrument, reveals some discerning solutions on the performance, analysis and elaboration of the polyphonic thinking in Bach’s Suites. Similar to the relative novelty of the cello at Bach’s time, my work aims at giving as close as possible the same perspective of the music through a new vision and instrument. I analysed the art of linear polyphony and the techniques of elaboration of the melody in the Cello Suites, notably as a means to support the interpretation (e.g. articulation, phrasing, dynamics, vibrato, fingerings, etc.) and to devise a transcription of the Suites for the baritone saxophone. My choice felled on a transcription for baritone saxophone based on the manuscript from Anna Magdalena Bach, wishing to provide detailed guidelines for saxophonists who want to create a more informed interpretation. I hope to offer a better understanding of these works and to provide a reference to build and develop an individual interpretation, especially on the baritone saxophone.
Resumo:
Photodynamic inactivation (PDI) is defined as the process of cell destruction by oxidative stress resulting from the interaction between light and a photosensitizer (PS), in the presence of molecular oxygen. PDI of bacteria has been extensively studied in recent years, proving to be a promising alternative to conventional antimicrobial agents for the treatment of superficial and localized infections. Moreover, the applicability of PDI goes far beyond the clinical field, as its potential use in water disinfection, using PS immobilized on solid supports, is currently under study. The aim of the first part of this work was to study the oxidative modifications in phospholipids, nucleic acids and proteins of Escherichia coli and Staphylococcus warneri, subjected to photodynamic treatment with cationic porphyrins. The aims of the second part of the work were to study the efficiency of PDI in aquaculture water and the influence of different physicalchemical parameters in this process, using the Gram-negative bioluminescent bacterium Vibrio fischeri, and to evaluate the possibility of recycling cationic PS immobilized on magnetic nanoparticles. To study the oxidative changes in membrane phospholipids, a lipidomic approach has been used, combining chromatographic techniques and mass spectrometry. The FOX2 assay was used to determine the concentration of lipid hydroperoxides generated after treatment. The oxidative modifications in the proteins were analyzed by one-dimensional polyacrylamide gel electrophoresis (SDS-PAGE). Changes in the intracellular nucleic acids were analyzed by agarose gel electrophoresis and the concentration of doublestranded DNA was determined by fluorimetry. The oxidative changes of bacterial PDI at the molecular level were analyzed by infrared spectroscopy. In laboratory tests, bacteria (108 CFU mL-1) were irradiated with white light (4.0 mW cm-2) after incubation with the PS (Tri-Py+-Me-PF or Tetra-Py+-Me) at concentrations of 0.5 and 5.0 μM for S. warneri and E. coli, respectively. Bacteria were irradiated with different light doses (up to 9.6 J cm-2 for S. warneri and up to 64.8 J cm-2 for E. coli) and the changes were evaluated throughout the irradiation time. In the study of phospholipids, only the porphyrin Tri-Py+-Me-PF and a light dose of 64.8 J cm-2 were tested. The efficiency of PDI in aquaculture has been evaluated in two different conditions: in buffer solution, varying temperature, pH, salinity and oxygen concentration, and in aquaculture water samples, to reproduce the conditions of PDI in situ. The kinetics of the process was determined in realtime during the experiments by measuring the bioluminescence of V. fischeri (107 CFU mL-1, corresponding to a level of bioluminescence of 105 relative light units). A concentration of 5.0 μM of Tri-Py+-Me-PF was used in the experiments with buffer solution, and 10 to 50 μM in the experiments with aquaculture water. Artificial white light (4.0 mW cm-2) and solar irradiation (40 mW cm-2) were used as light sources.
Resumo:
Coral reefs are of utmost ecological and economical importance but are currently in global decline due to climate change and anthropogenic disturbances. Corals, as well as other cnidarian species, live in symbiosis with photosynthetic dinoflagellates of the genus Symbiodinium. This relationship provides the cnidarian host with alternative metabolic pathways, as the symbionts translocate photosynthetic carbon to the animal. Besides this autotrophic nutrition mode, symbiotic cnidarians also take up organic matter from the environment (heterotrophy). The nutritional balance between auto- and heterotrophy is critical for the functioning, fitness and resilience of the cnidariandinoflagellate symbiosis. New methodological approaches were developed to better understand the role of auto- and heterotrophy in the ecophysiology of cnidarians associated with Symbiodinium, and the ecological implications of this trophic plasticity. Specifically, the new approaches were developed to assess photophysiology, biomass production of the model organism Aiptasia sp. and molecular tools to investigate heterotrophy in the cnidarian-dinoflagellate symbiosis. Using these approaches, we were able to non-invasively assess the photophysiological spatial heterogeneity of symbiotic cnidarians and identify spatial patterns between chlorophyll fluorescence and relative content of chlorophyll a and green-fluorescent proteins. Optimal culture conditions to maximize the biomass production of Aiptasia pallida were identified, as well as their implications on the fatty acid composition of the anemones. Molecular trophic markers were used to determine prey digestion times in symbiotic cnidarians, which vary between 1-3 days depending on prey species, predator species and the feeding history of the predator. This method was also used to demonstrate that microalgae is a potential food source for symbiotic corals. By using a stable isotope approach to assess the trophic ecology of the facultative symbiotic Oculina arbuscula in situ, it was possible to demonstrate the importance of pico- and nanoplanktonic organisms, particularly autotrophic, in the nutrition of symbiotic corals. Finally, we showed the effects of functional diversity of Symbiodinium on the nutritional plasticity of the cnidarian-dinoflagellate symbiosis. Symbiont identity defines this plasticity through its individual metabolic requirements, capacity to fix carbon, quantity of translocated carbon and the host’s capacity to feed and digest prey.
Resumo:
The global aim of this thesis was to evaluate and assess the effects of a pesticide (dimethoate) and a metal (nickel), as model chemicals, within different organization levels, starting at the detoxification pathways (enzymatic biomarkers) and energy costs associated (energy content quantification, energy consumption and CEA) along with the physiological alterations at the individual and population level (mortality), leading to a metabolomic analysis (using liquid 1H-NMR) and finally a gene expression analysis (transcriptome and RT-qPCR analysis). To better understand potential variations in response to stressors, abiotic factors were also assessed in terrestrial isopods such as temperature, soil moisture and UV radiation. The evaluation performed using biochemical biomarkers and energy related parameters showed that increases in temperature might negatively affect the organisms by generating oxidative stress. It also showed that this species is acclimated to environments with low soil moisture, and that in high moisture scenarios there was a short gap between the optimal and adverse conditions that led to increased mortality. As for UV-R, doses nowadays present have shown to induce significant negative impact on these organisms. The long-term exposure to dimethoate showed that besides the neurotoxicity resulting from acetylcholinesterase inhibition, this stressor also caused oxidative stress. This effect was observed for both concentrations used (recommended field dose application and a below EC50 value) and that its combination with different temperatures (20ºC and 25ºC) showed different response patterns. It was also observed that dimethoate’s degradation rate in soils was higher in the presence of isopods. In a similar study performed with nickel, oxidative stress was also observed. But, in the case of this stressor exposure, organisms showed a strategy where the energetic costs necessary for detoxification (biomarkers) seemed to be compensated by positive alterations in the energy related parameters. In this work we presented for the first time a metabolomic profile of terrestrial isopods exposed to stressors (dimethoate and niquel), since until the moment only a previous study was performed on a metabolomic evaluation in nonexposed isopods. In the first part of the study we identify 24 new metabolites that had not been described previously. On the second part of the study a metabolomic profile variation of abstract non-exposed organism throughout the exposure was presented and finally the metabolomic profile of organisms exposed to dimethoate and nickel. The exposure to nickel suggested alteration in growth, moult, haemocyanin and glutathione synthesis, energy pathways and in osmoregulation. As for the exposure to dimethoate alterations in osmoregulation, energy pathways, moult and neurotransmission were also suggested. In this work it was also presented the first full body transcriptome of a terrestrial isopod from the species Porcellionides pruinosus, which will complement the scarce information available for this group of organisms. This transcriptome also served as base for a RNA-Seq and a RT-qPCR analysis. The results of the RNA-Seq analysis performed in organisms exposed to nickel showed that this stressor negatively impacted at the genetic and epigenetic levels, in the trafficking, storage and elimination of metals, generates oxidative stress, inducing neurotoxicity and also affecting reproduction. These results were confirmed through RT-qPCR. As for the impact of dimethoate on these organisms it was only accessed through RT-qPCR and showed oxidative stress, an impact in neurotransmission, in epigenetic markers, DNA repair and cell cycle impairment. This study allowed the design of an Adverse Outcome Pathway draft that can be used further on for legislative purposes.
Resumo:
A grande motivação para este trabalho resultou na avaliação da vulnerabilidade sísmica das escolas básicas e secundárias que fazem parte integrante do parque escolar de Portugal Continental. Apesar de até ao momento apenas se terem estudado a vulnerabilidade de algumas escolas em algumas zonas particulares do nosso país, para este trabalho de investigação tivemos uma ambição muito maior e obviamente fizemos um esforço muito maior. Estabelecemos assim como meta, a avaliação de todo o parque escolar. Embora todo o parque escolar possua na ordem das três centenas de escolas em todo o território nacional e sendo este projeto de reabilitação, um projeto com a duração de 2007 a 2015. Em 2011, por motivos da crise económica, todo o projeto congelou sendo reabilitadas até à data cerca de apenas um terço das escolas. Esta quantidade foi o número de escolas que avaliamos em todo o país. As escolas, sendo edifícios públicos com uma importância fundamental, tanto pela elevada concentração de jovens, como pela função essencial como centros de aprendizagem para as gerações vindouras, como também pela ameaça que representam na eventualidade dum cenário sísmico pela enorme densidade de utilizadores, e pela vantagem de nesse cenário de catástrofe a importância estrutural ser superior em relação à maior parte dos edifícios correntes, devidamente demonstrado pelos argumentos enumerados, consequentemente as escolas podem servir como instalações de proteção civil perante uma catástrofe sísmica para apoio das populações circundantes afetadas. Portanto para cada uma das escolas cordialmente fornecidas pelo Parque Escolar, E.P.E., foi feito um estudo exaustivo e muito individual de cada uma das escolas, onde cada análise foi desenvolvida por uma metodologia simplificada, sendo cada análise sempre individual, e nunca tendo sida aplicada em série, este fator melhora substancialmente a eficácia da avaliação para a quantificação das vulnerabilidades e da determinação do grau de dano e das frações de perda para os requisitos fundamentais de limitação de danos, de não colapso, e de colapso iminente que correspondem a ações com períodos de retorno de 95, 475 e 975 anos. Este trabalho é fundamental para as entidades competentes terem a consciência da vulnerabilidade das escolas secundárias, para puderem atuar a nível estrutural e diminuir assim a vulnerabilidade sísmica, e mesmo que por impossibilidade económica o poder governamental não intervenha, então pode e principalmente deve, elaborar planos de emergência tanto com engenheiros civis qualificados como com a total colaboração das corporações de bombeiros que fazem parte das forças de operação e socorro da Autoridade Nacional de Proteção Civil (ANPC).