832 resultados para Tempo real (Otimização)
Resumo:
A discondroplasia da tíbia (TD) em aves consiste numa anomalia do esqueleto onde existe uma falha nos processos normais da ossificação endocondral. Esta patologia é caracterizada pela formação de uma cartilagem não vascularizada e não mineralizada que se estende até à metáfise. Uma vez que existem várias anomalias do esqueleto em mamíferos com lesões semelhantes às apresentadas pela TD, este trabalho teve como objectivo a caracterização desta patologia em termos das moléculas que podem estar envolvidas no seu desenvolvimento. Assim, foi estudada a expressão das macromoléculas da matriz extracelular, das enzimas degradadoras da matriz (metaloproteinases da matriz: MMPs), bem como das moléculas envolvidas na proliferação e diferenciação celular, na angiogénese e apoptose. A expressão génica foi realizada, por PCR quantitativo em tempo real, em placas de crescimento normais e discondroplásicas obtidas a partir de frangos de carne (broilers) da estirpe Cobb. Os níveis proteicos de algumas MMPs foram analisados por immunoblotting e zimografia de gelatina. No presente estudo não se verificou alteração na expressão dos genes dos colagénios do tipo II, IX, X e XI, bem como do agrecano, nas lesões discondroplásicas. Observou-se uma redução acentuada nos níveis de mRNA da gelatinase-B (MMP-9), da colagenase-3 (MMP-13) e das estromalisinas -2 (MMP-10) e -3 (MMP-11), bem como nos níveis proteicos da gelatinase-A (MMP-2) e da MMP-13. Por outro lado, a MMP-7 aumentou drasticamente a expressão do seu gene. As moléculas envolvidas na proliferação e diferenciação dos condrócitos, tais como a PTHrP, o Ihh, o Cbfa-1 e o Sox-9, mantiveram a sua expressão génica nas lesões. Por outro lado, o TGF-β reduziu a sua expressão. A caspase-3 também dimimuiu a sua expressão na patologia. Em relação aos factores angiogénicos, o FGF manteve a sua expressão e o VEGF aumentou significativamente nas lesões. Este aumento do VEGF juntamente com o aumento da MMP-7 sugere um aumento da hipoxia nas lesões. Os nossos resultados sugerem que a acumulação da cartilagem observada na discondroplasia é devida a uma diminuição da proteólise da matriz, resultado de uma sub-expressão das MMPs, e não de um aumento da produção das macromoléculas da matriz. Desta forma, os nossos resultados sugerem que a falha na expressão e/ou activação das MMPs poderá estar associada ao desenvolvimento da discondroplasia da tíbia em aves. Finalmente, os nossos resultados vêm suportar os resultados anteriores que sugerem uma ligação entre a expressão das MMPs e anomalias no processo de ossificação endocondral.
Resumo:
Os sistemas aquáticos naturais podem estar sujeitos frequentemente a entrada de tóxicos, quer seja através da lixiviação dos campos agrícolas ou da descarga por parte de unidades industriais. Avaliar o impacto potencial destes contaminantes nos sistemas aquáticos é muito importante, porque pode promover consequências sérias no balanço ecológico dos ecossistemas. Os efeitos de níveis sub-letais destes tóxicos nas populações aquáticas são detectados, em muitos casos, somente após diversas gerações, dependendo da espécie e do contaminante. O comportamento animal é considerado como sendo a primeira linha de defesa perante estímulos ambientais, e pode ser uma representação de alterações fisiológicas no organismo, sendo portanto um indicador excelente de alterações ambientais. O desenvolvimento dos sistemas de aviso prévio que integram parâmetros comportamentais pode ajudar a prever mais rapidamente possíveis alterações ao nível das populações naturais, do que a utilização de testes ecotoxicológicos padrão com a mesma finalidade. O conhecimento acerca de possíveis implicações devido a alterações comportamentais, em organismos bentónicos e em populações do campo sujeitas a tóxicos, é ainda escasso. Sabendo isto, neste estudo pretendeu-se investigar como o comportamento de Chironomus riparius – usando um biomonitor em tempo real – e outros parâmetros tais como crescimento, emergência de adultos, bioacumulação e biomarcadores, são afectados pela exposição a imidacloprid e ao mercúrio, que foram seleccionados como contaminantes. Os resultados demonstraram que a exposição às concentrações sub-letais de imidacloprid afecta o crescimento e o comportamento dos quironomídeos e que estes organismos podem recuperar de uma exposição curta ao insecticida. O comportamento que corresponde à ventilação de C. riparius revelou-se como um parâmetro mais sensível do que a locomoção e do que as respostas bioquímicas, quando as larvas foram sujeitas ao imidacloprid. Larvas de C. riparius expostas a concentrações sub-letais de mercúrio apresentaram uma tendência de diminuição de actividade comportamental, em testes com concentrações crescentes do tóxico; o crescimento das larvas foi também prejudicado, e as taxas de emergência de adultos e o tempo de desenvolvimento apresentaram retardamento. Estes organismos podem bioacumular rapidamente o mercúrio em condições de não alimentação e apresentam uma lenta depuração deste metal. Estes efeitos podem, em último caso, conduzir a prováveis repercussões ao nível da população e das comunidades. As reduções em actividades comportamentais, mesmo em concentrações baixas, podem diminuir a quantidade de tempo gasta na procura de alimento, produzindo efeitos aos níveis morfo-fisiológicos, e assim afectar severamente o desempenho dos quironomídeos no ambiente. O uso destes factores comportamentais como um parâmetro ecotoxicológico sub-letal relevante ao nível da toxicologia aumentará a versatilidade dos testes, permitindo uma resposta comportamental mensurável e quantitativa ao nível do organismo, utilizando uma avaliação não destrutiva, e assim certificando que esta aproximação pode ser usada em testes ecotoxicológicos futuros.
Resumo:
O presente trabalho tem por objectivo o estudo de novos dispositivos fotónicos aplicados a sistemas de comunicações por fibra óptica e a sistemas de processamento de sinais RF. Os dispositivos apresentados baseiam-se em processamento de sinal linear e não linear. Dispositivos lineares ópticos tais como o interferómetro de Mach-Zehnder permitem adicionar sinais ópticos com pesos fixos ou sintonizáveis. Desta forma, este dispositivo pode ser usado respectivamente como um filtro óptico em amplitude com duas saídas complementares, ou, como um filtro óptico de resposta de fase sintonizável. O primeiro princípio de operação serve como base para um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. O segundo princípio de operação é explorado num novo sistema fotónico de direccionamento do campo eléctrico radiado por um agregado de antenas, e também num novo compensador sintonizável de dispersão cromática. O processamento de sinal é não linear quando sinais ópticos são atrasados e posteriormente misturados entre si, em vez de serem linearmente adicionados. Este princípio de operação está por detrás da mistura de um sinal eléctrico com um sinal óptico, que por sua vez é a base de um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. A mistura de sinais ópticos em meios não lineares permite uma operação eficiente numa grande largura espectral. Tal operação é usada para realizar conversão de comprimento de onda sintonizável. Um sinal óptico com multiplexagem no domínio temporal de elevada largura de banda é misturado com duas bombas ópticas não moduladas com base em processos não lineares paramétricos num guia de ondas de niobato de lítio com inversão periódica da polarização dos domínios ferroeléctricos. Noutro trabalho, uma bomba pulsada em que cada pulso tem um comprimento de onda sintonizável serve como base a um novo conversor de sinal óptico com multiplexagem no domínio temporal para um sinal óptico com multiplexagem no comprimento de onda. A bomba é misturada com o sinal óptico de entrada através de um processo não linear paramétrico numa fibra óptica com parâmetro não linear elevado. Todos os dispositivos fotónicos de processamento de sinal linear ou não linear propostos são experimentalmente validados. São também modelados teoricamente ou através de simulação, com a excepção dos que envolvem mistura de sinais ópticos. Uma análise qualitativa é suficiente nestes últimos dispositivos.
Resumo:
O presente trabalho propõe-se abordar os problemas mais significativos da improvisação da música contemporânea. Tendo como foco principal a procura do pensamento do improvisador durante a performance, assim como, a exploração dos diferentes constrangimentos que regulam a abertura da improvisação, a tese é composta por duas partes: na primeira apresenta-se os modelos teóricos da improvisação e suas principais características, assim como, uma reflexão sobre o papel da memória no processo de criação no decorrer da performance. Explora-se ainda a temática da organização do discurso musical improvisado em relação aos problemas da Estrutura e do controlo da Forma. A partir dos pressupostos teóricos, apresenta-se na segunda parte, uma vasta compilação de performances improvisadas desenvolvidas sobre os diferentes constrangimentos da criação em tempo real, explorando-se os vários conceitos de abertura. Desenvolve-se ainda um estudo empírico baseado na retrospecção da improvisação de onze instrumentistas sobre um motivo comum, no sentido de recolher uma compilação dos termos e dos processos mais usados na sintaxe da improvisação, representativos do pensamento do improvisador. Os dados obtidos permitem concluir que o comportamento da improvisação assenta maioritariamente num discurso Associativo, fortemente apoiado na biografia musical do improvisador e no controlo da Memória. Conclui-se também que a improvisação varia consoante a exposição do processo às diferentes categorias de abertura.
Resumo:
Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.
Resumo:
O acesso ubíquo à Internet é um dos principais desafios para os operadores de telecomunicações na próxima década. O número de utilizadores da Internet está a crescer exponencialmente e o paradigma de acesso "always connected, anytime, anywhere" é um requisito fundamental para as redes móveis de próxima geração. A tecnologia WiMAX, juntamente com o LTE, foi recentemente reconhecida pelo ITU como uma das tecnologias de acesso compatíveis com os requisitos do 4G. Ainda assim, esta tecnologia de acesso não está completamente preparada para ambientes de próxima geração, principalmente devido à falta de mecanismos de cross-layer para integração de QoS e mobilidade. Adicionalmente, para além das tecnologias WiMAX e LTE, as tecnologias de acesso rádio UMTS/HSPA e Wi-Fi continuarão a ter um impacto significativo nas comunicações móveis durante os próximos anos. Deste modo, é fundamental garantir a coexistência das várias tecnologias de acesso rádio em termos de QoS e mobilidade, permitindo assim a entrega de serviços multimédia de tempo real em redes móveis. Para garantir a entrega de serviços multimédia a utilizadores WiMAX, esta Tese propõe um gestor cross-layer WiMAX integrado com uma arquitectura de QoS fim-a-fim. A arquitectura apresentada permite o controlo de QoS e a comunicação bidireccional entre o sistema WiMAX e as entidades das camadas superiores. Para além disso, o gestor de cross-layer proposto é estendido com eventos e comandos genéricos e independentes da tecnologia para optimizar os procedimentos de mobilidade em ambientes WiMAX. Foram realizados testes para avaliar o desempenho dos procedimentos de QoS e mobilidade da arquitectura WiMAX definida, demonstrando que esta é perfeitamente capaz de entregar serviços de tempo real sem introduzir custos excessivos na rede. No seguimento das extensões de QoS e mobilidade apresentadas para a tecnologia WiMAX, o âmbito desta Tese foi alargado para ambientes de acesso sem-fios heterogéneos. Neste sentido, é proposta uma arquitectura de mobilidade transparente com suporte de QoS para redes de acesso multitecnologia. A arquitectura apresentada integra uma versão estendida do IEEE 802.21 com suporte de QoS, bem como um gestor de mobilidade avançado integrado com os protocolos de gestão de mobilidade do nível IP. Finalmente, para completar o trabalho desenvolvido no âmbito desta Tese, é proposta uma extensão aos procedimentos de decisão de mobilidade em ambientes heterogéneos para incorporar a informação de contexto da rede e do terminal. Para validar e avaliar as optimizações propostas, foram desenvolvidos testes de desempenho num demonstrador inter-tecnologia, composta pelas redes de acesso WiMAX, Wi-Fi e UMTS/HSPA.
Resumo:
Com o objetivo de sublinhar a habilidade e o direito à criação do indivíduo com necessidades especiais este projeto deriva da beleza do território da arte e dos paradigmas de interação e imersão, hoje potencializados pelo feedback multimodal e multissensorial dos ambientes multimédia responsivos. Enfatizando o atual contexto da escola inclusiva, este estudo teve lugar num estabelecimento de ensino, em Portugal, envolvendo um grupo de alunos com Necessidades Educativas Especiais — NEE — de Currículo Específico Individual — CEI. Num contexto real, intentámos avaliar que tipo de impacto poderão ter os ambientes artísticos interativos nestes alunos, enquanto meio de autoexpressão e de inclusão. O estudo realizado assumiu um carácter exploratório. Special INPUT foi o conceito proposto por diferentes ambientes e abordagens de interação, implementados em sessões individuais com os participantes, que permitiu observar e promover, sob um contexto artístico, as habilidades intelectual, emocional, de personalidade, interpessoal, intrapessoal, psicomotora e, artística. Conceptualizámos, prototipámos e implementámos oito ambientes interativos, artísticos e lúdicos, que enfatizaram de formas diversas a experiência imersiva mediada pela técnica. Daí emergiram três grupos de ambientes – Special SOUND, Special MOVEMENT e Special ME – que intentaram promover nestes alunos a descoberta de si mesmos através do input de som, movimento e/ou vídeo processados em tempo real. O feedback visual e/ou sonoro visou o “engajamento lúdico” e a “ressonância estética” enquanto meios de descoberta e desenvolvimento da habilidade e valor pessoais. Numa perspetiva de diferenciação e individualização curricular, reconhecemos as vantagens dos ambientes artísticos interativos na inclusão de alunos com NEE, tendo-se observado um impacto positivo derivado da autoria e do controlo propiciados aos participantes nestes contextos. Hoje, a possibilidade de recorrer ao multimédia e a toda uma panóplia de interfaces não invasivas, explorando a poética de som e imagem interativos, em contexto artístico, inspira abordagens originais, centradas na pessoa, atentando às potencialidades e plasticidades das vigentes ferramentas de autor para a programação de interação, promovendo a dignificação da diferença, a autoexpressão e sensibilidade individuais, e os processos de autoobservação, autodescoberta e autoconsciência da capacidade expressiva que promovem a ideia positiva do “self” e o desenvolvimento de diferentes aptidões pessoais.
Resumo:
O trabalho que apresentamos, “O Quadro Interativo no ensino do Português: dos recursos aos discursos”, situa-se na área do Multimédia em Educação e, mais especificamente, no domínio da tecnologia e pedagogia em sala de aula. Partimos de um projeto de implementação de quadros interativos em agrupamentos/escolas do interior do país, associado a um Centro de Formação e procurámos evidenciar a forma como essa tecnologia levou à introdução de recursos digitais de aprendizagem na unidade curricular de Português. Nesse âmbito, fizemos uma análise sobre os tipos, funcionalidades e usos pelos professores e estudantes no processo de ensino e aprendizagem com os QIM. Analisámos também algumas estratégias de utilização no desenvolvimento de competências essenciais da língua e a interação que proporcionaram no ambiente educativo. Para percebermos as razões e fundamentos que estiveram na base da investigação, procurámos, na primeira parte do nosso trabalho, partir de três vertentes de uma conjuntura que fundamenta a aprendizagem no século XXI: a passagem de uma sociedade da informação para uma sociedade do conhecimento como um processo que radica numa comunicação em rede e na criação de conhecimento(s) através de recursos digitais; o desenvolvimento de competências adequadas e que conduz os indivíduos para ambientes de aprendizagem com as tecnologias; e numa Escola mais familiarizada com as tecnologias, onde o ato de educar cria novos desafios a todos os agentes educativos. Notámos que a capacidade de mobilizar a informação e o conhecimento na rede reclama atitudes dinâmicas, flexíveis e adaptadas à multiculturalidade. Esta característica favorece a construção de aprendizagens multifacetadas, a inclusão progressiva do individuo na “aldeia global”, tornando-o também cada vez mais criativo e produtivo. A promoção de espaços interativos de aprendizagem facilita esse processo e o conhecimento desenvolve-se numa interação social mediada por tecnologias que nos fazem participar nessa multiculturalidade, diversidade do universo e nas histórias pessoais e coletivas. Num ambiente com estas características, torna-se necessário passar de um conceito de ensino declarado nos saberes básicos ou em conhecimentos factuais para uma estratégia de aprendizagem que incida sobre o desenvolvimento e aquisição de outras habilidades. A aquisição de saberes no âmbito da leitura, da oralidade e da escrita tornamse importantes para os indivíduos porquanto esses saberes transformam-se em competências transversais para outros domínios e literacias. Tentámos mostrar que a escola do futuro terá de ser um espaço educativo que implique ambientes de aprendizagem onde vão confluir várias ferramentas tecnológicas, que arrastam consigo outros recursos e outras possibilidades de acesso à informação e à construção de conhecimento. Para isso, a escola está obrigada a mudar alguns conceitos e estratégias e a focar-se no desenvolvimento de competências para a vida. A definição de recurso educativo ou recurso de aprendizagem e a aceção do quadro interativo como um recurso tecnológico, que envolve outros recursos, digitais e multimédia, levou-nos a concluir sobre as potenciais mais-valias deste equipamento. Para além da apresentação da informação, da orientação da atenção e das aprendizagens para o grupo - turma, abre-se a possibilidade de relacionar e organizar conteúdos digitais multimédia, criar conhecimento e desenvolver competências de acordo com os interesses dos públicos em fase de escolarização. Reclama-se um padrão de qualidade nos recursos, avaliados e estruturados em função dos conteúdos, objetivos, desempenhos e currículos de aprendizagem dos aprendentes. Definimos o paradigma digital e as dinâmicas de comunicação e interação proporcionadas pelo quadro interativo. Concluímos que o QIM produz efeitos positivos sobre a participação dos estudantes, evidenciada por um comportamento mais positivo face às tarefas a realizar em sala de aula. Contudo, o papel desta ferramenta e dos recursos utilizados requerem dos professores e dos ambientes educativos novas práticas e modelos de comunicação mais interativos. A informação e o conhecimento tornam-se mais fluidos, diversos e atuais. Fluxos variados de informação em vários suportes e formatos ou pesquisas em tempo real podem ser facilmente incorporados, acedidos e manipulados durante as aulas. A partilha de materiais e recursos retroalimenta uma rede de informação e troca de conhecimentos, amplia a aprendizagem e cria comunidades de prática com as tecnologias. A inclusão do QIM, no contexto do ensino e aprendizagem do Português, promoveu a literacia digital; o desenvolvimento de recursos digitais de aprendizagem; criou ambientes educativos modernos, mais apelativos, criativos e inovadores. Conduziu a uma mudança de práticas, que se querem mais ajustadas às necessidades e expectativas dos estudantes, aos desafios dos novos tempos e aos objetivos de uma educação que reforça o papel e autonomia dos indivíduos no processo de aprendizagem. Por isso, a lógica de projeto ou as dinâmicas de trabalho em projeto devem conduzir a dinâmicas de escola que elevem os comportamentos dos professores para se familiarizarem com a tecnologia, mas também para desenvolverem competências tecnológicas e profissionais coadunadas com contextos educativos atuais. Os resultados disponíveis mostram um quadro predominantemente positivo das possibilidades educativas dos QIM no ensino do Português. O QIM apresenta um conjunto de potencialidades pedagógicas; incentiva ao uso de recursos digitais em vários formatos e com várias finalidades; propicia estratégicas de construção e reconstrução dos percursos de aprendizagem que levam ao desenvolvimento de competências essenciais da língua. Porém, há ainda alguns aspetos que necessitam de ser revistos para tornar os QIM ainda mais eficazes como ferramenta de ensino e aprendizagem em sala de aula. Assim: i. A introdução de recursos digitais de aprendizagem na sala de aula deve ser um processo bem refletido que conduza e valorize a aproximação do professor e dos estudantes, visto que ambos estão perante uma nova realidade de conceitos, representações e formatos que carecem de habilidades, capacidades, comportamentos e literacias próprias; ii. A transformação do ensino, no que respeita a uma aprendizagem mais autónoma e individualizada, não está generalizada com a introdução dos QIM nos contextos de aprendizagem observados. Parece haver um incentivo para abordagens tradicionais centradas no professor e nos conteúdos, uma vez que a aquisição de conhecimentos está também condicionada por um sistema educativo que considera esses conteúdos estritamente necessários para o desempenho de determinadas tarefas; iii. Pelos vários níveis de análise do discurso pedagógico que se institui com os QIM, o tipo que melhor o define é ainda o tipo unidirecional. O discurso interativo, tão badalado pelos modelos comunicacionais modernos e pelos conceitos inerentes às tecnologias interativas, parece ainda não ter sido bem compreendido e explorado nos benefícios que os QIM, os recursos digitais interativos e as tecnologias em geral podem trazer ao processo de ensino e aprendizagem do Português no 3º CEB.
Resumo:
The introduction of chemicals into the environment by human activities may represent a serious risk to environmental and human health. Environmental risk assessment requires the use of efficient and sensitive tools to determine the impact of contaminants on the ecosystems. The use of zebrafish for the toxicity assessment of pharmaceuticals, drugs, and pollutants, is becoming well accepted due to zebrafish unique advantages for the screening of compounds for hazard identification. The aim of the present work is to apply toxicogenomic approaches to identify novel biomarkers and uncovered potential modes of action of classic and emergent contaminants able to disrupt endocrine systems, such as the Retinoic Acid Receptor, Retinoid X Receptor and the Aryl Hydrocarbon Receptor. This study relies on different nuclear and cytosolic protein receptors and other conditional (ligand- or stress- activated) transcriptional factors that are intimately involved in the regulation of defensome genes and in mechanisms of chemical toxicity. The transcriptomic effects of organic compounds, endogenous compounds, and nanoparticles were analysed during the early stages of zebrafish development. Studying the gene expression profiles of exposed and unexposed organisms to pollutants using microarrays allowed the identification of specific gene markers and to establish a "genetic code" for the tested compounds. Changes in gene expression were observed at toxicant concentrations that did not cause morphological effects. Even at low toxicant concentrations, the observed changes in transcript levels were robust for some target genes. Microarray responses of selected genes were further complemented by the real time quantitative polymerase chain reaction (qRT-PCR) methodology. The combination of bio-informatic, toxicological analyses of differential gene expression profiles, and biochemical and phenotypic responses across the treatments allowed the identification of uncovered potential mechanisms of action. In addition, this work provides an integrated set of tools that can be used to aid management-decision making by improving the predictive capability to measure environmental stress of contaminants in freshwater ecosystems. This study also illustrates the potential of zebrafish embryos for the systematic, large-scale analysis of chemical effects on developing vertebrates.
Resumo:
Cork is a natural and renewable material obtained as a sustainable product from cork oak (Quercus suber L.) during the tree’s life. Cork formation is a secondary growth derived process resulting from the activity of cork cambium. However, despite its economic importance, only very limited knowledge is available about the molecular mechanisms underlying the regulation of cork biosynthesis and differentiation. The work of this PhD thesis was focused on the characterization of an R2R3-MYB transcription factor, the QsMYB1, previously identified as being putatively involved in the regulatory network of cork development. The first chapter introduces cork oak and secondary growth, with special emphasis on cork biosynthesis. Some findings concerning transcriptional regulation of secondary growth are also described. The MYB superfamily and the R2R3-MYB family (in particular) of transcription factors are introduced. Chapter II presents the complete QsMYB1 gene structure with the identification of two alternative splicing variants. Moreover, the results of QsMYB1 expression analysis, done by real-time PCR, in several organs and tissues of cork oak are also reported. Chapter III is dedicate to study the influence of abiotic stresses (drought and high temperature) and recovery on QsMYB1 expression levels. The effects of exogenous application of phytohormones on the expression profile of QsMYB1 gene are evaluated on Chapter IV. Chapter V describes the reverse genetic approach to obtain transgenic lines of Populus tremula L. x tremulóides Michx. overexpressing the QsMYB1 gene. Finally, in Chapter VI the final conclusions of this PhD thesis are presented and some future research directions are pointed based on the obtained results.
Resumo:
In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.
Resumo:
Over 11 million tons of nanomaterials (NMs) have been produced in 2012 and predictions point the increase in production. Despite predictions and extended usage via consumer products and industry, the understanding of the potential impact of these materials on the environment is virtually absent. The main aim of this thesis is to understand how a selected group of nanomaterials (metal based particles) may impact soil invertebrates, with special focus on the mechanisms of response. Since a case-by-case Environmental Risk Assessment (ERA) of all the emerging contaminants (particularly NMs) is impossible, among others due to time and cost reasons, to gain understanding on the mechanism of action and response is very important to reach a common paradigm. Understanding the modes of action provides predictive characters in cross particle extrapolation. Besides, it also provides insight for the production of new and sustainable materials. Overall, the effects of the selected NMs (Copper and Silver, Titanium and Zirconium oxides) and the respective salt forms, were investigated at the gene expression (using high-throughput tools, microarray and qPCR technology), biochemical (using enzymatic assays for analysis of oxidative stress markers) and organism (survival and reproduction as in OECD test guidelines) levels, this using standard soil species (Enchytraeus albidus, Enchytraeus crypticus, Eisenia fetida). Gene expression analysis provided valuable information on the mechanisms affected by each of the NMs. The gene expression profile highlighted a (nano)material signature and the effect of the duration of exposure. The functional analyses integrated with the biochemical and organism data, revealed a good understanding power. The biochemical parameters (oxidative stress related) were distinct across the materials and also influenced by duration of exposure and concentration. The standardized organismal responses differed the least between the various materials. The overall outcome is that, in this context of NMs effect assessment, gene expression and enzymatic assays introduced a very important knowledge gap, which could not had been achieved by the standard organismal effects alone. A reoccurring issue with some metal based NMs is the possible dissolution and subsequent release of ions that then causes toxicity e.g. Cu-NPs or Ag-NPs release Cu2+ or Ag+. The oxidation state of the particles was investigated, although this was not the focus of the thesis. The study of fate, e.g. dissolution of NPs, is also only in its beginning and the appropriate techniques are currently being developed. The results showed a specific nanoparticle effect. The UV exposure with titanium dioxide nanoparticles increased its effect.
Resumo:
The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.
Resumo:
The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.
Resumo:
The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.