10 resultados para Vacinação - Atraso na imunização

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The last couple of decades have been the stage for the introduction of new telecommunication networks. It is expected that in the future all types of vehicles, such as cars, buses and trucks have the ability to intercommunicate and form a vehicular network. Vehicular networks display particularities when compared to other networks due to their continuous node mobility and their wide geographical dispersion, leading to a permanent network fragmentation. Therefore, the main challenges that this type of network entails relate to the intermittent connectivity and the long and variable delay in information delivery. To address the problems related to the intermittent connectivity, a new concept was introduced – Delay Tolerant Network (DTN). This architecture is built on a Store-Carry-and-Forward (SCF) mechanism in order to assure the delivery of information when there is no end-to-end path defined. Vehicular networks support a multiplicity of services, including the transportation of non-urgent information. Therefore, it is possible to conclude that the use of a DTN for the dissemination of non-urgent information is able to surpass the aforementioned challenges. The work developed focused on the use of DTNs for the dissemination of non-urgent information. This information is originated in the network service provider and should be available on mobile network terminals during a limited period of time. In order to do so, four different strategies were deployed: Random, Least Number of Hops First (LNHF), Local Rarest Bundle First (LRBF) e Local Rarest Generation First (LRGF). All of these strategies have a common goal: to disseminate content into the network in the shortest period of time and minimizing network congestion. This work also contemplates the analysis and implementation of techniques that reduce network congestion. The design, implementation and validation of the proposed strategies was divided into three stages. The first stage focused on creating a Matlab emulator for the fast implementation and strategy validation. This stage resulted in the four strategies that were afterwards implemented in the DTNs software Helix – developed in a partnership between Instituto de Telecomunicac¸˜oes (IT) and Veniam R , which are responsible for the largest operating vehicular network worldwide that is located in Oporto city. The strategies were later evaluated on an emulator that was built for the largescale testing of DTN. Both emulators account for vehicular mobility based on information previously collected from the real platform. Finally, the strategy that presented the best overall performance was tested on a real platform – in a lab environment – for concept and operability demonstration. It is possible to conclude that two of the implemented strategies (LRBF and LRGF) can be deployed in the real network and guarantee a significant delivery rate. The LRBF strategy has the best performance in terms of delivery. However, it needs to add a significant overhead to the network in order to work. In the future, tests of scalability should be conducted in a real environment in order to confirm the emulator results. The real implementation of the strategies should be accompanied by the introduction of new types of services for content distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como objectivo o estudo e projecto de receptores optimizados para sistemas de comunicações por fibra óptica de muito alto débito (10Gb/s e 40Gb/s), com a capacidade integrada de compensação adaptativa pós-detecção da distorção originada pela característica de dispersão cromática e de polarização do canal óptico. O capítulo 1 detalha o âmbito de aplicabilidade destes receptores em sistemas de comunicações ópticas com multiplexagem no comprimento de onda (WDM) actuais. O capítulo apresenta ainda os objectivos e principais contribuições desta tese. O capítulo 2 detalha o projecto de um amplificador pós-detecção adequado para sistemas de comunicação ópticos com taxa de transmissão de 10Gb/s. São discutidas as topologias mais adequadas para amplificadores pós detecção e apresentados os critérios que ditaram a escolha da topologia de transimpedância bem como as condições que permitem optimizar o seu desempenho em termos de largura de banda, ganho e ruído. Para além disso são abordados aspectos relacionados com a implementação física em tecnologia monolítica de microondas (MMIC), focando em particular o impacto destes no desempenho do circuito, como é o caso do efeito dos componentes extrínsecos ao circuito monolítico, em particular as ligações por fio condutor do monólito ao circuito externo. Este amplificador foi projectado e produzido em tecnologia pHEMT de Arsenieto de Gálio e implementado em tecnologia MMIC. O protótipo produzido foi caracterizado na fábrica, ainda na bolacha em que foi produzido (on-wafer) tendo sido obtidos dados de caracterização de 80 circuitos protótipo. Estes foram comparados com resultados de simulação e com desempenho do protótipo montado num veículo de teste. O capítulo 3 apresenta o projecto de dois compensadores eléctricos ajustáveis com a capacidade de mitigar os efeitos da dispersão cromática e da dispersão de polarização em sistemas ópticos com débito binário de 10Gb/s e 40Gb/s, com modulação em banda lateral dupla e banda lateral única. Duas topologias possíveis para este tipo de compensadores (a topologia Feed-Forward Equalizer e a topologia Decision Feedback Equaliser) são apresentadas e comparadas. A topologia Feed-Forward Equaliser que serviu de base para a implementação dos compensadores apresentados é analisada com mais detalhe sendo propostas alterações que permitem a sua implementação prática. O capítulo apresenta em detalhe a forma como estes compensadores foram implementados como circuitos distribuídos em tecnologia MMIC sendo propostas duas formas de implementar as células de ganho variável: com recurso à configuração cascode ou com recurso à configuração célula de Gilbert. São ainda apresentados resultados de simulação e experimentais (dos protótipos produzidos) que permitem tirar algumas conclusões sobre o desempenho das células de ganho com as duas configurações distintas. Por fim, o capítulo inclui ainda resultados de desempenho dos compensadores testados como compensadores de um sinal eléctrico afectado de distorção. No capítulo 4 é feita uma análise do impacto da modulação em banda lateral dupla (BLD) em comparação com a modulação em banda lateral única (BLU) num sistema óptico afectado de dispersão cromática e de polarização. Mostra-se que com modulação em BLU, como não há batimento entre portadoras das duas bandas laterais em consequência do processo quadrático de detecção e há preservação da informação da distorção cromática do canal (na fase do sinal), o uso deste tipo de modulação em sistemas de comunicação óptica permite maior tolerância à dispersão cromática e os compensadores eléctricos são muito mais eficientes. O capítulo apresenta ainda resultados de teste dos compensadores desenvolvidos em cenários experimentais de laboratório representativos de sistemas ópticos a 10Gb/s e 40Gb/s. Os resultados permitem comparar o desempenho destes cenários sem e com compensação eléctrica optimizada, para os casos de modulação em BLU e em BLD, e considerando ainda os efeitos da dispersão na velocidade de grupo e do atraso de grupo diferencial. Mostra-se que a modulação BLU em conjunto com compensação adaptativa eléctrica permite um desempenho muito superior á modulação em BLD largamente utilizada nos sistemas de comunicações actuais. Por fim o capítulo 5 sintetiza e apresenta as principais conclusões deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho surge do interesse em substituir os nós de rede óptica baseados maioritariamente em electrónica por nós de rede baseados em tecnologia óptica. Espera-se que a tecnologia óptica permita maiores débitos binários na rede, maior transparência e maior eficiência através de novos paradigmas de comutação. Segundo esta visão, utilizou-se o MZI-SOA, um dispositivo semicondutor integrado hibridamente, para realizar funcionalidades de processamento óptico de sinal necessárias em nós de redes ópticas de nova geração. Nas novas redes ópticas são utilizados formatos de modulação avançados, com gestão da fase, pelo que foi estudado experimentalmente e por simulação o impacto da utilização destes formatos no desempenho do MZI-SOA na conversão de comprimento de onda e formato, em várias condições de operação. Foram derivadas regras de utilização para funcionamento óptimo. Foi também estudado o impacto da forma dos pulsos do sinal no desempenho do dispositivo. De seguida, o MZI-SOA foi utilizado para realizar funcionalidades temporais ao nível do bit e do pacote. Foi investigada a operação de um conversor de multiplexagem por divisão no comprimento de onda para multiplexagem por divisão temporal óptica, experimentalmente e por simulação, e de um compressor e descompressor de pacotes, por simulação. Para este último, foi investigada a operação com o MZI-SOA baseado em amplificadores ópticos de semicondutor com geometria de poço quântico e ponto quântico. Foi também realizado experimentalmente um ermutador de intervalos temporais que explora o MZI-SOA como conversor de comprimento de onda e usa um banco de linhas de atraso ópticas para introduzir no sinal um atraso seleccionável. Por fim, foi estudado analiticamente, experimentalmente e por simulação o impacto de diafonia em redes ópticas em diversas situações. Extendeu-se um modelo analítico de cálculo de desempenho para contemplar sinais distorcidos e afectados por diafonia. Estudou-se o caso de sinais muito filtrados e afectados por diafonia e mostrou-se que, para determinar correctamente as penalidades que ocorrem, ambos os efeitos devem ser considerados simultaneamente e não em separado. Foi estudada a escalabilidade limitada por diafonia de um comutador de intervalos temporais baseado em MZI-SOA a operar como comutador espacial. Mostrou-se também que sinais afectados fortemente por não-linearidades podem causar penalidades de diafonia mais elevadas do que sinais não afectados por não-linearidades. Neste trabalho foi demonstrado que o MZI-SOA permite construir vários e pertinentes circuitos ópticos, funcionando como bloco fundamental de construção, tendo sido o seu desempenho analisado, desde o nível de componente até ao nível de sistema. Tendo em conta as vantagens e desvantagens do MZI-SOA e os desenvolvimentos recentes de outras tecnologias, foram sugeridos tópicos de investigação com o intuito de evoluir para as redes ópticas de nova geração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A génese de um cancro está dependente da acumulação de mutações genéticas que dão origem a instabilidade genómica, que por sua vez resulta na proliferação descontrolada. Para prevenir a acumulação destas mutações, as células têm mecanismos de controlo (checkpoints) que suspendem o ciclo celular e accionam as vias de reparação do ADN. Estes eventos são muitas vezes regulados por dinâmicas de (des)fosforilação de proteínas. As proteínas fosfatases (PPs), enzimas responsáveis pela remoção do grupo fosfato de resíduos fosforilados, desempenham funções cruciais na regulação de muitos mecanismos celulares. Enquanto que no início do projecto as cinases envolvidas no checkpoint da replicação estavam bem estabelecidas, as PPs envolvidas não eram conhecidas. A Chk1, um componente da maquinaria do checkpoint da replicação, é exemplo dessa regulação por (des)fosforilação, como sejam nos resíduos Ser317 e Ser345. Assim, como primeira abordagem para determinar quais os grupos de PPs envolvidos na regulação do checkpoint da replicação, decidimos investigar o seu papel na regulação da fosforilação da Chk1. A primeira conclusão é que a desfosforilação da Chk1 ao longo do tempo, tanto in vivo como in vitro, ocorre com uma dinâmica bi-fásica. Em segundo, a abordagem in vitro sugere que as famílias PP1, PP2A e PP2C estão envolvidas na desfosforilação da Chk1. Uma vez que a família PP2A foi a que mostrou a maior acção nesta reacção, decidimos investigar outros membros da família in vivo, primeiro com uma abordagem geral (tratando com OA ou sobreexpressando a PME-1), e depois com o knockdown específico da PP4 e PP6 (através de siRNA). Os resultados mostram que a inibição das PPs afectam tanto a desfosforilação como o estado de activação da Chk1 em resposta a tratamento com Hidroxiureia (HU). Todas as PPs testadas in vivo pareceram ser capazes de regular, a níveis diferentes, tanto a fosforilação como a desfosforilação da Chk1. A função das PPs foi também investigada ao nível: da regulação do disparo das origens de replicação, e da recuperação da suspensão da replicação, induzida pela HU. No último caso, os dados indicam que na situação simultânea de knockdown da PP4 com tratamento de HU, há um atraso do ciclo celular na resolução da transição de G2/M. No ensaio de replicação por pulse-chase, os resultamos mostram que tanto o tratamento com OA, como a sobre-expressão de I-2 ou PME-1, atrasam a cronologia do disparo programado das origens de replicação. No entanto, nenhum dos tratamentos efectuados parece desregular o início do checkpoint da replicação. Um rastreio de 2-híbrido de levedura com uma biblioteca de cDNA de testículo humano foi realizado, usando a Chk1 como isco, no sentido de descobrir novos interactores e definir novas possíveis funções para a Chk1 no contexto da meiose. Com base nos resultados do rastreio, duas novas funções são sugeridas: a interacção com a GAGE12 sugere uma função na recombinação genómica/vigilância do genoma durante a meiose, e as interacções com a EEF1α1 e a RPS5 sugerem uma função na regulação da síntese proteíca. Estas experiências fornecem um visão geral para a compreensão da diversidade de funções das proteínas fosfatases envolvidas no checkpoint da replicação, bem como, abre novos caminhos para o desenvolvimento de novas drogas para o tratamento do cancro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese descreve uma framework de trabalho assente no paradigma multi-camada para analisar, modelar, projectar e optimizar sistemas de comunicação. Nela se explora uma nova perspectiva acerca da camada física que nasce das relações entre a teoria de informação, estimação, métodos probabilísticos, teoria da comunicação e codificação. Esta framework conduz a métodos de projecto para a próxima geração de sistemas de comunicação de alto débito. Além disso, a tese explora várias técnicas de camada de acesso com base na relação entre atraso e débito para o projeto de redes sem fio tolerantes a atrasos. Alguns resultados fundamentais sobre a interação entre a teoria da informação e teoria da estimação conduzem a propostas de um paradigma alternativo para a análise, projecto e optimização de sistemas de comunicação. Com base em estudos sobre a relação entre a informação recíproca e MMSE, a abordagem descrita na tese permite ultrapassar, de forma inovadora, as dificuldades inerentes à optimização das taxas de transmissão de informação confiáveis em sistemas de comunicação, e permite a exploração da atribuição óptima de potência e estruturas óptimas de pre-codificação para diferentes modelos de canal: com fios, sem fios e ópticos. A tese aborda também o problema do atraso, numa tentativa de responder a questões levantadas pela enorme procura de débitos elevados em sistemas de comunicação. Isso é feito através da proposta de novos modelos para sistemas com codificação de rede (network coding) em camadas acima da sua camada física. Em particular, aborda-se a utilização de sistemas de codificação em rede para canais que variam no tempo e são sensíveis a atrasos. Isso foi demonstrado através da proposta de um novo modelo e esquema adaptativo, cujos algoritmos foram aplicados a sistemas sem fios com desvanecimento (fading) complexo, de que são exemplos os sistemas de comunicação via satélite. A tese aborda ainda o uso de sistemas de codificação de rede em cenários de transferência (handover) exigentes. Isso é feito através da proposta de novos modelos de transmissão WiFi IEEE 801.11 MAC, que são comparados com codificação de rede, e que se demonstram possibilitar transferência sem descontinuidades. Pode assim dizer-se que esta tese, através de trabalho de análise e de propostas suportadas por simulações, defende que na concepção de sistemas de comunicação se devem considerar estratégias de transmissão e codificação que sejam não só próximas da capacidade dos canais, mas também tolerantes a atrasos, e que tais estratégias têm de ser concebidas tendo em vista características do canal e a camada física.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, a Optoelectrónica tem sido estabelecida como um campo de investigação capaz de conduzir a novas soluções tecnológicas. As conquistas abundantes no campo da óptica e lasers, bem como em comunicações ópticas têm sido de grande importância e desencadearam uma série de inovações. Entre o grande número de componentes ópticos existentes, os componentes baseados em fibra óptica são principalmente relevantes devido à sua simplicidade e à elevada de transporte de dados da fibra óptica. Neste trabalho foi focado um destes componentes ópticos: as redes de difracção em fibra óptica, as quais têm propriedades ópticas de processamento únicas. Esta classe de componentes ópticos é extremamente atraente para o desenvolvimento de dispositivos de comunicações ópticas e sensores. O trabalho começou com uma análise teórica aplicada a redes em fibra e foram focados os métodos de fabricação de redes em fibra mais utilizados. A inscrição de redes em fibra também foi abordado neste trabalho, onde um sistema de inscrição automatizada foi implementada para a fibra óptica de sílica, e os resultados experimentais mostraram uma boa aproximação ao estudo de simulação. Também foi desenvolvido um sistema de inscrição de redes de Bragg em fibra óptica de plástico. Foi apresentado um estudo detalhado da modulação acústico-óptica em redes em fibra óptica de sílica e de plástico. Por meio de uma análise detalhada dos modos de excitação mecânica aplicadas ao modulador acústico-óptico, destacou-se que dois modos predominantes de excitação acústica pode ser estabelecidos na fibra óptica, dependendo da frequência acústica aplicada. Através dessa caracterização, foi possível desenvolver novas aplicações para comunicações ópticas. Estudos e implementação de diferentes dispositivos baseados em redes em fibra foram realizados, usando o efeito acústico-óptico e o processo de regeneração em fibra óptica para várias aplicações tais como rápido multiplexador óptico add-drop, atraso de grupo sintonizável de redes de Bragg, redes de Bragg com descolamento de fase sintonizáveis, método para a inscrição de redes de Bragg com perfis complexos, filtro sintonizável para equalização de ganho e filtros ópticos notch ajustáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Systems equipped with multiple antennas at the transmitter and at the receiver, known as MIMO (Multiple Input Multiple Output) systems, offer higher capacities, allowing an efficient exploitation of the available spectrum and/or the employment of more demanding applications. It is well known that the radio channel is characterized by multipath propagation, a phenomenon deemed problematic and whose mitigation has been achieved through techniques such as diversity, beamforming or adaptive antennas. By exploring conveniently the spatial domain MIMO systems turn the characteristics of the multipath channel into an advantage and allow creating multiple parallel and independent virtual channels. However, the achievable benefits are constrained by the propagation channel’s characteristics, which may not always be ideal. This work focuses on the characterization of the MIMO radio channel. It begins with the presentation of the fundamental results from information theory that triggered the interest on these systems, including the discussion of some of their potential benefits and a review of the existing channel models for MIMO systems. The characterization of the MIMO channel developed in this work is based on experimental measurements of the double-directional channel. The measurement system is based on a vector network analyzer and a two-dimensional positioning platform, both controlled by a computer, allowing the measurement of the channel’s frequency response at the locations of a synthetic array. Data is then processed using the SAGE (Space-Alternating Expectation-Maximization) algorithm to obtain the parameters (delay, direction of arrival and complex amplitude) of the channel’s most relevant multipath components. Afterwards, using a clustering algorithm these data are grouped into clusters. Finally, statistical information is extracted allowing the characterization of the channel’s multipath components. The information about the multipath characteristics of the channel, induced by existing scatterers in the propagation scenario, enables the characterization of MIMO channel and thus to evaluate its performance. The method was finally validated using MIMO measurements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During the last century mean global temperatures have been increasing. According to the predictions, the temperature change is expected to exceed 1.5ºC in this century and the warming is likely to continue. Freshwater ecosystems are among the most sensitive mainly due to changes in the hydrologic cycle and consequently changes in several physico-chemical parameters (e.g. pH, dissolved oxygen). Alterations in environmental parameters of freshwater systems are likely to affect distribution, morphology, physiology and richness of a wide range of species leading to important changes in ecosystem biodiversity and function. Moreover, they can also work as co-stressors in environments where organisms have already to cope with chemical contamination (such as pesticides), increasing the environmental risk due to potential interactions. Therefore, the objective of this work was to evaluate the effects of climate change related environmental parameters on the toxicity of pesticides to zebrafish embryos. The following environmental factors were studied: pH (3.0-12.0), dissolved oxygen level (0-8 mg/L) and UV radiation (0-500 mW/m2). The pesticides studied were the carbamate insecticide carbaryl and the benzimidazole fungicide carbendazim. Stressors were firstly tested separately in order to derive concentration- or intensity-response curves to further study the effects of binary combinations (environmental factors x pesticides) by applying mixture models. Characterization of zebrafish embryos response to environmental stress revealed that pH effects were fully established after 24 h of exposure and survival was only affected at pH values below 5 and above 10. Low oxygen levels also affected embryos development at concentrations below 4 mg/L (delay, heart rate decrease and edema), and at concentrations below 0.5 mg/L the survival was drastically reduced. Continuous exposure to UV radiation showed a strong time-dependent impact on embryos survival leading to 100% of mortality after 72 hours of exposure. The toxicity of pesticides carbaryl and carbendazim was characterized at several levels of biological organization including developmental, biochemical and behavioural allowing a mechanistic understanding of the effects and highlighting the usefulness of behavioural responses (locomotion) as a sensitive endpoint in ecotoxicology. Once the individual concentration response relationship of each stressor was established, a combined toxicity study was conducted to evaluate the effects of pH on the toxicity of carbaryl. We have shown that pH can modify the toxicity of the pesticide carbaryl. The conceptual model concentration addition allowed a precise prediction of the toxicity of the jointeffects of acid pH and carbaryl. Nevertheless, for alkaline condition both concepts failed in predicting the effects. Deviations to the model were however easy to explain as high pH values favour the hydrolysis of carbaryl with the consequent formation of the more toxic degradation product 1- naphtol. Although in the present study such explanatory process was easy to establish, for many other combinations the “interactive” nature is not so evident. In the context of the climate change few scenarios predict such increase in the pH of aquatic systems, however this was a first approach focused in the lethal effects only. In a second tier assessment effects at sublethal level would be sought and it is expectable that more subtle pH changes (more realistic in terms of climate changes scenarios) may have an effect at physiological and biochemical levels with possible long term consequences for the population fitness.