26 resultados para Processamento de pescado

em Instituto Politécnico do Porto, Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivos: Os objetivos deste estudo incluem (1) encontrar a prevalência da PDC em crianças com diagnóstico de PHDA entre os 7 e os 14 anos, com recurso ao BOTMP e ao DCDQ’07; (2) analisar o desempenho de crianças com PHDA ao nível da velocidade de processamento e controlo inibitório e comparar o desempenho entre as crianças que só apresentam PHDA e aquelas que apresentam também PDC; (3) verificar se a ocorrência de PDC é agravada pela presença de alterações da velocidade de processamento e controlo inibitório e se estes podem ser considerados fatores de risco para a ocorrência de PDC. Métodos: A amostra foi composta por 37 crianças entre 7 e 14 anos, com PHDA. Os dados foram recolhidos na ULSNE num único momento de avaliação utilizando como instrumentos de avaliação o BOTMP, DCDQ’07, WISC (subteste pesquisa de símbolos e código), Stroop e FAB (prova Go-no-Go); Resultados: A Prevalência da PDC em crianças com PHDA foi de 51.4%, sendo a toma da medicação e o nascimento a termo fatores de proteção. As crianças apresentaram mais dificuldades no controlo inibitório que na velocidade de processamento, sendo este um fator de agravamento para o desenvolvimento da PDC em crianças com PHDA. Verificou-se ainda que crianças com PHDA com comorbilidade de PDC têm pior resultados na velocidade de processamento e no controlo inibitório do que quando apenas há PHDA. Conclusão: Podemos concluir que as crianças com PHDA apresentam, na sua maioria, dificuldades motoras, havendo uma comorbilidade elevada com PDC. Os défices na velocidade de processamento e controlo inibitório poderão ser causa das dificuldades apresentadas por estas crianças no domínio motor. Existe a necessidade de novas perspetivas de programas de reabilitação que deem ênfase ao domínio motor em crianças com perturbação do desenvolvimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação de Doutora Maria Helena da Costa Alves Guimarães Ustimenko e Doutora Maria Manuela Ribeiro Veloso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das abordagens mais importantes da terminologia é a desenvolvida pelas disciplinas técnico-científicas, para as quais representa a reflexão formal da sua organização conceptual e, como tal, um meio essencial de expressão e comunicação. De forma a desenvolver as diferentes tarefas a que se propõe, a terminologia tem como principal objecto de estudo os textos de línguas de especialidade, que são o primeiro veículo, por excelência, de expressão e comunicação das disciplinas suprareferidas. Estes textos reflectem, normalmente, um tipo de comunicação especializada, cujo objectivo é o da transferência de conhecimentos, realizada com recurso a um sistema de representação verbal. No entanto, a abertura e a extensão do texto escrito a outros meios de representação, sobretudo nas áreas técnicas, está a conduzir a uma nova tendência no campo da terminologia e da pesquisa das línguas de especialidade, que tem vindo a reforçar a importância da utilização de formas não-verbais para representar o conhecimento. A tendência para o aumento do uso destas formas de representação, normalmente em complemento ou conjugação com a informação verbal, aponta para um novo paradigma em que a linguagem, como representação do pensamento, parece estar em busca de uma nova abordagem que venha transformar a maneira de produzir, organizar e transmitir conhecimentos, recorrendo às novas tecnologias, cada vez mais à disposição da chamada sociedade do conhecimento. A nossa percepção desta realidade ganhou maior consistência ao longo do desenvolvimento de um projecto terminográfico de elaboração do Dicionário Multilingue de População e Desenvolvimento, no qual o recurso a sistemas de representação nãoverbais (organigramas e outro tipo de representações visuais), utilizados como forma de percepção e organização dos conceitos e dos domínios a incluir no dicionário, se tornou um meio importante de aquisição, discussão, estruturação e transmissão do conhecimento. Daí a decisão de abordarmos, ainda que de forma breve, a análise de duas problemáticas sugeridas pelo desenrolar daquele projecto. A primeira recai sobre o estabelecimento de relações semânticas entre os conceitos, sobre as implicações deste processo na estruturação conceptual e sobre a sua importância no processamento da informação terminológica. A segunda incide na análise do recurso aos meios de representação não-verbais e do papel que desempenham e que podem vir a desempenhar no desenrolar do processo terminológico, enquanto elementos de estruturação de um sistema conceptual, de estruturação de um projecto terminológico e de comunicação especializada. Estas duas problemáticas estão directamente interrelacionadas e devem ser analisadas em conjunto, sobretudo quando se trata de formalizar a informação e armazená-la numa base de dados terminológica, de forma a poder ser processada (semi)automaticamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento da concorrência internacional pela captação de lnvestimento Directo externo (IDE) deixa transparecer o interesse dos países e regiões por um instrumento que pode canalizar recursos externos importantes para o seu crescimento económico. Na atracção deste investimento, atribui-se tradicionalmente grande relevância à dotação do país/região de acolhimento em factores produtivos básicos e ao regime público de incentivos praticado, desvalorizando-se, amiúde, o processo de tomada de decisão por parte do investidor. Sabe-se, entretanto, que nesse processo, de natureza interactiva, as redes (sociais, intra-empresariais, inter-empresariais e institucionais) desempenham um papel estratégico de mediação na recolha, selecção e processamento da informação sobre os países/regiões de acolhimento. Os mecanismos de formação e actuação destas redes no processo de atracção de IDE são analisados neste artigo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electricity markets are complex environments with very particular characteristics. A critical issue regarding these specific characteristics concerns the constant changes they are subject to. This is a result of the electricity markets’ restructuring, which was performed so that the competitiveness could be increased, but it also had exponential implications in the increase of the complexity and unpredictability in those markets scope. The constant growth in markets unpredictability resulted in an amplified need for market intervenient entities in foreseeing market behaviour. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of the markets, contributed to the growth of usage of simulation tools. Multi-agent based software is particularly well fitted to analyze dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. This dissertation presents ALBidS – Adaptive Learning strategic Bidding System, a multiagent system created to provide decision support to market negotiating players. This system is integrated with the MASCEM electricity market simulator, so that its advantage in supporting a market player can be tested using cases based on real markets’ data. ALBidS considers several different methodologies based on very distinct approaches, to provide alternative suggestions of which are the best actions for the supported player to perform. The approach chosen as the players’ actual action is selected by the employment of reinforcement learning algorithms, which for each different situation, simulation circumstances and context, decides which proposed action is the one with higher possibility of achieving the most success. Some of the considered approaches are supported by a mechanism that creates profiles of competitor players. These profiles are built accordingly to their observed past actions and reactions when faced with specific situations, such as success and failure. The system’s context awareness and simulation circumstances analysis, both in terms of results performance and execution time adaptation, are complementary mechanisms, which endow ALBidS with further adaptation and learning capabilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O calibre da artéria aorta torácica é avaliado em situações de suspeita de patologia ou em pacientes com pre-disposição para desenvolverem doenças vasculares. A medição das suas dimensões, em duas direcções diametralmente opostas e, assim, fulcral na avaliação desta estrutura. Para tal, o exame de primeira linha definido é a Angiografia por Tomografia Computorizada (Angio-TC), injectando-se um produto de contraste na veia radial que irá opacificar os vasos, permitindo a sua distinção das estruturas adjacentes. O presente trabalho, inserido na disciplina de Dissertação/ Projecto/ Estágio Profissional do Mestrado em Engenharia de Computação e Instrumentação Médica e com a cooperação da empresa Efficientia, foi sugerido pela equipa de Angio-TC do Centro Hospitalar de Vila Nova de Gaia (CHVNG) e tem por objectivo o desenvolvimento de uma aplicação para a medição e registo automático do diâmetro da aorta torácica em nove pontos anatómicos pre-definidos em imagens de Tomografia Computorizada (TC). A aplicação foi desenvolvida no ambiente integrado de processamento e análise de imagem, Fiji, sendo a metodologia composta pelas etapas de segmentação, desenho da linha central, determinação dos planos de cortes, segmentação e medição da aorta nos planos de corte. Os resultados obtidos pela metodologia proposta são concordantes com os obtidos por especialistas para o conjunto de teste utilizado neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo diz respeito a um trabalho de pesquisa no âmbito de uma Tese de Mestrado compreendida no segundo ciclo de estudos do curso de Engenharia Geotécnica e Geoambiente, realizado sobre a contribuição da Fluorescência de Raios – X (FRX) no Zonamento de Georrecursos, com particular ênfase para a utilização do instrumento portátil e de ferramentas tecnológicas de vanguarda, indispensáveis à prospecção e exploração dos recursos minerais, designadamente na interpretação e integração de dados de natureza geológica e na modelação de métodos de exploração e processamento /tratamento de depósitos minerais, assim como do respectivo controlo. Esta dissertação discute os aspectos fundamentais da utilização da técnica de Fluorescência de Raios-X (portátil, FRXP), quanto à sua possibilidade de aplicação e metodologia exigida, com vista à definição de zonas com características químicas análogas do georrecurso e que preencham as exigências especificadas para a utilização da matéria-prima, nas indústrias consumidoras. Foi elaborada uma campanha de recolha de amostras de calcário proveniente da pedreira do Sangardão, em Condeixa–a–Nova, que numa primeira fase teve como objectivo principal a identificação da composição química da área em estudo e o grau de precisão do aparelho portátil de FRX. Para além desta análise foram, também, realizadas análises granulométricas por peneiração e sedimentação por Raios-X a amostras provenientes das bacias de sedimentação e do material passado no filtro prensa. Validado o método de análise por FRXP, realizou-se uma segunda fase deste trabalho, que consistiu na elaboração de uma amostragem bastante significativa de pontos, onde se realizaram análises por FRXP, de forma a obter uma maior cobertura química da área em estudo e localizar os locais chave de exploração da matéria-prima. Para uma correcta leitura dos dados analisados recorreu-se a ferramentas aliadas às novas tecnologias, as quais se mostraram um importante contributo para uma boa gestão do georrecurso em avaliação, nomeadamente o “XLSTAT” e o “Surfer” para tratamento estatístico dos dados e modelação, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia de Computação e Instrumentação Médica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática, Área de Especialização em Tecnologias do Conhecimento e da Decisão

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os parques de estacionamento cobertos estão obrigados por legislação a terem sistemas de desenfumagem. Assim, nesta dissertação desenvolve-se um procedimento computacional para a analise e verificação de funcionamento de sistemas de desenfumagem com ventiladores de impulso para parques de estacionamento, recorrendo ao software de mecânica dos fluidos computacional OpenFOAM. Actualmente nos sistemas de desenfumagem de parques de estacionamento estão a ser aplicados ventiladores de impulso. Este tipo de ventiladores não estão contemplados pela legislação em vigor. Assim, para serem utilizados é necessário verificar se estes podem substituir as redes de condutas. A verificação do funcionamento de sistemas de desenfumagem com ventiladores de impulso e efectuada com recurso a programas de simulação de mecânica dos fluidos computacional. O software OpenFOAM não tem tutoriais para ventiladores de impulso. Assim, foi executado um procedimento para validação dos ventiladores de impulso. A validação consistiu em reproduzir-se uma experiência executada por Giesen et al. (2011). Executaram-se várias simulações com diferentes modelos de turbulência, verificando-se que o programa buoyantpimplefoam do software OpenFOAM ao utilizar o modelo de turbulência k -ɛ simulou quase na perfeição os ventiladores de impulso. O desenvolvimento do procedimento computacional foi executado para um parque de estacionamento com uma geometria bastante complexa. O parque de estacionamento foi criado com um software em 3D e posteriormente inserido numa malha j a criada com as dimensões exteriores do parque. Foram estipuladas as condições de fronteira e executou-se uma simulação de seiscentos segundos com parâmetros determinados previamente. O processamento da simulação teve a duração de aproximadamente oito dias. Dos resultados obtidos concluiu-se que o procedimento computacional apresentado simula adequadamente sistemas de desenfumagem em parques de estacionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A água é um recurso natural único, escasso e essencial a todos os seres vivos, o que a torna um bem de extrema importância. Nos dias de hoje, o desperdício deste bem, aliado ao aumento da sua procura, tornou-se um problema devido à decrescente disponibilidade de água doce no nosso planeta. Todas as águas que rejeitamos depois da sua utilização para diversos fins, designadas de águas residuais, necessitam de tratamento antes de serem devolvidas ao meio ambiente. O seu tratamento é realizado numa Estação de Tratamento de Águas Residuais (ETAR) e o processo de tratamento depende das suas características. A ETAR das Termas de S. Vicente, em Penafiel, trabalha no seu limite de capacidade, apresenta uma sobrecarga hidráulica gerada por uma afluência de águas pluviais e o processamento das lamas geradas não permite uma secagem tão completa como seria desejável. Assim, este trabalho teve como objetivo o estudo do funcionamento desta ETAR com a finalidade de propor soluções que o possam otimizar. As soluções propostas para otimizar o funcionamento da ETAR em estudo são: i) a substituição de grades de limpeza manual por grades de limpeza automática de forma a reduzir a necessidade da intervenção do operador ao nível da remoção e condicionamento dos gradados; ii) a construção de um desarenador arejado que além de remover areias de diâmetro superior a 0,2 mm promove também a remoção de gorduras, protegendo desta forma os equipamentos a jusante da abrasão/desgaste prematuros e reduzindo a formação de depósitos nas tubagens; iii) a construção de um tanque de equalização de forma a garantir uma distribuição mais uniforme dos caudais e da carga poluente; iv) a substituição do enchimento do leito percolador por um meio de suporte plástico que permite atingir melhores eficiências de remoção neste tratamento biológico; v) a alteração do agente de desinfeção para radiação ultravioleta, evitando a adição de produtos químicos na água residual e possível formação de subprodutos prejudiciais ao ambiente, como ocorreria no caso da cloragem; e vi) a substituição da desidratação de lamas em leitos de secagem por filtros de banda, que é um processo mais rápido, que ocupa menos espaço e permite atingir elevadas eficiências de remoção de humidade. Para cada uma das sugestões são apresentadas as correspondentes especificações técnicas e dimensionamento. As sugestões de melhoria apresentadas neste trabalho constituem uma alternativa mais económica do que a ampliação da ETAR, que genericamente corresponde à duplicação da linha de tratamento atual. Devido à menor complexidade em termos de construção, estas sugestões podem vir a ser implementadas num futuro próximo, prolongando assim um pouco mais a vida útil da ETAR atual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como principal objetivo o estudo da simulação da unidade de destilação atmosférica e a vácuo da fábrica de óleos base da Petrogal, permitindo verificar que, uma vez conseguido um modelo num programa de simulação que traduz o comportamento real de um dado processo, é possível sem riscos operacionais avaliar o efeito da alteração das condições normais de funcionamento desse processo. O trabalho foi orientado pelo Eng.º Carlos Reis, no que diz respeito à empresa, e pelo Prof. Dr. Luís Silva, pelo ISEP. O trabalho foi dividido em duas partes, sendo a primeira direcionada à obtenção do novo crude a partir de dois crudes pesados e caracterização dessa mistura. Já a segunda parte reside na refinação deste novo crude através da plataforma Aspen Plus para obtenção do resíduo de vácuo, para posterior processamento na coluna de discos rotativos usando um método de separação por extração liquido-liquido. Estudaram-se as propriedades físicas dos fluidos e verificou-se que na destilação atmosférica as curvas de destilação encontram-se muito próximas comparativamente com os resultados obtidos pela empresa, enquanto na destilação a vácuo os valores encontram-se mais afastados, apresentando uma variação de 30ºC a 100ºC em relação aos valores obtidos pelo Petro-Sim. Com a finalidade de cumprir um dos objetivos em falta, irão ser realizadas futuramente simulações no extrator de discos rotativos para otimização do processo para crudes pesados, sendo os resultados facultados, posteriormente, à Petrogal. Durante a realização do trabalho foi atingido um modelo real representativo da unidade de destilação atmosférica e a vácuo da Petrogal, podendo obter-se resultados para qualquer tipo de crude, fazendo apenas variar o assay da corrente de alimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma nova área tecnológica está em crescente desenvolvimento. Esta área, denominada de internet das coisas, surge na necessidade de interligar vários objetos para uma melhoria a nível de serviços ou necessidades por parte dos utilizadores. Esta dissertação concentra-se numa área específica da tecnologia internet das coisas que é a sensorização. Esta rede de sensorização é implementada pelo projeto europeu denominado de Future Cities [1] onde se cria uma infraestrutura de investigação e validação de projetos e serviços inteligentes na cidade do Porto. O trabalho realizado nesta dissertação insere-se numa das plataformas existentes nessa rede de sensorização: a plataforma de sensores ambientais intitulada de UrbanSense. Estes sensores ambientais que estão incorporados em Data Collect Unit (DCU), também denominados por nós, medem variáveis ambientais tais como a temperatura, humidade, ozono e monóxido de carbono. No entanto, os nós têm recursos limitados em termos de energia, processamento e memória. Apesar das grandes evoluções a nível de armazenamento e de processamento, a nível energético, nomeadamente nas baterias, não existe ainda uma evolução tão notável, limitando a sua operacionalidade [2]. Esta tese foca-se, essencialmente, na melhoria do desempenho energético da rede de sensores UrbanSense. A principal contribuição é uma adaptação do protocolo de redes Ad Hoc OLSR (Optimized Link State Routing Protocol) para ser usado por nós alimentados a energia renovável, de forma a aumentar a vida útil dos nós da rede de sensorização. Com esta contribuição é possível obter um maior número de dados durante períodos de tempo mais longos, aproximadamente 10 horas relativamente às 7 horas anteriores, resultando numa maior recolha e envio dos mesmos com uma taxa superior, cerca de 500 KB/s. Existindo deste modo uma aproximação analítica dos vários parâmetros existentes na rede de sensorização. Contudo, o aumento do tempo de vida útil dos nós sensores com recurso à energia renovável, nomeadamente, energia solar, incrementa o seu peso e tamanho que limita a sua mobilidade. Com o referido acréscimo a determinar e a limitar a sua mobilidade exigindo, por isso, um planeamento prévio da sua localização. Numa primeira fase do trabalho analisou-se o consumo da DCU, visto serem estes a base na infraestrutura e comunicando entre si por WiFi ou 3G. Após uma análise dos protocolos de routing com iv suporte para parametrização energética, a escolha recaiu sobre o protocolo OLSR devido à maturidade e compatibilidade com o sistema atual da DCU, pois apesar de existirem outros protocolos, a implementação dos mesmos, não se encontram disponível como software aberto. Para a validação do trabalho realizado na presente dissertação, é realizado um ensaio prévio sem a energia renovável, para permitir caracterização de limitações do sistema. Com este ensaio, tornou-se possível verificar a compatibilidade entre os vários materiais e ajustamento de estratégias. Num segundo teste de validação é concretizado um ensaio real do sistema com 4 nós a comunicar, usando o protocolo com eficiência energética. O protocolo é avaliado em termos de aumento do tempo de vida útil do nó e da taxa de transferência. O desenvolvimento da análise e da adaptação do protocolo de rede Ad Hoc oferece uma maior longevidade em termos de tempo de vida útil, comparando ao que existe durante o processamento de envio de dados. Apesar do tempo de longevidade ser inferior, quando o parâmetro energético se encontra por omissão com o fator 3, a realização da adaptação do sistema conforme a energia, oferece uma taxa de transferência maior num período mais longo. Este é um fator favorável para a abertura de novos serviços de envio de dados em tempo real ou envio de ficheiros com um tamanho mais elevado.