295 resultados para THESIS
Resumo:
A definição de teores mínimos de incorporação de biocombustíveis, constitui objeto de discussão entre grupos pro-desenvolvimento e ambientalistas. Esses últimos argumentam que as consequências da utilização desta fonte energética ainda são desconhecidas. Além disso, alegam que a produção de biocombustíveis é, em parte, responsável pelo aumento no preço dos alimentos, encoraja a conversão de florestas em monoculturas e conduz à exploração de trabalhadores em países em desenvolvimento (PEDs). Para responder à dependência energética dos combustíveis de origem fóssil, e ajudar a reduzir as emissões de gases com efeito de estufa, sobretudo no sector dos transportes, o biodiesel produzido a partir de óleos alimentares usados têm sido apontado como uma “solução verde” capaz de minimizar o problema das alterações climáticas e valorizar um resíduo, e simultaneamente conferir ao setor energético um pouco mais de independência. De forma a desmistificar e clarificar um pouco estas premissas, a presente dissertação pretende fazer um estudo de avaliação do impacto da utilização do biodiesel, nomeadamente no que diz respeito às emissões gasosas. Posteriormente realizou-se, tomando como referência uma pequena frota industrial existente, uma análise comparativa dos consumos e emissões dos principais poluentes decorrentes da utilização do biodiesel em diferentes percentagens de incorporação no gasóleo, comparativamente ao gasóleo puro. O trabalho culmina com uma abordagem técnica sobre o comportamento de um veículo equipado com um motor de ignição por compressão, utilizando como biocombustível o biodiesel.
Resumo:
A constante evolução da tecnologia permitiu ao ser humano a utilização de dispositivos electrónicos nas suas rotinas diárias. Estas podem ser afetadas quando os utilizadores sofrem de deficiências ou doenças que afetam as suas capacidades motoras. Com o intuito de minimizar este obstáculo surgiram as Interfaces Homem-Computador (HCI). É neste panorama que os sistemas HCI baseados em Eletroculografia (EOG) assumem um papel preponderante na melhoria da qualidade de vida destes indivíduos. A Eletroculografia é o resultado da aquisição do movimento ocular, que pode ser adquirido através de diversos métodos. Os métodos mais convencionais utilizam elétrodos de superfície para aquisição dos sinais elétricos, ou então, utilizam sistemas de gravação de vídeo, que gravam o movimento ocular. O objetivo desta tese é desenvolver um sistema HCI baseado em Eletroculografia, que adquire o sinal elétrico do movimento ocular através de elétrodos de superfície. Para tal desenvolveu-se um circuito eletrónico para a aquisição do sinal de EOG, bem como um algoritmo em Python para análise do mesmo. O circuito foi desenvolvido recorrendo a seis módulos diferentes, cada um deles com uma função específica. Para cada módulo foi necessário desenhar e implementar placas de circuito impresso, que quando conectadas entre si permitem filtrar, amplificar e digitalizar os sinais elétricos, adquiridos através de elétrodos de superfície, originados pelo movimento ocular. O algoritmo criado em Python permite analisar os dados provenientes do circuito e converte-os para coordenadas. Através destas foi possível determinar o sentido e a amplitude do movimento ocular.
Resumo:
Tendo em conta a popularidade que as comunicações Wi-Fi têm na atualidade em vários dispositivos como computadores portáteis, telemóveis ou tablets, sendo estes utilizados praticamente por qualquer pessoa, surgiu a ideia de utilizar esta tecnologia de baixo custo e isenta de licenciamento num cenário de comunicações marítimas. Neste contexto, esta permite fornecer o acesso à Internet em banda larga a grupos de embarcações, que atualmente recorrem a tecnologias de elevado custo (satélite) e/ou de banda estreita (rádios VHF). Com o acesso em banda larga, os proprietários poderão utilizar aplicações informáticas de interesse à atividade de negócio ou de lazer, até então só disponíveis junto à costa onde existe cobertura celular. Nesta tese pretende-se fazer um estudo teórico e prático sobre o alcance e respetivo desempenho de comunicações de banda larga em ambiente marítimo, utilizando parte da gama de frequências dos 5,8 GHz, isenta de licença, e a norma IEEE 802.11n. Para se utilizar equipamento produzido em massa a operar nessa gama, existem duas normas disponíveis, a IEEE 802.11a e a IEEE 802.11n. Optou-se pelo IEEE 802.11n pois os esquemas de codificação ao nível físico permitem débitos mais elevados e MIMO. Para a realização dos testes experimentais, foi necessário elaborar um protótipo de comunicação ponto a ponto, constituído por dois nós de comunicação. Um deles foi instalado numa embarcação de pesca em colaboração com a Associação Propeixe e o outro no Edifício Transparente, no Porto, em colaboração com a entidade gestora do edifício e a Associação Porto Digital. Tanto quanto se conhece é o primeiro teste de comunicações Wi-Fi realizado nestas condições a nível mundial. Os objetivos do trabalho foram atingidos. Foi possível estabelecer comunicações Wi-Fi na banda dos 5,8 GHz até cerca de 7 km com débito médio mínimo de 1 Mbit/s. O ambiente de testes desenvolvido e os resultados obtidos servirão de base para futuros trabalhos de investigação na área das comunicações marítimas.
Resumo:
As estradas têm vindo a sofrer um aumento de importância, sendo necessário aplicar pavimentos com melhores características, assim foram desenvolvidos os mastiques betuminosos. Os mastiques são misturas de betume com filer, este material tem propriedades melhoradas em relação ao betume puro. O betume é um material viscoelástico, o que leva a que a viscosidade seja uma propriedade de vital importância estudar. A junção de fileres ao betume promove um aumento de viscosidade, levando a que esta propriedade reológica tenha ainda mais importância, principalmente porque a trabalhabilidade da mistura betuminosa fica comprometida quando a viscosidade não é a correta. Na realização desta dissertação foram realizados ensaios em mastiques betuminosos, com recurso ao viscosímetro rotativo de Brookfield. Os mastiques ensaiados são compostos com fileres de diferentes origens e com diferentes taxas de incorporação, e assim foram analisadas as diferenças obtidas nos valores da viscosidade dinâmica. Os resultados obtidos mostram que os mastiques, à temperatura de fabrico, têm um comportamento viscoso idêntico ao comportamento viscoso do betume puro. Apesar dos mastiques produzidos terem uma viscosidade maior que a do betume puro, o valor desta propriedade reológica tende a igualar ao valor do betume, este comportamento observa-se nas temperaturas mais elevadas. Quando se examinam os resultados dos mastiques produzidos com menor quantidade de filer, na generalidade, os valores da viscosidade obtidos são idênticos. Para taxas de incorporação maiores, os valores da viscosidade dinâmica dos mastiques produzidos são bastante mais altos e distintos. Levando a concluir que quanto maior a percentagem de filer no mastique, maior o valor da viscosidade e maior dispersão dos resultados obtidos, isto para os fileres e taxas de incorporação testadas.
Resumo:
Neste documento ´e feita a descrição detalhada da integração modular de um script no software OsiriX. O objectivo deste script ´e determinar o diâmetro central da artéria aorta a partir de uma Tomografia Computorizada. Para tal são abordados conceitos relacionados com a temática do processamento de imagem digital, tecnologias associadas, e.g., a norma DICOM e desenvolvimento de software. Como estudo preliminar, são analisados diversos visualizadores de imagens médica, utilizados para investigação ou mesmo comercializados. Foram realizadas duas implementações distintas do plugin. A primeira versão do plugin faz a invocação do script de processamento usando o ficheiro de estudo armazenado em disco; a segunda versão faz a passagem de dados através de um bloco de memória partilhada e utiliza o framework Java Native Interface. Por fim, é demonstrado todo o processo de aposição da Marcação CE de um dispositivo médico de classe IIa e obtenção da declaração de conformidade por parte de um Organismo Notificado. Utilizaram-se os Sistemas Operativos Mac OS X e Linux e as linguagens de programação Java, Objective-C e Python.
Resumo:
Este trabalho pretende preencher uma lacuna no controlo difuso em todos os autómatos/controladores que usam a plataforma Codesys para a sua programação. Começando por um levantamento histórico e a respetiva compreensão do que é a lógica difusa até à análise do que existe no mercado nos dias de hoje. Será realizada uma abordagem do que é a plataforma Codesys e a utilização da norma IEC61131-3. Sendo efetuada também uma análise da norma IEC61131-7 que explica como deve ser realizado o controlo difuso em PLC. Para colmatar a lacuna existente foi desenvolvido um software tendo por base a plataforma Codesys e validado e testado com o software SoMachine da Schneider Electric. Esse software será devidamente descrito para ser entendido de uma forma fácil.
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.
Resumo:
A presente dissertação tem como principal propósito avaliar o desempenho energético e a qualidade do ar interior do edifício principal do Parque Biológico de Vila Nova de Gaia (PBG). Para esse efeito, este estudo relaciona os termos definidos na legislação nacional em vigor até à presente data, e referentes a esta área de atuação, em particular, os presentes no SCE, RSECE, RCCTE e RSECE-QAI. Para avaliar o desempenho energético, procedeu-se numa primeira fase ao processo de auditoria no local e posteriormente à realização de uma simulação dinâmica detalhada, cuja modelação do edifício foi feita com recurso ao software DesignBuilder. Após a validação do modelo simulado, por verificação do desvio entre os consumos energéticos registados nas faturas e os calculados na simulação, igual a 5,97%, foi possível efetuar a desagregação dos consumos em percentagem pelos diferentes tipos de utilizações. Foi também possível determinar os IEE real e nominal, correspondendo a 29,9 e 41.3 kgep/m2.ano, respetivamente, constatando-se através dos mesmos que o edifício ficaria dispensado de implementar um plano de racionalização energética (PRE) e que a classe energética a atribuir é a C. Contudo, foram apresentadas algumas medidas de poupança de energia, de modo a melhorar a eficiência energética do edifício e reduzir a fatura associada. Destas destacam-se duas propostas, a primeira propõe a alteração do sistema de iluminação interior e exterior do edifício, conduzindo a uma redução no consumo de eletricidade de 47,5 MWh/ano, com um período de retorno de investimento de 3,5 anos. A segunda está relacionada com a alteração do sistema de produção de água quente para o aquecimento central, através do incremento de uma caldeira a lenha ao sistema atual, que prevê uma redução de 50 MWh no consumo de gás natural e um período de retorno de investimento de cerca de 4 anos. Na análise realizada à qualidade do ar interior (QAI), os parâmetros quantificados foram os exigidos legalmente, excetuando os microbiológicos. Deste modo, para os parâmetros físicos, temperatura e humidade relativa, obtiveram-se os resultados médios de 19,7ºC e 66,9%, respetivamente, ligeiramente abaixo do previsto na legislação (20,0ºC no período em que foi feita a medição, inverno). No que diz respeito aos parâmetros químicos, os valores médios registados para as concentrações de dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCHO), partículas em suspensão (PM10) e radão, foram iguais a 580 ppm, 0,2 ppm, 0,06 ppm, 0,01 ppm, 0,07 mg/m3 e 196 Bq/m3, respetivamente, verificando-se que estão abaixo dos valores máximos de referência presentes no regulamento (984 ppm, 10,7 ppm, 0,10 ppm, 0,08 ppm, 0,15 mg/m3 e 400 Bq/m3). No entanto, o parâmetro relativo aos compostos orgânicos voláteis (COV) teve um valor médio igual a 0,84 ppm, bastante acima do valor máximo de referência (0,26 ppm). Neste caso, terá que ser realizada uma nova série de medições utilizando meios cromatográficos, para avaliar qual(ais) são o(s) agente(s) poluidor(es), de modo a eliminar ou atenuar as fontes de emissão.
Resumo:
A presente tese descreve diferentes soluções que permitem a reutilização da energia recuperada em ascensores eléctricos de roda de aderência dotados de conversores electrónicos de frequência e dessa forma contribuir para a melhoria da eficiência energética nos ascensores. Nos ascensores, a energia potencial é constantemente transferida enquanto a cabina está em movimento. Se a cabina se estiver a movimentar em sentido descendente com plena carga, ou em sentido ascendente, mas vazia, o motor estará em modo gerador. Quando a cabina se movimenta em sentido descendente, e o peso na cabina é superior ao peso do contrapeso, então o binário do motor encontra-se em sentido contrário à velocidade, isto é, o motor está a travar, havendo lugar à recuperação de energia. Igualmente, se a cabina subir vazia, também se poderá recuperar energia eléctrica. A energia acumulada em forma de energia potencial nas pessoas e no contrapeso pode ser recuperada, dado que o motor estará a funcionar como um gerador. De modo a estudar a viabilidade técnica e económica das diferentes soluções foram realizadas medições a uma amostra representativa de ascensores eléctricos de roda de aderência. Esta amostra é constituída por 39 ascensores que estão instalados em diferentes tipos de edifícios e que pertencem a diferentes categorias de utilização, de acordo com a norma VDI 4707:2009. Para cada ascensor foi medida a energia consumida e a energia gerada para uma manobra completa – a descida e a subida da cabina sem carga. A partir das medições, e com base na norma VDI 4707:2009 foram calculados os valores anualizados de energia eléctrica consumidos e produzidos por cada ascensor. A partir das 5 hipóteses identificadas para a utilização da energia recuperada (carregamento de bateria para alimentação dos circuitos em stand-by; carregamento de supercondensador para alimentação dos circuitos em stand-by; carregamento de supercondensador para alimentar o barramento DC; reinjecção da energia no barramento DC de um conjunto de ascensores em grupo; reinjecção da energia na rede eléctrica do edifício onde o ascensor está instalado) foi realizada a avaliação técnica e a avaliação económico-financeira para cada um dos ascensores. Por último, foi desenvolvido um simulador que permite definir a solução de recuperação de energia que seja técnica e economicamente mais viável, para um dado ascensor eléctrico de roda de aderência instalado, mediante a introdução dos parâmetros técnicos do ascensor em avaliação.
Resumo:
Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.
Resumo:
O planeamento de redes de distribuição tem como objetivo assegurar a existência de capacidade nas redes para a fornecimento de energia elétrica com bons níveis de qualidade de serviço tendo em conta os fatores económicos associados. No âmbito do trabalho apresentado na presente dissertação, foi elaborado um modelo de planeamento que determina a configuração de rede resultante da minimização de custos associados a: 1) perdas por efeito de joule; 2) investimento em novos componentes; 3) energia não entregue. A incerteza associada ao valor do consumo de cada carga é modelada através de lógica difusa. O problema de otimização definido é resolvido pelo método de decomposição de benders que contempla dois trânsitos de potências ótimos (modelo DC e modelo AC) no problema mestre e escravo respectivamente para validação de restrições. Foram também definidos critérios de paragem do método de decomposição de benders. O modelo proposto classifica-se como programação não linear inteira mista e foi implementado na ferramenta de otimização General Algebraic Modeling System (GAMS). O modelo desenvolvido tem em conta todos componentes das redes para a otimização do planeamento, conforme podemos analisar nos casos de estudo implementados. Cada caso de estudo é definido pela variação da importância que cada uma das variáveis do problema toma, tendo em vista cobrir de alguma todos os cenários de operação expetáveis. Através destes casos de estudo verifica-se as várias configurações que a rede pode tomar, tendo em conta as importâncias atribuídas a cada uma das variáveis, bem como os respetivos custos associados a cada solução. Este trabalho oferece um considerável contributo no âmbito do planeamento de redes de distribuição, pois comporta diferentes variáveis para a execução do mesmo. É também um modelo bastante robusto não perdendo o ‘norte’ no encontro de solução para redes de grande dimensão, com maior número de componentes.
Resumo:
Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.
Resumo:
O projeto tem como objetivo desenvolver e avaliar um modelo que facilita o acesso para pessoas surdas ou com deficiência auditiva, o acesso ao conteúdo digital - em particular o conteúdo educacional e objetos de aprendizagem – a criação de condições para uma maior inclusão social de surdos e deficientes auditivos. Pretende-se criar um modelo bidirecional, em que permite a pessoas com deficiências auditivas, possam se comunicar com outras pessoas, com a tradução da Língua Gestual Portuguesa (LGP) para a Língua Portuguesa (LP) e que outras pessoas não portadoras de qualquer deficiência auditiva possam por sua vez comunicar com os surdos ou deficientes auditivos através da tradução da LP para a LGP. Há um conjunto de técnicas que poderíamos nos apoiar para desenvolver o modelo e implementar a API de tradução da LGP em LP. Muitos estudos são feitos com base nos modelos escondidos de Markov (HMM) para efetuar o reconhecimento. Recentemente os estudos estão a caminhar para o uso de técnicas como o “Dynamic Time Warping” (DTW), que tem tido mais sucesso do que outras técnicas em termos de performance e de precisão. Neste projeto optamos por desenvolver a API e o Modelo, com base na técnica de aprendizagem Support Vector Machines (SVM) por ser uma técnica simples de implementar e com bons resultados demonstrados em reconhecimento de padrões. Os resultados obtidos utilizando esta técnica de aprendizagem foram bastante ótimos, como iremos descrever no decorrer do capítulo 4, mesmo sabendo que utilizamos dois dispositivos para capturar dados de descrição de cada gesto. Toda esta tese integra-se no âmbito do projeto científico/ investigação a decorrer no grupo de investigação GILT, sob a coordenação da professora Paula Escudeiro e suportado pela Fundação para Ciência e Tecnologia (FCT).
Resumo:
Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.
Resumo:
A crescente expansão urbana e o incremento das exigências ambientais e financeiras promovem a implementação de abordagens sustentáveis para a gestão das infraestruturas sanitárias. Assim, o recurso a instrumentos de monitorização e à modelação matemática surge como o caminho para a racionalização do investimento e a otimização dos sistemas existentes. Neste contexto, a modelação dinâmica de sistemas de drenagem urbana assume relevância para o controlo e redução dos caudais em excesso e das descargas de poluentes nos meios recetores, resultantes de um incremento significativo de afluências pluviais indevidas, de problemas de sub-dimensionamento ou falta de operação e manutenção. O objetivo da presente dissertação consiste na modelação, calibração e diagnóstico do sistema intercetor de Lordelo utilizando o software Storm Water Management Model, através dos dados recolhidos a partir do projeto de Reabilitação dos intercetores de Lordelo, elaborado pela Noraqua. A modelação considera a avaliação das afluências de tempo seco e as afluências pluviais pelo software Sanitary Sewer Overflow Analysis and Planning Toolbox. Com efeito, a simulação dinâmica, permitiu um conhecimento mais detalhado do sistema, avaliando a capacidade hidráulica e localizando os pontos propícios a inundações. Assim, foi possível testar soluções de beneficiação do sistema, englobando a problemática das afluências pluviais indevidas calibradas. Apesar das dificuldades sentidas face à qualidade dos dados existentes, verificou-se que o SSOAP e o SWMM são ferramentas úteis na deteção, diagnóstico e redução dos caudais em excesso e que o procedimento utilizado pode ser aplicado a sistemas semelhantes, como forma de definir a melhor solução técnica e económica ao nível do planeamento, operação e reabilitação do sistema.