91 resultados para Algoritmo de Colisão de Partículas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A composição musical é um tema de muito interesse para a computação evolucionária dentro da área da inteligência artificial. É uma área que tem sofrido vários desenvolvimentos ao longo dos últimos anos pois o interesse em que hajam computadores que façam obras musicais é deveras aliciante. Este trabalho tem por objectivo realizar mais um passo nesse sentido. Assim, foi desenvolvida uma aplicação informática que realiza composições musicais de dois géneros distintos: Músicas Infantis e Músicas Blues. A aplicação foi implementada com recurso aos Algoritmos Genéticos, que são os algoritmos evolucionários mais populares da área da computação evolucionária. O trabalho foi estruturado em duas fases de desenvolvimento. Na primeira fase, realizou-se um levantamento estatístico sobre as características específicas de cada um dos géneros musicais. Analisaram-se quinze músicas de cada género musical, com o intuito de se chegar a uma proporção do uso que cada nota tem em cada um dos casos. Na segunda fase, desenvolveu-se o software que compõe as músicas com implementação de um algoritmo genético. Além disso, foi também desenvolvida uma interface gráfica que permite ao utilizador a escolha do género musical que pretende compor. O algoritmo genético começa por gerar uma população inicial de potenciais soluções de acordo com a escolha do utilizador, realizando, de seguida, o ciclo que caracteriza o algoritmo genético. A população inicial é constituída por soluções que seguem as regras que foram implementadas de acordo com os dados recolhidos ao longo da primeira fase. Foi também implementada uma interface de avaliação, através da qual, o utilizador pode ouvir cada uma das músicas para posterior avaliação em termos de fitness. O estado de evolução do algoritmo é apresentado, numa segunda interface, a qual facilita a clareza e justiça na avaliação ao longo de todo o processo. Esta última apresenta informação sobre a média das fitness da geração anterior e actual, sendo assim possível ter uma noção da evolução do algoritmo, no sentido de se obterem resultados satisfatórios no que diz respeito às composições musicais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sequente dissertação resulta do desenvolvimento de um sistema de navegação subaquático para um Remotely Operated Vehicle (ROV). A abordagem proposta consiste de um algoritmo em tempo real baseado no método de Mapeamento e Localização Simultâneo (SLAM) a partir de marcadores em ambientes marinhos não estruturados. SLAM introduz dois principais desafios: (i) reconhecimento dos marcadores provenientes dos dados raw do sensor, (ii) associação de dados. Na detecção dos marcadores foram aplicadas técnicas de visão artificial baseadas na extracção de pontos e linhas. Para testar o uso de features no visual SLAM em tempo real nas operações de inspecção subaquáticas foi desenvolvida uma plataforma modicada do RT-SLAM que integra a abordagem EKF SLAM. A plataforma é integrada em ROS framework e permite estimar a trajetória 3D em tempo real do ROV VideoRay Pro 3E até 30 fps. O sistema de navegação subaquático foi caracterizado num tanque instalado no Laboratório de Sistemas Autónomos através de um sistema stereo visual de ground truth. Os resultados obtidos permitem validar o sistema de navegação proposto para veículos subaquáticos. A trajetória adquirida pelo VideoRay em ambiente controlado é validada pelo sistema de ground truth. Dados para ambientes não estruturados, como um gasoduto, foram adquiridos e obtida respectiva trajetória realizada pelo robô. Os dados apresentados comprovam uma boa precisão e exatidão para a estimativa da posição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A intervenção humana no manuseamento de veículos submarinos operados remotamente (ROVs) é um requisito necessário para garantir o sucesso da missão e a integridade do equipamento. Contudo, a sua teleoperação não é fácil, pelo que a condução assistida destes veículos torna-se relevante. Esta dissertação propõe uma solução para este problema para ROVs de 3DOF (surge, heave e yaw). São propostas duas abordagens distintas – numa primeira propõe-se um sistema de controlo Image Based Visual Servoing (IBVS) tendo em vista a utilização exclusiva de uma câmara (sensor existente neste tipo de sistemas) por forma a melhorar significativamente a teleoperação de um pequeno ROV; na segunda, propõe-se um sistema de controlo cinemático para o plano horizontal do veículo e um algoritmo de uma manobra capaz de dotar o ROV de movimento lateral através de uma trajectória dente-de-serra. Demonstrou-se em cenários de operação real que o sistema proposto na primeira abordagem permite ao operador de um ROV com 3DOF executar tarefas de alguma complexidade (estabilização) apenas através de comandos de alto nível, melhorando assim drasticamente a teleoperação e qualidade de inspecção do veículo em questão. Foi também desenvolvido um simulador do ROV em MATLAB para validação e avaliação das manobras, onde o sistema proposto na segunda abordagem foi validado com sucesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A constante evolução da tecnologia permitiu ao ser humano a utilização de dispositivos electrónicos nas suas rotinas diárias. Estas podem ser afetadas quando os utilizadores sofrem de deficiências ou doenças que afetam as suas capacidades motoras. Com o intuito de minimizar este obstáculo surgiram as Interfaces Homem-Computador (HCI). É neste panorama que os sistemas HCI baseados em Eletroculografia (EOG) assumem um papel preponderante na melhoria da qualidade de vida destes indivíduos. A Eletroculografia é o resultado da aquisição do movimento ocular, que pode ser adquirido através de diversos métodos. Os métodos mais convencionais utilizam elétrodos de superfície para aquisição dos sinais elétricos, ou então, utilizam sistemas de gravação dedeo, que gravam o movimento ocular. O objetivo desta tese é desenvolver um sistema HCI baseado em Eletroculografia, que adquire o sinal elétrico do movimento ocular através de elétrodos de superfície. Para tal desenvolveu-se um circuito eletrónico para a aquisição do sinal de EOG, bem como um algoritmo em Python para análise do mesmo. O circuito foi desenvolvido recorrendo a seis módulos diferentes, cada um deles com uma função específica. Para cada módulo foi necessário desenhar e implementar placas de circuito impresso, que quando conectadas entre si permitem filtrar, amplificar e digitalizar os sinais elétricos, adquiridos através de elétrodos de superfície, originados pelo movimento ocular. O algoritmo criado em Python permite analisar os dados provenientes do circuito e converte-os para coordenadas. Através destas foi possível determinar o sentido e a amplitude do movimento ocular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como principal propósito avaliar o desempenho energético e a qualidade do ar interior do edifício principal do Parque Biológico de Vila Nova de Gaia (PBG). Para esse efeito, este estudo relaciona os termos definidos na legislação nacional em vigor até à presente data, e referentes a esta área de atuação, em particular, os presentes no SCE, RSECE, RCCTE e RSECE-QAI. Para avaliar o desempenho energético, procedeu-se numa primeira fase ao processo de auditoria no local e posteriormente à realização de uma simulação dinâmica detalhada, cuja modelação do edifício foi feita com recurso ao software DesignBuilder. Após a validação do modelo simulado, por verificação do desvio entre os consumos energéticos registados nas faturas e os calculados na simulação, igual a 5,97%, foi possível efetuar a desagregação dos consumos em percentagem pelos diferentes tipos de utilizações. Foi também possível determinar os IEE real e nominal, correspondendo a 29,9 e 41.3 kgep/m2.ano, respetivamente, constatando-se através dos mesmos que o edifício ficaria dispensado de implementar um plano de racionalização energética (PRE) e que a classe energética a atribuir é a C. Contudo, foram apresentadas algumas medidas de poupança de energia, de modo a melhorar a eficiência energética do edifício e reduzir a fatura associada. Destas destacam-se duas propostas, a primeira propõe a alteração do sistema de iluminação interior e exterior do edifício, conduzindo a uma redução no consumo de eletricidade de 47,5 MWh/ano, com um período de retorno de investimento de 3,5 anos. A segunda está relacionada com a alteração do sistema de produção de água quente para o aquecimento central, através do incremento de uma caldeira a lenha ao sistema atual, que prevê uma redução de 50 MWh no consumo de gás natural e um período de retorno de investimento de cerca de 4 anos. Na análise realizada à qualidade do ar interior (QAI), os parâmetros quantificados foram os exigidos legalmente, excetuando os microbiológicos. Deste modo, para os parâmetros físicos, temperatura e humidade relativa, obtiveram-se os resultados médios de 19,7ºC e 66,9%, respetivamente, ligeiramente abaixo do previsto na legislação (20,0ºC no período em que foi feita a medição, inverno). No que diz respeito aos parâmetros químicos, os valores médios registados para as concentrações de dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCHO), partículas em suspensão (PM10) e radão, foram iguais a 580 ppm, 0,2 ppm, 0,06 ppm, 0,01 ppm, 0,07 mg/m3 e 196 Bq/m3, respetivamente, verificando-se que estão abaixo dos valores máximos de referência presentes no regulamento (984 ppm, 10,7 ppm, 0,10 ppm, 0,08 ppm, 0,15 mg/m3 e 400 Bq/m3). No entanto, o parâmetro relativo aos compostos orgânicos voláteis (COV) teve um valor médio igual a 0,84 ppm, bastante acima do valor máximo de referência (0,26 ppm). Neste caso, terá que ser realizada uma nova série de medições utilizando meios cromatográficos, para avaliar qual(ais) são o(s) agente(s) poluidor(es), de modo a eliminar ou atenuar as fontes de emissão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A satisfação das necessidades energéticas mundiais, cada vez mais exigentes, bem como a necessidade urgente de procurar caminhos que permitam usufruir de energia, da forma menos poluente possível, levam à necessidade de serem explorados caminhos que permitam cumprir estes pressupostos. A escolha da utilização das energias renováveis na produção de energia, torna-se cada vez mais interessante, quer do ponto de vista ambiental quer económico. O fundamento da lógica difusa está associado à recolha de informações vagas, que são no fundo uma linguagem falada por seres humanos, possibilitando a passagem deste tipo de linguagem para formato numérico, permitindo assim uma manipulação computacional. Elementos climáticos como o sol e o vento, podem ser descritos em forma de variáveis linguísticas, como é o caso de vento forte, temperatura baixa, irradiação fraca, etc. Isto faz com que a aplicação de um controlo a partir destes fenómenos, justifique ser realizado com recurso a sistemas de inferência difusa. Para a realização do trabalho proposto, foram consumados estudos relativos às energias renováveis, com particular enfoque na solar e na eólica. Também foi realizado um estudo dos conceitos pertencentes à lógica difusa e a sistemas de inferência difusa com o objetivo de perceber os diversos parâmetros constituintes desta matéria. Foi realizado o estudo e desenvolvimento de um sistema de aquisição de dados, bem como do controlador difuso que é o busílis do trabalho descrito neste relatório. Para tal, o trabalho foi efetuado com o recurso ao software MATLAB, a partir do qual foram desenvolvidas aplicações que possibilitaram a obtenção de dados climáticos, com vista à sua utilização na toolbox Fuzzy Logic a qual foi utilizada para o desenvolvimento de todo o algoritmo de controlo. Com a possibilidade de aquisição de dados concluída e das variáveis que iriam ser necessárias definidas, foi implementado o controlador difuso que foi sendo sintonizado ao longo do trabalho por forma a garantir os melhores resultados possíveis. Com o recurso à ferramenta Guide, também do MATLAB, foi criada a interface do sistema com o utilizador, sendo possível a averiguação da energia a ser produzida, bem como das contribuições de cada uma das fontes de energia renováveis para a obtenção dessa mesma energia. Por último, foi feita uma análise de resultados através da comparação entre os valores reais esperados e os valores obtidos pelo controlador difuso, bem como assinaladas conclusões e possibilidades de desenvolvimentos futuros deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje usar o transporte público para nos deslocarmos de uma determinada origem para um determinado destino é uma realidade na vida da maioria das pessoas. Muitas destas deslocações fazem parte da rotina diária do cidadão, que depende destes transportes para as suas atividades do dia-a-dia. Nos últimos anos, o número de cidadãos que usa os transportes públicos como meio de deslocação tem vindo a aumentar consideravelmente. Contudo, a maioria dos operadores de transportes públicos pecam pela falta de pontualidade dos seus serviços, e pela falta de informação disponível ao cidadão acerca dos horários dos mesmos em tempo real. Tendo este problema em conta, foi desenvolvida uma solução capaz de realizar uma previsão do tempo de chegada de um transporte público, ao longo de todo o seu serviço. Previsão essa que é atualizada ao longo do percurso de forma a reduzir a margem de erro da informação apresentada. Com esta informação o cidadão pode planear melhor o seu dia e decidir qual é a melhor altura para se deslocar para a paragem, evitando ao máximo a perda de tempo à espera do seu transporte público. A solução final foi desenvolvida com a ajuda da empresa BEWARE e teve como objetivo a criação de uma aplicação web capaz de apresentar os tempos de espera dos autocarros em diferentes tipos de vista, bem como o acompanhamento do mesmo ao longo do percurso. Toda a informação utilizada na aplicação web foi criada por dois serviços de apoio que efetuam o controlo do autocarro ao longo do percurso, bem como os cálculos da previsão dos tempos de espera. O projeto foi dividido em quatro constituintes que foram repetidas durante o desenvolvimento da solução. A primeira constou na análise do problema, no levantamento e definição dos requisitos. A segunda incluiu o desenvolvimento de um algoritmo capaz de validar a posição do autocarro ao longo do seu percurso, detetando a paragem onde este se encontra e a hora de chegada à mesma. A terceira abrangeu o desenvolvimento de um algoritmo capaz de prever o tempo de chegada de um autocarro às paragens definidas na sua rota, recorrendo ao histórico de viagens realizadas anteriormente. A quarta consistiu no desenvolvimento da aplicação web, implementando todas as funcionalidades necessárias para que a aplicação consiga realizar o acompanhamento do autocarro no percurso, a consulta dos tempos de chegada e da previsão dos tempos às paragens seguintes recorrendo a três tipos de vistas diferentes, e a possibilidade de agendar notificações de forma a receber no email as previsões dos tempos de chegada nos dias e horas mais significativos para o utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos, vários esforços e estudos foram feitos com o objetivo de colocar a fibra ótica no mercado, como um sistema preferencial de monitorização das mais diversas obras de Engenharia. Os sensores baseados na tecnologia em fibra ótica apresentam vantagens reconhecidas pelos mais diversos especialistas, sendo atualmente reconhecida como uma das soluções mais eficazes. Na engenharia Civil, a monitorização das grandes obras tem ganho uma importância crescente. Neste contexto, a monitorização de convergências em túneis visa o controlo da respectiva integridade estrutural ao longo da construção e a exploração da obra. Atualmente a solução de monitorização estrutural de túneis utilizada pela FiberSensing é uma solução desenhada em conjunto com a EPOS e o Cegeo (IST), baseada em sensores de Bragg em Fibra Ótica: o SysTunnel. O objetivo do estudo de uma solução alternativa encontra-se no facto do SysTunnel apresentar algumas debilidades no algoritmo de cálculo, sendo para o seu cálculo necessário a introdução de um parâmetro relacionado com o solo envolvente do túnel, facto que introduz incertezas no cálculo das convergências. O presente relatório tem como finalidade documentar o estágio curricular realizado na FiberSensing, entre 01/02/2014 a 31/07/2014. Este estágio teve como objetivo o desenvolvimento de uma solução alternativa de monitorização estrutural baseada na tecnologia das redes de Bragg para a monitorização das convergências em túneis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento foi redigido no âmbito da Tese, do Mestrado em Engenharia Informática na área de Tecnologias do Conhecimento e Decisão, do Departamento de Engenharia Informática, do ISEP, cujo tema é classificação de sons cardíacos usando motifs. Neste trabalho, apresenta-se um algoritmo de classificação de sons cardíacos, capaz de identificar patologias cardíacas. A classificação do som cardíaco é um trabalho desafiante dada a dificuldade em separar os sons ambiente (vozes, respiração, contacto do microfone com superfícies como pele ou tecidos) ou de ruído dos batimentos cardíacos. Esta abordagem seguiu a metodologia de descoberta de padrões SAX (motifs) mais frequentes, em séries temporais relacionando-os com a ocorrência sistólica (S1) e a ocorrência diastólica (S2) do coração. A metodologia seguida mostrou-se eficaz a distinguir sons normais de sons correspondentes a patologia. Os resultados foram publicados na conferência internacional IDEAS’14 [Oliveira, 2014], em Julho deste ano. Numa fase seguinte, desenvolveu-se uma aplicação móvel, capaz de captar os batimentos cardíacos, de os tratar e os classificar. A classificação dos sons é feita usando o método referido no parágrafo anterior. A aplicação móvel, depois de tratar os sons, envia-os para um servidor, onde o programa de classificação é executado, e recebe a resposta da classificação. É também descrita a arquitetura aplicacional desenhada e as componentes que a constituem, as ferramentas e tecnologias utilizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a massificação do uso da tecnologia no dia-a-dia, os sistemas de localização têm vindo a aumentar a sua popularidade, devido à grande diversidade de funcionalidades que proporcionam e aplicações a que se destinam. No entanto, a maior parte dos sistemas de posicionamento não funcionam adequadamente em ambientes indoor, impedindo o desenvolvimento de aplicações de localização nestes ambientes. Os acelerómetros são muito utilizados nos sistemas de localização inercial, pelas informações que fornecem acerca das acelerações sofridas por um corpo. Para tal, neste trabalho, recorrendo à análise do sinal de aceleração provindo de um acelerómetro, propõe-se uma técnica baseada na deteção de passos para que, em aplicações futuras, possa constituir-se como um recurso a utilizar para calcular a posição do utilizador dentro de um edifício. Neste sentido, este trabalho tem como objetivo contribuir para o desenvolvimento da análise e identificação do sinal de aceleração obtido num pé, por forma a determinar a duração de um passo e o número de passos dados. Para alcançar o objetivo de estudo foram analisados, com recurso ao Matlab, um conjunto de 12 dados de aceleração (para marcha normal, rápida e corrida) recolhidos por um sistema móvel (e provenientes de um acelerómetro). A partir deste estudo exploratório tornou-se possível apresentar um algoritmo baseado no método de deteção de pico e na utilização de filtros de mediana e Butterworth passa-baixo para a contagem de passos, que apresentou bons resultados. Por forma a validar as informações obtidas nesta fase, procedeu-se, seguidamente, à realização de um conjunto de testes experimentais a partir da recolha de 33 novos dados para a marcha e corrida. Identificaram-se o número de passos efetuados, o tempo médio de passo e da passada e a percentagem de erro como as variáveis em estudo. Obteve-se uma percentagem de erro igual a 1% para o total dos dados recolhidos de 20, 100, 500 e 1000 passos com a aplicação do método proposto para a contagem do passo. Não obstante as dificuldades observadas na análise dos sinais de aceleração relativos à corrida, o algoritmo proposto mostrou bom desempenho, conseguindo valores próximos aos esperados. Os resultados obtidos permitem afirmar que foi possível atingir-se o objetivo de estudo com sucesso. Sugere-se, no entanto, o desenvolvimento de futuras investigações de forma a alargar estes resultados em outras direções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A turvação é uma das principais preocupações das empresas de rede de distribuição de água potável. Para se saber a sua origem existem diversos mecanismos, sugeridos em bibliografia, que explicam a formação de depósitos de partículas nas tubagens, que se acumulam em camadas sobrepostas, criando entre si forças de coesão. A turvação pode surgir se o caudal ou a velocidade na tubagem aumentar, por alguma razão, pois um aumento da tensão de corte sobre o depósito, pode superar as forças de coesão levando à sua ressuspensão. Esta explicação é traduzida matematicamente pelo modelo PODDS (Prediction of Discolouration in Drinking Water Distribtuion System). O modelo PODDS foi compilado em EPANET recentemente por uma equipa de investigadores da Universidade de Sheffield e foi utilizado para fazer o estudo num ramal da empresa AdDP - Águas do Douro e Paiva, SA. Os resultados das simulações permitirão prever o caudal mínimo teórico a utilizar no ramal que origina o valor limite de turvação. Foram realizados ensaios de variação do caudal no ramal de Jovim-Ramalde para a calibração do modelo. Os parâmetros obtidos foram: Cmáx igual a 100 NTUm, b e n igual a 1, k é igual -1 NTUm3/N, e por fim, P igual a 0,0001 NTUm3/N.s. Após calibração do modelo realizaram-se simulações com atualização das forças de coesão para conhecer o caudal que provocaria a mobilização das partículas até uma turvação de 4 NTU e concluiu-se que o valor seria de 4,32 m3/s. O tempo necessário para regressar a valores inferiores a 1 NTU também foi determinado e 4 horas e 8 minutos foi o valor alcançado. Por fim realizou-se um estudo da influência da temperatura neste modelo e o resultado mostrou que este parâmetro é pouco influente para a gama de temperaturas considerada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos, os scanners 3D têm tido uma utilização crescente nas mais variadas áreas. Desde a Medicina à Arqueologia, passando pelos vários tipos de indústria, ´e possível identificar aplicações destes sistemas. Essa crescente utilização deve-se, entre vários factores, ao aumento dos recursos computacionais, à simplicidade e `a diversidade das técnicas existentes, e `as vantagens dos scanners 3D comparativamente com outros sistemas. Estas vantagens são evidentes em áreas como a Medicina Forense, onde a fotografia, tradicionalmente utilizada para documentar objectos e provas, reduz a informação adquirida a duas dimensões. Apesar das vantagens associadas aos scanners 3D, um factor negativo é o preço elevado. No âmbito deste trabalho pretendeu-se desenvolver um scanner 3D de luz estruturada económico e eficaz, e um conjunto de algoritmos para o controlo do scanner, para a reconstrução de superfícies de estruturas analisadas, e para a validação dos resultados obtidos. O scanner 3D implementado ´e constituído por uma câmara e por um projector dedeo ”off-the-shelf”, e por uma plataforma rotativa desenvolvida neste trabalho. A função da plataforma rotativa consiste em automatizar o scanner de modo a diminuir a interação dos utilizadores. Os algoritmos foram desenvolvidos recorrendo a pacotes de software open-source e a ferramentas gratuitas. O scanner 3D foi utilizado para adquirir informação 3D de um crânio, e o algoritmo para reconstrução de superfícies permitiu obter superfícies virtuais do crânio. Através do algoritmo de validação, as superfícies obtidas foram comparadas com uma superfície do mesmo crânio, obtida por tomografia computorizada (TC). O algoritmo de validação forneceu um mapa de distâncias entre regiões correspondentes nas duas superfícies, que permitiu quantificar a qualidade das superfícies obtidas. Com base no trabalho desenvolvido e nos resultados obtidos, é possível afirmar que foi criada uma base funcional para o varrimento de superfícies 3D de estruturas, apta para desenvolvimento futuro, mostrando que é possível obter alternativas aos métodos comerciais usando poucos recursos financeiros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação teve como finalidade a realização de uma Auditoria Energética e da Qualidade do Ar Interior ao edifício de serviços da Câmara Municipal de Vila Nova de Gaia. No intuito de alcançar esta finalidade foram seguidos, em todo o processo, os regulamentos em vigor até à presente data da dissertação, de apoio à especialidade, nomeadamente o Regulamento das Características de Comportamento Térmico dos Edifícios, Regulamento dos Sistemas Energéticos de Climatização em Edifícios e Regulamento dos Sistemas Energéticos de Climatização em Edifícios e da Qualidade do Ar Interior. Na análise à Qualidade do Ar Interior foram verificados quase todos os parâmetros impostos por lei, exceto os das bactérias e dos fungos. Para as substâncias como dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCOH) e radão, os valores em média foram iguais a 894 ppm, 1,23 ppm, 0,07 ppm, 0,01 ppm e 378 Bq/m3 e estavam dentro dos limites regulamentares (984 ppm, 10,7ppm, 0,10 ppm, 0,08 ppm e 400 Bq/m3). Para os compostos orgânicos voláteis (COVs) e partículas do tipo PM10, os valores respetivos foram em média de 0,70 ppm e 0,16 mg/m3 e estavam acima dos limites regulamentares (0,26 ppm, 0,15 mg/m3). Admite-se que existem fontes emissoras de COVs dentro do edifício e que, para uma adequação ao tipo de tratamento ou sugestão de melhoria, seria necessário realizar uma análise por cromatografia de forma a identificar os compostos em causa. As concentrações de PM10 mais elevadas explicam-se porque existe uma abertura direta desses espaços ao exterior e em alguns casos esta é permanente. A análise energética permitiu um levantamento de todos os consumos de energia elétrica do edifício, realizando deste modo a desagregação em percentagem de cada equipamento consumidor. Em paralelo e até para se poder realizar a certificação energética do edifício foi realizado um estudo de simulação térmica dinâmica recorrendo ao programa DesignBuilder v2. Criou-se um modelo do edifício que foi validado após simulação e comparação com o consumo elétrico do ano de referência (desvio de 2,78%). Pela simulação verificou-se que os maiores consumidores de energia são a iluminação interior e o sistema de arrefecimento e determinou-se os Indicadores de Eficiência Energética (IEE) Real (com correção climática) e Nominal com valores de 73,8 e 46,5 , respetivamente. Implementando as condições nominais de utilização e funcionamento no edifício, segundo o Regulamento dos Sistemas Energéticos de vi Climatização em Edifícios (RSECE), concluiu-se que a classe energética deste edifício é do tipo D. O valor do IEE nominal foi superior ao IEE referência de 35,5 , e o requisito legal não se verificou. Assim, foi necessário apresentar medidas para um plano de racionalização energética (PRE). Nas medidas estudadas de melhoria da eficiência energética (aplicação de películas solares, compensação do fator de potência, instalação de um sistema de minigeração fotovoltaico e aplicação de iluminação eficiente tanto no interior como no exterior do edifício) destaca-se a correção do fator de potência, pois o valor pago de energia reactiva em 2011 foi de cerca de 1500 €. Admitindo ser necessário redimensionar os condensadores e que o custo é 1.840,00 €, ter-se-á um retorno do investimento em 1,2 anos. Outra medida é a aplicação de películas solares nos envidraçados com um custo de 5.046,00 €, esta terá um período de retorno de 1 ano e uma poupança de 37,90 MWh/ano. Finalmente refere-se a instalação de reguladores de tensão e substituição de determinadas lâmpadas por LEDs na iluminação interior, que prevê uma poupança anual de 25 MWh/ano e um período de retorno do investimento de 3,7 anos.