66 resultados para Algoritmo genético, Algoritmo memético e vocabulary Building
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
A utilização de equipamentos de climatização é cada vez mais frequente, e surgem novas tecnologias para aumentar a eficiência do processo, e neste caso, a opção da instalação de um sistema de Unidade de Tratamento de Ar com Economizador é a fundamental temática deste trabalho de dissertação. O “Free-Cooling” baseia-se na utilização total ou parcial do ar exterior para proceder à climatização de um espaço, quando se verificam as condições ótimas para o processo, e quando o sistema apresenta um controlador que permita gerir a abertura dos registos face à temperatura exterior e interior medida. A análise das condições exteriores e interiores é fundamental para dimensionar um Economizador. É necessário determinar o tipo de clima do local para fazer a seleção do tipo de controlo do processo, e recolher também, o perfil de temperaturas exterior para justificar a utilização de “Free-Cooling” no local. A determinação das condições interiores como a quantificação da utilização da iluminação, ocupação e equipamentos, é necessária para determinar a potência das baterias de arrefecimento ou aquecimento, e no caso de ser utilizado “Free-Cooling”, determinar o caudal de ar exterior a insuflar. O balanço térmico das instalações explicita todas as cargas influentes no edifício, e permite quantificar a potência necessária para climatização. Depois, adicionando o Economizador no sistema e comparando os dois sistemas, verifica-se a redução dos custos de utilização da bateria de arrefecimento. O desenvolvimento de um algoritmo de controlo é fundamental para garantir a eficiência do Economizador, onde o controlo dos registos de admissão e retorno de ar é obrigatoriamente relacionado com a leitura dos sensores de temperatura exterior e interior. A quantidade de ar novo insuflado no espaço depende, por fim, da relação entre a carga sensível do local e a diferença de temperatura lida entre os dois sensores.
Resumo:
Mestrado em Radioterapia.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia
Resumo:
Nos tempos actuais os equipamentos para Aquecimento Ventilação e Ar Condicionado (AVAC) ocupam um lugar de grande importância na concepção, desenvolvimento e manutenção de qualquer edifício por mais pequeno que este seja. Assim, surge a necessidade premente de racionalizar os consumos energéticos optimizando-os. A alta fiabilidade desejada nestes sistemas obriga-nos cada vez mais a descobrir formas de tornar a sua manutenção mais eficiente, pelo que é necessário prevenir de uma forma proactiva todas as falhas que possam prejudicar o bom desempenho destas instalações. Como tal, torna-se necessário detectar estas falhas/anomalias, sendo imprescíndivel que nos antecipemos a estes eventos prevendo o seu acontecimento num horizonte temporal pré-definido, permitindo actuar o mais cedo possível. É neste domínio que a presente dissertação tenta encontrar soluções para que a manutenção destes equipamentos aconteça de uma forma proactiva e o mais eficazmente possível. A ideia estruturante é a de tentar intervir ainda numa fase incipiente do problema, alterando o comportamento dos equipamentos monitorizados, de uma forma automática, com recursos a agentes inteligentes de diagnóstico de falhas. No caso em estudo tenta-se adaptar de forma automática o funcionamento de uma Unidade de Tratamento de Ar (UTA) aos desvios/anomalias detectadas, promovendo a paragem integral do sistema apenas como último recurso. A arquitectura aplicada baseia-se na utilização de técnicas de inteligência artificial, nomeadamente dos sistemas multiagente. O algoritmo utilizado e testado foi construído em Labview®, utilizando um kit de ferramentas de controlo inteligente para Labview®. O sistema proposto é validado através de um simulador com o qual se conseguem reproduzir as condições reais de funcionamento de uma UTA.
Resumo:
A presente dissertação apresenta um conjunto de algoritmos, cujo objetivo é a determinação da capacidade máxima de energia que é possível integrar numa rede de energia elétrica, seja num único nó ou em vários nós simultaneamente. Deste modo, obtém-se uma indicação dos locais mais adequados à nova instalação de geração e quais os reforços de rede necessários, de forma a permitirem a alocação da nova energia. Foram estudados e identificados os fatores que influenciam o valor da capacidade máxima nodal, assim como as suas consequências no funcionamento da rede, em particular o carácter simultâneo associado às referidas injeções nodais. Nesse sentido, são apresentados e desenvolvidos algoritmos que têm em consideração as características técnicas da geração a ligar e as restrições físicas impostas pela rede elétrica existente. Os algoritmos desenvolvidos apresentados baseiam-se em busca gaussiana, tendo sido igualmente implementada uma heurística que tem em consideração a proximidade de outras injeções em nós adjacentes e finalmente, dada a natureza combinatória do problema, propõe-se a aplicação de algoritmos genéticos especificamente adaptados ao problema Conclui-se que os algoritmos genéticos encerram características que lhes permitem ser aplicados em qualquer topologia com resultados superiores a todos os algoritmos desenvolvidos. Os métodos apresentados foram desenvolvidos e implementados usando a linguagem de programação Python, tendo-se desenvolvido ainda um interface visual ao utilizador, baseado em wxPython, onde estão implementadas diversas ferramentas que possibilitam a execução dos algoritmos, a configuração dos seus parâmetros e ainda o acesso à informação resultante dos algoritmos em formato Excel.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Dissertação de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica Ramo de Manutenção e Produção
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica - Ramo de Energia
Resumo:
A dissertation submitted in fulfillment of the requirements to the degree of Master in Computer Science and Computer Engineering
Resumo:
A saturação do solo de fundação de um edifício pode estar associada a danos neste, por intermédio de assentamentos de colapso. A anulação da sucção matricial, que representa o efeito das forças inter-partículas de natureza capilar, é responsável por estes assentamentos. Neste trabalho utilizou-se um algoritmo especificamente formulado para simular os assentamentos por colapso. Foram feitas análises numéricas dos assentamentos e danos provocados na fachada em alvenaria de um edifício pela saturação ocorrida numa zona do solo de fundação. Foi estudada a influência dos seguintes factores: a sucção inicial do solo, o grau de pré-consolidação do solo e a extensão e localização da zona saturada.
Resumo:
Desde o início da utilização da imunocitoquímica em anatomia patológica, um dos objectivos tem sido detectar as quantidades mais ínfimas de antigénio, tornando-o visível ao microscópio óptico. Vários sistemas de amplificação têm sido aplicados de forma a concretizar este objectivo, tendo surgido um grupo genérico de métodos simples e que apresentam uma amplificação superior: são os denominados métodos do polímero indirecto. Tendo em conta a variedade de métodos disponíveis, os autores propõem-se comparar a sensibilidade de quatro sistemas de amplificação, que recorrem ao método do polímero indirecto com horseradish peroxidase (HRP). Foram utlizadas lâminas de diferentes tecidos fixados em formol e incluídos em parafina, nos quais se procedeu à utilização de 15 antigénios distintos. Na amplificação recorreu-se a quatro sistemas de polímero indirecto (Dako EnVision+ System K4006; LabVision UltraVision LP Detection System TL-004-HD; Novocastra NovoLink RE7140-k; Vector ImmPRESS Reagent Kit MP-7402). A observação microscópica e classificação da marcação obtida foi feita com base num algoritmo que enquadra intensidade, marcação específica, contraste e fundo num score global que pode tomar valores entre 0 e 25. Para o tratamento estatístico foi utilizado o teste oneway ANOVA com post-hoc de tukey (alfa=0.05). O melhor resultado obtido em termos de par média/desvio-padrão dos scores globais foi o do NovoLink (22.4/2.37) e o pior EnVision+ (17.43/3.86). Verificou-se ainda que existite diferença estatística entre os resultados obtidos pelo sistema NovoLink e os sistemas UltraVision (p=.004), ImmPRESS (p=.000) e EnVision+ (p=.000). Concluiu-se que o sistema que permitiu a obtenção de melhores resultados, neste estudo, foi o NovoLink.
Resumo:
Esta dissertação aborda a procura distribuída de soluções baseando-se em cenários cuja informação não esteja totalmente disponível, por não ser possível ou mesmo porque não é desejável. Os dois tipos de problemas abordados neste trabalho são: i) o problema de atribuição de tarefas, e ii) o problema de agendamento de eventos. O problema de atribuição de tarefas é ilustrado num cenário de catástrofe (atribuição de incêndios a bombeiros) cujos agentes tentam encontrar a melhor solução global de acordo com as capacidades de cada um. O problema do agendamento de eventos com múltiplos recursos, ocorre numa organiza- ção que pretende maximizar o valor do tempo dos seus empregados, enquanto preserva o valor individual (privacidade) atribuído ao evento (valor da importância relativa do evento). Estes problemas são explorados para confrontar os dois tipos de abordagem na sua resolução: centralizada e distribuída. Os problemas são formulados para resolução de maneira distribuída e centralizada, de modo a evidenciar as suas características e as situações em que fará mais sentido a utilização de cada abordagem. O desempenho a nível de tempo de execução e consumo de memória, bem como o conceito de privacidade são os pontos considerados no comparativo das abordagens centralizada e distribuída. Para analisar o problema de atribuição de tarefas e o problema de agendamento de eventos, é proposto um modelo que integra dois tipos de formulação de problemas distribuídos, e que utiliza um algoritmo distribuído para a resolução dos mesmos.
Resumo:
As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.
Resumo:
Os edifícios estão a ser construídos com um número crescente de sistemas de automação e controlo não integrados entre si. Esta falta de integração resulta num caos tecnológico, o que cria dificuldades nas três fases da vida de um edifício, a fase de estudo, a de implementação e a de exploração. O desenvolvimento de Building Automation System (BAS) tem como objectivo assegurar condições de conforto, segurança e economia de energia. Em edifícios de grandes dimensões a energia pode representar uma percentagem significativa da factura energética anual. Um BAS integrado deverá contribuir para uma diminuição significativa dos custos de desenvolvimento, instalação e gestão do edifício, o que pode também contribuir para a redução de CO2. O objectivo da arquitectura proposta é contribuir para uma estratégia de integração que permita a gestão integrada dos diversos subsistemas do edifício (e.g. aquecimento, ventilação e ar condicionado (AVAC), iluminação, segurança, etc.). Para realizar este controlo integrado é necessário estabelecer uma estratégia de cooperação entre os subsistemas envolvidos. Um dos desafios para desenvolver um BAS com estas características consistirá em estabelecer a interoperabilidade entre os subsistemas como um dos principais objectivos a alcançar, dado que o fornecimento dos referidos subsistemas assenta normalmente numa filosofia multi-fornecedor, sendo desenvolvidos usando tecnologias heterogéneas. Desta forma, o presente trabalho consistiu no desenvolvimento de uma plataforma que se designou por Building Intelligence Open System (BIOS). Na implementação desta plataforma adoptou-se uma arquitectura orientada a serviços ou Service Oriented Architecture (SOA) constituída por quatro elementos fundamentais: um bus cooperativo, denominado BIOSbus, implementado usando Jini e JavaSpaces, onde todos os serviços serão ligados, disponibilizando um mecanismo de descoberta e um mecanismo que notificada as entidades interessadas sobre alterações do estado de determinado componente; serviços de comunicação que asseguram a abstracção do Hardware utilizado da automatização das diversas funcionalidades do edifício; serviços de abstracção de subsistemas no acesso ao bus; clientes, este podem ser nomeadamente uma interface gráfica onde é possível fazer a gestão integrada do edifício, cliente de coordenação que oferece a interoperabilidade entre subsistemas e os serviços de gestão energética que possibilita a activação de algoritmos de gestão racional de energia eléctrica.