62 resultados para Algoritmo genético

em Repositório Científico do Instituto Politécnico de Lisboa - Portugal


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A presente dissertação apresenta um conjunto de algoritmos, cujo objetivo é a determinação da capacidade máxima de energia que é possível integrar numa rede de energia elétrica, seja num único nó ou em vários nós simultaneamente. Deste modo, obtém-se uma indicação dos locais mais adequados à nova instalação de geração e quais os reforços de rede necessários, de forma a permitirem a alocação da nova energia. Foram estudados e identificados os fatores que influenciam o valor da capacidade máxima nodal, assim como as suas consequências no funcionamento da rede, em particular o carácter simultâneo associado às referidas injeções nodais. Nesse sentido, são apresentados e desenvolvidos algoritmos que têm em consideração as características técnicas da geração a ligar e as restrições físicas impostas pela rede elétrica existente. Os algoritmos desenvolvidos apresentados baseiam-se em busca gaussiana, tendo sido igualmente implementada uma heurística que tem em consideração a proximidade de outras injeções em nós adjacentes e finalmente, dada a natureza combinatória do problema, propõe-se a aplicação de algoritmos genéticos especificamente adaptados ao problema Conclui-se que os algoritmos genéticos encerram características que lhes permitem ser aplicados em qualquer topologia com resultados superiores a todos os algoritmos desenvolvidos. Os métodos apresentados foram desenvolvidos e implementados usando a linguagem de programação Python, tendo-se desenvolvido ainda um interface visual ao utilizador, baseado em wxPython, onde estão implementadas diversas ferramentas que possibilitam a execução dos algoritmos, a configuração dos seus parâmetros e ainda o acesso à informação resultante dos algoritmos em formato Excel.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica Ramo de Manutenção e Produção

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica - Ramo de Energia

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A dissertation submitted in fulfillment of the requirements to the degree of Master in Computer Science and Computer Engineering

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização de equipamentos de climatização é cada vez mais frequente, e surgem novas tecnologias para aumentar a eficiência do processo, e neste caso, a opção da instalação de um sistema de Unidade de Tratamento de Ar com Economizador é a fundamental temática deste trabalho de dissertação. O “Free-Cooling” baseia-se na utilização total ou parcial do ar exterior para proceder à climatização de um espaço, quando se verificam as condições ótimas para o processo, e quando o sistema apresenta um controlador que permita gerir a abertura dos registos face à temperatura exterior e interior medida. A análise das condições exteriores e interiores é fundamental para dimensionar um Economizador. É necessário determinar o tipo de clima do local para fazer a seleção do tipo de controlo do processo, e recolher também, o perfil de temperaturas exterior para justificar a utilização de “Free-Cooling” no local. A determinação das condições interiores como a quantificação da utilização da iluminação, ocupação e equipamentos, é necessária para determinar a potência das baterias de arrefecimento ou aquecimento, e no caso de ser utilizado “Free-Cooling”, determinar o caudal de ar exterior a insuflar. O balanço térmico das instalações explicita todas as cargas influentes no edifício, e permite quantificar a potência necessária para climatização. Depois, adicionando o Economizador no sistema e comparando os dois sistemas, verifica-se a redução dos custos de utilização da bateria de arrefecimento. O desenvolvimento de um algoritmo de controlo é fundamental para garantir a eficiência do Economizador, onde o controlo dos registos de admissão e retorno de ar é obrigatoriamente relacionado com a leitura dos sensores de temperatura exterior e interior. A quantidade de ar novo insuflado no espaço depende, por fim, da relação entre a carga sensível do local e a diferença de temperatura lida entre os dois sensores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A saturação do solo de fundação de um edifício pode estar associada a danos neste, por intermédio de assentamentos de colapso. A anulação da sucção matricial, que representa o efeito das forças inter-partículas de natureza capilar, é responsável por estes assentamentos. Neste trabalho utilizou-se um algoritmo especificamente formulado para simular os assentamentos por colapso. Foram feitas análises numéricas dos assentamentos e danos provocados na fachada em alvenaria de um edifício pela saturação ocorrida numa zona do solo de fundação. Foi estudada a influência dos seguintes factores: a sucção inicial do solo, o grau de pré-consolidação do solo e a extensão e localização da zona saturada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde o início da utilização da imunocitoquímica em anatomia patológica, um dos objectivos tem sido detectar as quantidades mais ínfimas de antigénio, tornando-o visível ao microscópio óptico. Vários sistemas de amplificação têm sido aplicados de forma a concretizar este objectivo, tendo surgido um grupo genérico de métodos simples e que apresentam uma amplificação superior: são os denominados métodos do polímero indirecto. Tendo em conta a variedade de métodos disponíveis, os autores propõem-se comparar a sensibilidade de quatro sistemas de amplificação, que recorrem ao método do polímero indirecto com horseradish peroxidase (HRP). Foram utlizadas lâminas de diferentes tecidos fixados em formol e incluídos em parafina, nos quais se procedeu à utilização de 15 antigénios distintos. Na amplificação recorreu-se a quatro sistemas de polímero indirecto (Dako EnVision+ System K4006; LabVision UltraVision LP Detection System TL-004-HD; Novocastra NovoLink RE7140-k; Vector ImmPRESS Reagent Kit MP-7402). A observação microscópica e classificação da marcação obtida foi feita com base num algoritmo que enquadra intensidade, marcação específica, contraste e fundo num score global que pode tomar valores entre 0 e 25. Para o tratamento estatístico foi utilizado o teste oneway ANOVA com post-hoc de tukey (alfa=0.05). O melhor resultado obtido em termos de par média/desvio-padrão dos scores globais foi o do NovoLink (22.4/2.37) e o pior EnVision+ (17.43/3.86). Verificou-se ainda que existite diferença estatística entre os resultados obtidos pelo sistema NovoLink e os sistemas UltraVision (p=.004), ImmPRESS (p=.000) e EnVision+ (p=.000). Concluiu-se que o sistema que permitiu a obtenção de melhores resultados, neste estudo, foi o NovoLink.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda a procura distribuída de soluções baseando-se em cenários cuja informação não esteja totalmente disponível, por não ser possível ou mesmo porque não é desejável. Os dois tipos de problemas abordados neste trabalho são: i) o problema de atribuição de tarefas, e ii) o problema de agendamento de eventos. O problema de atribuição de tarefas é ilustrado num cenário de catástrofe (atribuição de incêndios a bombeiros) cujos agentes tentam encontrar a melhor solução global de acordo com as capacidades de cada um. O problema do agendamento de eventos com múltiplos recursos, ocorre numa organiza- ção que pretende maximizar o valor do tempo dos seus empregados, enquanto preserva o valor individual (privacidade) atribuído ao evento (valor da importância relativa do evento). Estes problemas são explorados para confrontar os dois tipos de abordagem na sua resolução: centralizada e distribuída. Os problemas são formulados para resolução de maneira distribuída e centralizada, de modo a evidenciar as suas características e as situações em que fará mais sentido a utilização de cada abordagem. O desempenho a nível de tempo de execução e consumo de memória, bem como o conceito de privacidade são os pontos considerados no comparativo das abordagens centralizada e distribuída. Para analisar o problema de atribuição de tarefas e o problema de agendamento de eventos, é proposto um modelo que integra dois tipos de formulação de problemas distribuídos, e que utiliza um algoritmo distribuído para a resolução dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As comunicações electrónicas são cada vez mais o meio de eleição para negócios entre entidades e para as relações entre os cidadãos e o Estado (e-government). Esta diversidade de transacções envolve, muitas vezes, informação sensível e com possível valor legal. Neste contexto, as assinaturas electrónicas são uma importante base de confiança, fornecendo garantias de integridade e autenticação entre os intervenientes. A produção de uma assinatura digital resulta não só no valor da assinatura propriamente dita, mas também num conjunto de informação adicional acerca da mesma, como o algoritmo de assinatura, o certificado de validação ou a hora e local de produção. Num cenário heterogéneo como o descrito anteriormente, torna-se necessária uma forma flexível e interoperável de descrever esse tipo de informação. A linguagem XML é uma forma adequada de representar uma assinatura neste contexto, não só pela sua natureza estruturada, mas principalmente por ser baseada em texto e ter suporte generalizado. A recomendação XML Signature Syntax and Processing (ou apenas XML Signature) foi o primeiro passo na representação de assinaturas em XML. Nela são definidas sintaxe e regras de processamento para criar, representar e validar assinaturas digitais. As assinaturas XML podem ser aplicadas a qualquer tipo de conteúdos digitais identificáveis por um URI, tanto no mesmo documento XML que a assinatura, como noutra qualquer localização. Além disso, a mesma assinatura XML pode englobar vários recursos, mesmo de tipos diferentes (texto livre, imagens, XML, etc.). À medida que as assinaturas electrónicas foram ganhando relevância tornou-se evidente que a especificação XML Signature não era suficiente, nomeadamente por não dar garantias de validade a longo prazo nem de não repudiação. Esta situação foi agravada pelo facto da especificação não cumprir os requisitos da directiva 1999/93/EC da União Europeia, onde é estabelecido um quadro legal para as assinaturas electrónicas a nível comunitário. No seguimento desta directiva da União Europeia foi desenvolvida a especificação XML Advanced Electronic Signatures que define formatos XML e regras de processamento para assinaturas electrónicas não repudiáveis e com validade verificável durante períodos de tempo extensos, em conformidade com a directiva. Esta especificação estende a recomendação XML Signature, definindo novos elementos que contêm informação adicional acerca da assinatura e dos recursos assinados (propriedades qualificadoras). A plataforma Java inclui, desde a versão 1.6, uma API de alto nível para serviços de assinaturas digitais em XML, de acordo com a recomendação XML Signature. Contudo, não existe suporte para assinaturas avançadas. Com este projecto pretende-se desenvolver uma biblioteca Java para a criação e validação de assinaturas XAdES, preenchendo assim a lacuna existente na plataforma. A biblioteca desenvolvida disponibiliza uma interface com alto nível de abstracção, não tendo o programador que lidar directamente com a estrutura XML da assinatura nem com os detalhes do conteúdo das propriedades qualificadoras. São definidos tipos que representam os principais conceitos da assinatura, nomeadamente as propriedades qualificadoras e os recursos assinados, sendo os aspectos estruturais resolvidos internamente. Neste trabalho, a informação que compõe uma assinatura XAdES é dividia em dois grupos: o primeiro é formado por características do signatário e da assinatura, tais como a chave e as propriedades qualificadoras da assinatura. O segundo grupo é composto pelos recursos assinados e as correspondentes propriedades qualificadoras. Quando um signatário produz várias assinaturas em determinado contexto, o primeiro grupo de características será semelhante entre elas. Definiu-se o conjunto invariante de características da assinatura e do signatário como perfil de assinatura. O conceito é estendido à verificação de assinaturas englobando, neste caso, a informação a usar nesse processo, como por exemplo os certificados raiz em que o verificador confia. Numa outra perspectiva, um perfil constitui uma configuração do serviço de assinatura correspondente. O desenho e implementação da biblioteca estão também baseados no conceito de fornecedor de serviços. Um fornecedor de serviços é uma entidade que disponibiliza determinada informação ou serviço necessários à produção e verificação de assinaturas, nomeadamente: selecção de chave/certificado de assinatura, validação de certificados, interacção com servidores de time-stamp e geração de XML. Em vez de depender directamente da informação em causa, um perfil — e, consequentemente, a operação correspondente — é configurado com fornecedores de serviços que são invocados quando necessário. Para cada tipo de fornecedor de serviços é definida um interface, podendo as correspondentes implementações ser configuradas de forma independente. A biblioteca inclui implementações de todos os fornecedores de serviços, sendo algumas delas usadas for omissão na produção e verificação de assinaturas. Uma vez que o foco do projecto é a especificação XAdES, o processamento e estrutura relativos ao formato básico são delegados internamente na biblioteca Apache XML Security, que disponibiliza uma implementação da recomendação XML Signature. Para validar o funcionamento da biblioteca, nomeadamente em termos de interoperabilidade, procede-se, entre outros, à verificação de um conjunto de assinaturas produzidas por Estados Membros da União Europeia, bem como por outra implementação da especificação XAdES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Equipamentos rotativos podem ser encarados como vigas em apoios elásticos suportando um número finito de elementos concentrados ao longo do seu comprimento. Em operação, este tipo de equipamento pode ser exposto a solicitações dinâmicas severas. Com a finalidade de evitar regimes críticos, os autores propõem um algoritmo baseado no Quociente de Rayleigh, utilizando ateoria das vigas de Bernoulli-Euler. Este algoritmo permite a determinação das soluções próprias de vigas contínuas, considerando diversas condições de fronteira e o efeito da massa concentrada e inércia de rotação dos elementos suportados. Tentando reproduzir as configurações de sistemasreais são usadas diferentes condições de fronteira na formulação da teoria das vigas de Bernoulli- Euler. Salienta-se o facto dos dados analíticos serem experimentalmente verificados através de ensaios de impacto, sendo por sua vez utilizados como entradas do algoritmo de modelação, para a identificação da rigidez torsional dos apoios. Os resultados são discutidos e comparados,sempre que apropriado, com resultados já publicados. Finalmente, o trabalho futuro é delineado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho simulou-se o comportamento térmico de sistemas solares do tipo pré-fabricado (factory made systems, norma EN 12976-2:2006), utilizando os parâmetros obtidos nos relatórios necessários à sua certificação, com o objectivo de conseguir introduzir estes sistemas na base de dados do programa SolTerm. Estes sistemas podem ser ensaiados segundo dois métodos de ensaio distintos que se encontram descritos nas normas ISO 9459-2:1995 (ensaio CSTG) e na norma ISO 9459-5:2007 (ensaio DST), contudo, devido ao facto do método DST estar baseado num software em código fechado, não é possível fazer a simulação no SolTerm, fazendo com que apenas se possa introduzir sistemas cujo ensaio tenha sido realizado segundo a norma ISO 9459-2 (ensaio CSTG). Este trabalho incidiu neste ponto, tendo sido elaborado um método de cálculo que permite inserir qualquer sistema no SolTerm, independentemente do ensaio que o caracterizou. Para isso foi necessário utilizar o modelo de cálculo do DST (programa em código fechado) simulando a metodologia de ensaio do CSTG, para que se consiga fazer a aproximação entre ambos. Após determinados os coeficientes, é feita uma verificação aos dois cálculoa a fim de corroborar os resultados anteriormente determinados. Desta forma, foi possível criar um algoritmo de cálculo que permite qualquer sistema térmico do tipo pré-fabricado, ser introduzido na base de dados do SolTerm, com um erro associado inferior a 3%.