54 resultados para simulacio computacional
Resumo:
The main purpose of this work was the development of procedures for the simulation of atmospheric ows over complex terrain, using OpenFOAM. For this aim, tools and procedures were developed apart from this code for the preprocessing and data extraction, which were thereafter applied in the simulation of a real case. For the generation of the computational domain, a systematic method able to translate the terrain elevation model to a native OpenFOAM format (blockMeshDict) was developed. The outcome was a structured mesh, in which the user has the ability to de ne the number of control volumes and its dimensions. With this procedure, the di culties of case set up and the high computation computational e ort reported in literature associated to the use of snappyHexMesh, the OpenFOAM resource explored until then for the accomplishment of this task, were considered to be overwhelmed. Developed procedures for the generation of boundary conditions allowed for the automatic creation of idealized inlet vertical pro les, de nition of wall functions boundary conditions and the calculation of internal eld rst guesses for the iterative solution process, having as input experimental data supplied by the user. The applicability of the generated boundary conditions was limited to the simulation of turbulent, steady-state, incompressible and neutrally strati ed atmospheric ows, always recurring to RaNS (Reynolds-averaged Navier-Stokes) models. For the modelling of terrain roughness, the developed procedure allowed to the user the de nition of idealized conditions, like an uniform aerodynamic roughness length or making its value variable as a function of topography characteristic values, or the using of real site data, and it was complemented by the development of techniques for the visual inspection of generated roughness maps. The absence and the non inclusion of a forest canopy model limited the applicability of this procedure to low aerodynamic roughness lengths. The developed tools and procedures were then applied in the simulation of a neutrally strati ed atmospheric ow over the Askervein hill. In the performed simulations was evaluated the solution sensibility to di erent convection schemes, mesh dimensions, ground roughness and formulations of the k - ε and k - ω models. When compared to experimental data, calculated values showed a good agreement of speed-up in hill top and lee side, with a relative error of less than 10% at a height of 10 m above ground level. Turbulent kinetic energy was considered to be well simulated in the hill windward and hill top, and grossly predicted in the lee side, where a zone of ow separation was also identi ed. Despite the need of more work to evaluate the importance of the downstream recirculation zone in the quality of gathered results, the agreement between the calculated and experimental values and the OpenFOAM sensibility to the tested parameters were considered to be generally in line with the simulations presented in the reviewed bibliographic sources.
Resumo:
Buildings account for 40% of total energy consumption in the European Union. The reduction of energy consumption in the buildings sector constitute an important measure needed to reduce the Union's energy dependency and greenhouse gas emissions. The Portuguese legislation incorporate this principles in order to regulate the energy performance of buildings. This energy performance should be accompanied by good conditions for the occupants of the buildings. According to EN 15251 (2007) the four factors that affect the occupant comfort in the buildings are: Indoor Air Quality (IAQ), thermal comfort, acoustics and lighting. Ventilation directly affects all except the lighting, so it is crucial to understand the performance of it. The ventilation efficiency concept therefore earn significance, because it is an attempt to quantify a parameter that can easily distinguish the different options for air diffusion in the spaces. The two indicators most internationally accepted are the Air Change Efficiency (ACE) and the Contaminant Removal Effectiveness (CRE). Nowadays with the developed of the Computational Fluid Dynamics (CFD) the behaviour of ventilation can be more easily predicted. Thirteen strategies of air diffusion were measured in a test chamber through the application of the tracer gas method, with the objective to validate the calculation by the MicroFlo module of the IES-VE software for this two indicators. The main conclusions from this work were: that the values of the numerical simulations are in agreement with experimental measurements; the value of the CRE is more dependent of the position of the contamination source, that the strategy used for the air diffusion; the ACE indicator is more appropriate for quantifying the quality of the air diffusion; the solutions to be adopted, to maximize the ventilation efficiency should be, the schemes that operate with low speeds of supply air and small differences between supply air temperature and the room temperature.
Resumo:
Mestrado em Engenharia Civil – Ramo Estruturas
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores - Ramo de Sistemas Autónomos
Resumo:
Mestrado em Engenharia Informática, Área de Especialização em Tecnologias do Conhecimento e da Decisão
Resumo:
A exploração do meio subaquático utilizando visão computacional é ainda um processo complexo. Geralmente são utilizados sistemas de visão baseados em visão stereo, no entanto, esta abordagem apresenta limitações, é pouco precisa e é exigente em termos computacionais quando o meio de operação é o subaquático. Estas limitações surgem principalmente em dois cenários de aplicação: quando existe escassez de iluminação e em operações junto a infraestruturas subaquáticas. Consequentemente, a solução reside na utilização de fontes de informação sensorial alternativas ou complementares ao sistema de visão computacional. Neste trabalho propõe-se o desenvolvimento de um sistema de percepção subaquático que combina uma câmara e um projetor laser de um feixe em linha, onde o projetor de luz estruturada _e utilizado como fonte de informação. Em qualquer sistema de visão computacional, e ainda mais relevante em sistemas baseados em triangulação, a sua correta calibração toma um papel fulcral para a qualidade das medidas obtidas com o sistema. A calibração do sistema de visão laser foi dividida em duas etapas. A primeira etapa diz respeito à calibração da câmara, onde são definidos os parâmetros intrínsecos e os parâmetros extrínsecos relativos a este sensor. A segunda etapa define a relação entre a câmara e o laser, sendo esta etapa necessária para a obtenção de imagens tridimensionais. Assim, um dos principais desafios desta dissertação passou por resolver o problema da calibração inerente a este sistema. Desse modo, foi desenvolvida uma ferramenta que requer, pelo menos duas fotos do padrão de xadrez, com perspectivas diferentes. O método proposto foi caracterizado e validado em ambientes secos e subaquáticos. Os resultados obtidos mostram que o sistema _e preciso e os valores de profundidade obtidos apresentam um erro significativamente baixo (inferiores a 1 mm), mesmo com uma base-line (distância entre a centro óptico da câmara e o plano de incidência do laser) reduzida.
Resumo:
A antropologia forense é uma disciplina das ciências forenses que trata da análise de restos cadavéricos humanos para fins legais. Uma das suas aplicações mais populares é a identificação forense que consiste em determinar o perfil biológico (idade, sexo, ancestralidade e estatura) de um indivíduo. No entanto, este processo muitas vezes é dificultado quando o corpo se encontra em avançado estado de decomposição apenas existindo restos esqueléticos. Neste caso, áreas médicas comummente utilizadas na identificação de cadáveres, como a patologia, tem de ser descartadas e surge a necessidade de aplicar outras técnicas. Neste contexto, muitos métodos antropométricos são propostos de forma a caracterizar uma pessoa através do seu esqueleto. Contudo, constata-se que a maioria dos procedimentos sugeridos é baseada em equipamentos básicos de medição, não usufruindo da tecnologia contemporânea. Assim, em parceria com a Delegação Norte do NMLCF, I. P., esta Tese teve na sua génese a criação de um sistema computacional baseado em imagens de Tomografia Computorizada (TC) de ossadas que, através de ferramentas open source, permita a realização de identificação forense. O trabalho apresentado baseia-se no processo de gestão de informação, aquisição, processamento e visualização de imagens TC. No decorrer da realização da presente Tese foi desenvolvida uma base de dados que permite organizar a informação de cada ossada e foram implementados algoritmos que levam a uma extracção de características muito mais vasta que a efetuada manualmente com os equipamentos de medição clássicos. O resultado final deste estudo consistiu num conjunto de técnicas que poderão ser englobadas num sistema computacional de identificação forense e deste modo criar uma aplicação com vantagens tecnológicas evidentes.
Resumo:
Com as variações e instabilidade dos preços do petróleo, assim como as políticas europeias para adoção de estratégias para o desenvolvimento sustentável, têm levado à procura de forma crescente de novas tecnologias e fontes de energia alternativas. Neste contexto, tem-se assistido a políticas energéticas que estimulam o aumento da produção e a utilização do gás natural, visto que é considerado uma fonte de energia limpa. O crescimento do mercado do gás natural implica um reforço significativo das redes de transporte deste combustível, quer ao nível do armazenamento e fornecimento, quer ao nível dos gasodutos e da sua gestão. O investimento em gasodutos de transporte implica grandes investimentos, que poderiam não ser remunerados da forma esperada, sendo um dos motivos para que exista em Portugal cinco distritos se veem privados deste tipo de infraestruturas. O transporte de gás natural acarreta custos elevados para os consumidores, tanto maiores quanto maior forem as quantidades de gás transacionadas e quanto maior for o percurso pelo gás natural percorrido. Assim assume especial importância a realização de um despacho de gás natural: quais as cargas que cada unidade de fornecimento de gás irá alimentar, qual a quantidade de gás natural que cada UFGs deve injetar na rede, qual o menor percurso possível para o fazer, o tipo de transporte que será utilizado? Estas questões são abordadas na presente dissertação, por forma a minimizar a função custo de transporte, diminuindo assim as perdas na rede de alta pressão e os custos de transporte que serão suportados pelos consumidores. A rede de testes adotada foi a rede nacional de transporte, constituída por 18 nós de consumos, e os tipos de transporte considerados, foram o transporte por gasoduto físico e o transporte através de gasoduto virtual – rotas de transporte rodoviário de gás natural liquefeito. Foram criados diversos cenários, baseados em períodos de inverno e verão, os diferentes cenários abrangeram de forma distinta as variáveis de forma a analisar os impactos que estas variáveis teriam no custo relativo ao transporte de gás natural. Para dar suporte ao modelo de despacho económico, foi desenvolvida uma aplicação computacional – Despacho_GN com o objetivo de despachar as quantidades de gás natural que cada UFG deveria injetar na rede, assim como apresentar os custos acumulados relativos ao transporte. Com o apoio desta aplicação foram testados diversos cenários, sendo apresentados os respectivos resultados. A metodologia elaborada para a criação de um despacho através da aplicação “Despacho_GN” demonstrou ser eficiente na obtenção das soluções, mostrando ser suficientemente rápida para realizar as simulações em poucos segundos. A dissertação proporciona uma contribuição para a exploração de problemas relacionados com o despacho de gás natural, e sugere perspectivas futuras de investigação e desenvolvimento.
Resumo:
A satisfação das necessidades energéticas mundiais, cada vez mais exigentes, bem como a necessidade urgente de procurar caminhos que permitam usufruir de energia, da forma menos poluente possível, levam à necessidade de serem explorados caminhos que permitam cumprir estes pressupostos. A escolha da utilização das energias renováveis na produção de energia, torna-se cada vez mais interessante, quer do ponto de vista ambiental quer económico. O fundamento da lógica difusa está associado à recolha de informações vagas, que são no fundo uma linguagem falada por seres humanos, possibilitando a passagem deste tipo de linguagem para formato numérico, permitindo assim uma manipulação computacional. Elementos climáticos como o sol e o vento, podem ser descritos em forma de variáveis linguísticas, como é o caso de vento forte, temperatura baixa, irradiação fraca, etc. Isto faz com que a aplicação de um controlo a partir destes fenómenos, justifique ser realizado com recurso a sistemas de inferência difusa. Para a realização do trabalho proposto, foram consumados estudos relativos às energias renováveis, com particular enfoque na solar e na eólica. Também foi realizado um estudo dos conceitos pertencentes à lógica difusa e a sistemas de inferência difusa com o objetivo de perceber os diversos parâmetros constituintes desta matéria. Foi realizado o estudo e desenvolvimento de um sistema de aquisição de dados, bem como do controlador difuso que é o busílis do trabalho descrito neste relatório. Para tal, o trabalho foi efetuado com o recurso ao software MATLAB, a partir do qual foram desenvolvidas aplicações que possibilitaram a obtenção de dados climáticos, com vista à sua utilização na toolbox Fuzzy Logic a qual foi utilizada para o desenvolvimento de todo o algoritmo de controlo. Com a possibilidade de aquisição de dados concluída e das variáveis que iriam ser necessárias definidas, foi implementado o controlador difuso que foi sendo sintonizado ao longo do trabalho por forma a garantir os melhores resultados possíveis. Com o recurso à ferramenta Guide, também do MATLAB, foi criada a interface do sistema com o utilizador, sendo possível a averiguação da energia a ser produzida, bem como das contribuições de cada uma das fontes de energia renováveis para a obtenção dessa mesma energia. Por último, foi feita uma análise de resultados através da comparação entre os valores reais esperados e os valores obtidos pelo controlador difuso, bem como assinaladas conclusões e possibilidades de desenvolvimentos futuros deste trabalho.
Resumo:
O Despacho económico de um sistema eléctrico de energia com a coordenação hidrotérmica tem como objectivo alcançar a operação óptima do sistema em um determinado período de tempo, ao menor custo possível, e com alto grau de fiabilidade. O problema é muito complexo, pois depende do grau de dificuldade em se prever os caudais dos afluentes, e da capacidade das albufeiras das centrais hídricas. De um modo geral, a produção térmica é determinada de modo a proporcionar o uso mais racional possível da água, dentro do contexto de incertezas quanto às afluências futuras, de modo a, por um lado manter o sistemas o mais económico possível, e por outro, evitar o desperdício energético implícito em descarregamentos de volumes de água turbináveis. Neste trabalho é proposta uma metodologia baseada em programação linear para a solução da coordenação hidrotérmica de curto prazo, e que permite obter custos-sombra de água em centrais hídricas com armazenamento. Esta metodologia foi posteriormente implementado num programa computacional em Microsoft Excel 2010 para a solução numa primeira fase, da rede de 24 barramentos do IEEE, e numa segunda fase, para a solução da Rede Nacional de Transporte referente ao ano de 2010. Para efeitos de análise e validação de dados, os dados provenientes do programa, são depois comparados aos dados dos relatórios da REN. Por último, os dados provenientes do programa em Excel são colocados e analisados no programa PowerWorld Simulator 8.0.
Resumo:
Os parques de estacionamento cobertos estão obrigados por legislação a terem sistemas de desenfumagem. Assim, nesta dissertação desenvolve-se um procedimento computacional para a analise e verificação de funcionamento de sistemas de desenfumagem com ventiladores de impulso para parques de estacionamento, recorrendo ao software de mecânica dos fluidos computacional OpenFOAM. Actualmente nos sistemas de desenfumagem de parques de estacionamento estão a ser aplicados ventiladores de impulso. Este tipo de ventiladores não estão contemplados pela legislação em vigor. Assim, para serem utilizados é necessário verificar se estes podem substituir as redes de condutas. A verificação do funcionamento de sistemas de desenfumagem com ventiladores de impulso e efectuada com recurso a programas de simulação de mecânica dos fluidos computacional. O software OpenFOAM não tem tutoriais para ventiladores de impulso. Assim, foi executado um procedimento para validação dos ventiladores de impulso. A validação consistiu em reproduzir-se uma experiência executada por Giesen et al. (2011). Executaram-se várias simulações com diferentes modelos de turbulência, verificando-se que o programa buoyantpimplefoam do software OpenFOAM ao utilizar o modelo de turbulência k -ɛ simulou quase na perfeição os ventiladores de impulso. O desenvolvimento do procedimento computacional foi executado para um parque de estacionamento com uma geometria bastante complexa. O parque de estacionamento foi criado com um software em 3D e posteriormente inserido numa malha j a criada com as dimensões exteriores do parque. Foram estipuladas as condições de fronteira e executou-se uma simulação de seiscentos segundos com parâmetros determinados previamente. O processamento da simulação teve a duração de aproximadamente oito dias. Dos resultados obtidos concluiu-se que o procedimento computacional apresentado simula adequadamente sistemas de desenfumagem em parques de estacionamento.
Resumo:
A biomassa é uma das fontes de energia renovável com maior potencial em Portugal, sendo a capacidade de produção de pellets de biomassa atualmente instalada superior a 1 milhão de toneladas/ano. Contudo, a maioria desta produção destina-se à exportação ou à utilização em centrais térmicas a biomassa, cujo crescimento tem sido significativo nos últimos anos, prevendo-se que a capacidade instalada em 2020 seja de aproximadamente 250 MW. O mercado português de caldeiras a pellets é bastante diversificado. O estudo que realizamos permitiu concluir que cerca de 90% das caldeiras existentes no mercado português têm potências inferiores a 60 kW, possuindo na sua maioria grelha fixa (81%), com sistema de ignição eléctrica (92%) e alimentação superior do biocombustível sólido (94%). O objetivo do presente trabalho foi o desenvolvimento de um modelo para simulação de uma caldeira a pellets de biomassa, que para além de permitir otimizar o projeto e operação deste tipo de equipamento, permitisse avaliar as inovações tecnológicas nesta área. Para tal recorreu-se o BiomassGasificationFoam, um código recentemente publicado, e escrito para utilização com o OpenFOAM, uma ferramenta computacional de acesso livre, que permite a simulação dos processos de pirólise, gasificação e combustão de biomassa. Este código, que foi inicialmente desenvolvido para descrever o processo de gasificação na análise termogravimétrica de biomassa, foi por nós adaptado para considerar as reações de combustão em fase gasosa dos gases libertados durante a pirólise da biomassa (recorrendo para tal ao solver reactingFoam), e ter a possibilidade de realizar a ignição da biomassa, o que foi conseguido através de uma adaptação do código de ignição do XiFoam. O esquema de ignição da biomassa não se revelou adequado, pois verificou-se que a combustão parava sempre que a ignição era inativada, independentemente do tempo que ela estivesse ativa. Como alternativa, usaram-se outros dois esquemas para a combustão da biomassa: uma corrente de ar quente, e uma resistência de aquecimento. Ambos os esquemas funcionaram, mas nunca foi possível fazer com que a combustão fosse autossustentável. A análise dos resultados obtidos permitiu concluir que a extensão das reações de pirólise e de gasificação, que são ambas endotérmicas, é muito pequena, pelo que a quantidade de gases libertados é igualmente muito pequena, não sendo suficiente para libertar a energia necessária à combustão completa da biomassa de uma maneira sustentável. Para tentar ultrapassar esta dificuldade foram testadas várias alternativas, , que incluíram o uso de diferentes composições de biomassa, diferentes cinéticas, calores de reação, parâmetros de transferência de calor, velocidades do ar de alimentação, esquemas de resolução numérica do sistema de equações diferenciais, e diferentes parâmetros dos esquemas de resolução utilizados. Todas estas tentativas se revelaram infrutíferas. Este estudo permitiu concluir que o solver BiomassGasificationFoam, que foi desenvolvido para descrever o processo de gasificação de biomassa em meio inerte, e em que a biomassa é aquecida através de calor fornecido pelas paredes do reator, aparentemente não é adequado à descrição do processo de combustão da biomassa, em que a combustão deve ser autossustentável, e em que as reações de combustão em fase gasosa são importantes. Assim, é necessário um estudo mais aprofundado que permita adaptar este código à simulação do processo de combustão de sólidos porosos em leito fixo.
Resumo:
A função de escalonamento desempenha um papel importante nos sistemas de produção. Os sistemas de escalonamento têm como objetivo gerar um plano de escalonamento que permite gerir de uma forma eficiente um conjunto de tarefas que necessitam de ser executadas no mesmo período de tempo pelos mesmos recursos. Contudo, adaptação dinâmica e otimização é uma necessidade crítica em sistemas de escalonamento, uma vez que as organizações de produção têm uma natureza dinâmica. Nestas organizações ocorrem distúrbios nas condições requisitos de trabalho regularmente e de forma inesperada. Alguns exemplos destes distúrbios são: surgimento de uma nova tarefa, cancelamento de uma tarefa, alteração na data de entrega, entre outros. Estes eventos dinâmicos devem ser tidos em conta, uma vez que podem influenciar o plano criado, tornando-o ineficiente. Portanto, ambientes de produção necessitam de resposta imediata para estes eventos, usando um método de reescalonamento em tempo real, para minimizar o efeito destes eventos dinâmicos no sistema de produção. Deste modo, os sistemas de escalonamento devem de uma forma automática e inteligente, ser capazes de adaptar o plano de escalonamento que a organização está a seguir aos eventos inesperados em tempo real. Esta dissertação aborda o problema de incorporar novas tarefas num plano de escalonamento já existente. Deste modo, é proposta uma abordagem de otimização – Hiper-heurística baseada em Seleção Construtiva para Escalonamento Dinâmico- para lidar com eventos dinâmicos que podem ocorrer num ambiente de produção, a fim de manter o plano de escalonamento, o mais robusto possível. Esta abordagem é inspirada em computação evolutiva e hiper-heurísticas. Do estudo computacional realizado foi possível concluir que o uso da hiper-heurística de seleção construtiva pode ser vantajoso na resolução de problemas de otimização de adaptação dinâmica.
Resumo:
A optimização nas aplicações modernas assume um carácter fortemente interdisciplinar, relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos. O problema do escalonamento é recorrente no planeamento da produção. Sempre que uma ordem de fabrico é lançada, é necessário determinar que recursos serão utilizados e em que sequência as atividades serão executadas, para otimizar uma dada medida de desempenho. Embora ainda existam empresas a abordar o problema do escalonamento através de simples heurísticas, a proposta de sistemas de escalonamento tem-se evidenciado na literatura. Pretende-se nesta dissertação, a realização da análise de desempenho de Técnicas de Optimização, nomeadamente as meta-heurísticas, na resolução de problemas de optimização complexos – escalonamento de tarefas, particularmente no problema de minimização dos atrasos ponderados, 1||ΣwjTj. Assim sendo, foi desenvolvido um protótipo que serviu de suporte ao estudo computacional, com vista à avaliação do desempenho do Simulated Annealing (SA) e o Discrete Artificial Bee Colony (DABC). A resolução eficiente de um problema requer, em geral, a aplicação de diferentes métodos, e a afinação dos respetivos parâmetros. A afinação dos parâmetros pode permitir uma maior flexibilidade e robustez mas requer uma inicialização cuidadosa. Os parâmetros podem ter uma grande influência na eficiência e eficácia da pesquisa. A sua definição deve resultar de um cuidadoso esforço experimental no sentido da respectiva especificação. Foi usado, no âmbito deste trabalho de mestrado, para suportar a fase de parametrização das meta-heurísticas em análise, o planeamento de experiências de Taguchi. Da análise dos resultados, foi possível concluir que existem vantagem estatisticamente significativa no desempenho do DABC, mas quando analisada a eficiência é possível concluir que há vantagem do SA, que necessita de menos tempo computacional.
Resumo:
Nos últimos anos, o fácil acesso em termos de custos, ferramentas de produção, edição e distribuição de conteúdos audiovisuais, contribuíram para o aumento exponencial da produção diária deste tipo de conteúdos. Neste paradigma de superabundância de conteúdos multimédia existe uma grande percentagem de sequências de vídeo que contém material explícito, sendo necessário existir um controlo mais rigoroso, de modo a não ser facilmente acessível a menores. O conceito de conteúdo explícito pode ser caraterizado de diferentes formas, tendo o trabalho descrito neste documento incidido sobre a deteção automática de nudez feminina presente em sequências de vídeo. Este processo de deteção e classificação automática de material para adultos pode constituir uma ferramenta importante na gestão de um canal de televisão. Diariamente podem ser recebidas centenas de horas de material sendo impraticável a implementação de um processo manual de controlo de qualidade. A solução criada no contexto desta dissertação foi estudada e desenvolvida em torno de um produto especifico ligado à área do broadcasting. Este produto é o mxfSPEEDRAIL F1000, sendo este uma solução da empresa MOG Technologies. O objetivo principal do projeto é o desenvolvimento de uma biblioteca em C++, acessível durante o processo de ingest, que permita, através de uma análise baseada em funcionalidades de visão computacional, detetar e sinalizar na metadata do sinal, quais as frames que potencialmente apresentam conteúdo explícito. A solução desenvolvida utiliza um conjunto de técnicas do estado da arte adaptadas ao problema a tratar. Nestas incluem-se algoritmos para realizar a segmentação de pele e deteção de objetos em imagens. Por fim é efetuada uma análise critica à solução desenvolvida no âmbito desta dissertação de modo a que em futuros desenvolvimentos esta seja melhorada a nível do consumo de recursos durante a análise e a nível da sua taxa de sucesso.