28 resultados para Pequenos mamíferos
Resumo:
Mestrado em Engenharia Mecânica - Materiais e Tecnologias de Fabrico
Resumo:
Um incêndio é algo difícil de prever, assim como a sua consequência nos elementos de construção. Dessa forma, ao longo das últimas décadas, os elementos de construção têm sido alvo de diversos estudos a fim de avaliar os seus comportamentos quando solicitados em situação de incêndio. O International Building Code (IBC) descreve um método de cálculo analítico para a determinação da resistência ao fogo dos elementos da construção de acordo com os procedimentos de teste estabelecidos na ASTM E119 (Standard Test Methods for Fire Tests of Building Construction and Materials). Nesta dissertação foi feita uma análise desse método, que se mostrou inadequado para estimar a resistência ao fogo das alvenarias, sem função estrutural, de blocos cerâmicos e blocos de betão, uma vez que despreza qualquer efeito do ar no interior das mesmas. No seguimento desta análise, é apresentado um desenvolvimento do método descrito tendo em conta o efeito do ar. Depois de uma análise aos vários tipos de blocos cerâmicos e de betão com diferentes dimensões e geometrias foi possível obter uma relação entre a espessura equivalente de ar existente num bloco e a sua respectiva resistência ao fogo, de modo a serem obtidos os valores descritos na normalização existente. O efeito do ar mostrou ter uma maior influência na resistência ao fogo nas alvenarias constituídas por blocos cerâmicos de furação vertical, já que a sua geometria caracterizada por um elevado número de pequenos alvéolos contribui para o aumento do isolamento térmico, e consequentemente da sua resistência ao fogo. Nas alvenarias rebocadas os valores da resistência ao fogo aumentam cerca de 50%, quando revestidos com argamassa de cimento, e 70% quando revestidos com gesso, logo, o emprego de revestimentos representam uma boa alternativa para aumentar a resistência ao fogo.
Resumo:
As aplicações de Gestão ou Faturação são uma presença indispensável hoje em dia. Tendo o seu início nas aplicações “MS-DOS” em modo de texto, estas aplicações acompanharam a evolução dos sistemas operativos adotando um ambiente gráfico de forma natural. Se há poucos anos apenas as empresas com volumes de negócio significativo possuíam software de faturação, este foi sendo adotado por cada vez mais empresas e pequenos negócios. As alterações legislativas introduzidas desde 2011 conduziram a uma adoção generalizada por parte de pequenas e microempresas. O mercado de aplicações de gestão está saturado pelos grandes produtores de software nacionais: Primavera, Sage, etc. Estas aplicações, tendo sido construídas para PMEs (Pequenas e Médias Empresas) e mesmo grandes empresas, são excessivamente complexas e onerosas para muito pequenas e microempresas. O Modelo de negócio destes produtores de software é primordialmente a venda de Licenças e contratos de Manutenção, nalguns casos através de redes de Agentes. Este projeto teve como objetivo o desenvolvimento de uma Aplicação de Faturação, de baixo custo, simples e cross-platform para ser comercializada em regime de aluguer em Pequenas e Micro Empresas.
Resumo:
A Salmonella é um microrganismo responsável por grande parte das doenças alimentares, podendo por em causa a saúde pública da área contaminada. Uma deteção rápida, eficiente e altamente sensível e extremamente importante, sendo um campo em franco desenvolvimento e alvo de variados e múltiplos estudos na comunidade cientifica atual. Foi desenvolvido um método potenciométrico para a deteção de Salmonellas, com elétrodos seletivos de iões, construídos em laboratório com pontas de micropipetas, fios de prata e sensores com composição otimizada. O elétrodo indicador escolhido foi um ESI seletivo a cadmio, para redução da probabilidade de interferências no método, devido a pouca abundancia do cadmio em amostras alimentares. Elétrodos seletivos a sódio, elétrodos de Ag/AgCl de simples e de dupla juncão foram também construídos e caracterizados para serem aplicados como elétrodos de referência. Adicionalmente otimizaram-se as condições operacionais para a analise potenciométrica, nomeadamente o elétrodo de referencia utilizado, condicionamento dos elétrodos, efeito do pH e volume da solução amostra. A capacidade de realizar leituras em volumes muito pequenos com limites de deteção na ordem dos micromolares por parte dos ESI de membrana polimérica, foi integrada num ensaio com um formato nao competitivo ELISA tipo sanduiche, utilizando um anticorpo primário ligado a nanopartículas de Fe@Au, permitindo a separação dos complexos anticorpo-antigénio formados dos restantes componentes em cada etapa do ensaio, pela simples aplicação de um campo magnético. O anticorpo secundário foi marcado com nanocristais de CdS, que são bastante estáveis e é fácil a transformação em Cd2+ livre, permitindo a leitura potenciométrica. Foram testadas várias concentrações de peroxido de hidrogénio e o efeito da luz para otimizar a dissolução de CdS. O método desenvolvido permitiu traçar curvas de calibração com soluções de Salmonellas incubadas em PBS (pH 4,4) em que o limite de deteção foi de 1100 CFU/mL e de 20 CFU/mL, utilizando volumes de amostra de 10 ƒÊL e 100 ƒÊL, respetivamente para o intervalo de linearidade de 10 a 108 CFU/mL. O método foi aplicado a uma amostra de leite bovino. A taxa de recuperação media obtida foi de 93,7% } 2,8 (media } desvio padrão), tendo em conta dois ensaios de recuperação efetuados (com duas replicas cada), utilizando um volume de amostra de 100 ƒÊL e concentrações de 100 e 1000 CFU/mL de Salmonella incubada.
Resumo:
Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.
Resumo:
Atualmente a vantagem competitiva de uma empresa passa pela sua rápida adaptação às variações de procura do mercado, sendo necessário garantir elevados níveis de produtividade e, simultaneamente, grande flexibilidade, indispensável ao fabrico de pequenos lotes. A necessidade de ajuste do processo e a diminuição da média de vida do produto levam a paragens cada vez mais frequentes da célula de fabrico para programação e afinação, com consequentes perdas de produtividade. De forma a dar resposta a estes problemas, neste trabalho é testada a viabilidade da utilização da programação e simulação offline de tarefas de lixamento na Grohe Portugal, complementando a solução com o desenvolvimento de um novo método de afinação do programa, permitindo uma adaptação às flutuações do processo produtivo. Para isso foi necessário analisar o estado da arte dos robôs industriais na área de acabamento superficial e respetivos métodos de programação. Em seguida, após um trabalho prévio rigoroso de preparação e modelação da célula de trabalho, é possível fazer a programação offline das várias rotinas e trajetórias complexas que compõem um ciclo de lixamento de um produto, contribuindo para o aumento da qualidade do produto final sem comprometer os níveis de produtividade. Nesta dissertação são descritos e detalhados alguns dos procedimentos fulcrais no sucesso da aplicação deste método de programação. Por último é feita uma nova abordagem ao método de ajuste ponto-a-ponto convencional, desenvolvendo-se para isso um sistema de ajuste automático do programa, dotando o robô da capacidade de se adaptar às variações do processo, assegurando a consistência do mesmo. Foram realizados testes em pequena escala, extrapolando-se os resultados para a aplicação deste novo método no processo produtivo da Grohe Portugal, como forma de complemento ao método convencional de ajuste ponto-a-ponto do programa, reduzindo o tempo de paragem da célula de trabalho.
Algoritmo de controlo inteligente de microprodução para regulação de tensão em redes de baixa tensão
Resumo:
Com o constante desenvolvimento da sociedade, o consumo de energia elétrica tem aumentado gradualmente, por outro lado a preocupação com o meio ambiente e a necessidade de um desenvolvimento sustentável, faz com que a legislação atual favoreça a introdução de fontes de energia de origem renovável em detrimento de fontes de energia de origem fóssil. Cada vez mais têm surgido incentivos para a implementação de pequenos sistemas de produção em instalações de utilização, estes consumidores/produtores são denominados de prosumers, sendo este tipo de produtores ligados à rede elétrica de baixa tensão. Com a introdução deste tipo de produtores é necessário dotar a rede elétrica de meios que permitam ao operador da rede monitorizar e controlar em tempo real o estado da rede assim como destes novos produtores. No âmbito desta dissertação, foi desenvolvido um algoritmo de controlo inteligente de microprodução. Avaliando o consumo, a produção, entre outros parâmetros de gestão da rede, este algoritmo calculará um conjunto de set-points que deverão ser enviados para os microprodutores de modo a limitar a potência injetada na rede e assim controlar a tensão. Também foi realizado um estudo económico do impacto que as medidas propostas teriam do ponto de vista dos gestores da rede bem como do ponto de vista dos microprodutores.
Resumo:
All over the world, the liberalization of electricity markets, which follows different paradigms, has created new challenges for those involved in this sector. In order to respond to these challenges, electric power systems suffered a significant restructuring in its mode of operation and planning. This restructuring resulted in a considerable increase of the electric sector competitiveness. Particularly, the Ancillary Services (AS) market has been target of constant renovations in its operation mode as it is a targeted market for the trading of services, which have as main objective to ensure the operation of electric power systems with appropriate levels of stability, safety, quality, equity and competitiveness. In this way, with the increasing penetration of distributed energy resources including distributed generation, demand response, storage units and electric vehicles, it is essential to develop new smarter and hierarchical methods of operation of electric power systems. As these resources are mostly connected to the distribution network, it is important to consider the introduction of this kind of resources in AS delivery in order to achieve greater reliability and cost efficiency of electrical power systems operation. The main contribution of this work is the design and development of mechanisms and methodologies of AS market and for energy and AS joint market, considering different management entities of transmission and distribution networks. Several models developed in this work consider the most common AS in the liberalized market environment: Regulation Down; Regulation Up; Spinning Reserve and Non-Spinning Reserve. The presented models consider different rules and ways of operation, such as the division of market by network areas, which allows the congestion management of interconnections between areas; or the ancillary service cascading process, which allows the replacement of AS of superior quality by lower quality of AS, ensuring a better economic performance of the market. A major contribution of this work is the development an innovative methodology of market clearing process to be used in the energy and AS joint market, able to ensure viable and feasible solutions in markets, where there are technical constraints in the transmission network involving its division into areas or regions. The proposed method is based on the determination of Bialek topological factors and considers the contribution of the dispatch for all services of increase of generation (energy, Regulation Up, Spinning and Non-Spinning reserves) in network congestion. The use of Bialek factors in each iteration of the proposed methodology allows limiting the bids in the market while ensuring that the solution is feasible in any context of system operation. Another important contribution of this work is the model of the contribution of distributed energy resources in the ancillary services. In this way, a Virtual Power Player (VPP) is considered in order to aggregate, manage and interact with distributed energy resources. The VPP manages all the agents aggregated, being able to supply AS to the system operator, with the main purpose of participation in electricity market. In order to ensure their participation in the AS, the VPP should have a set of contracts with the agents that include a set of diversified and adapted rules to each kind of distributed resource. All methodologies developed and implemented in this work have been integrated into the MASCEM simulator, which is a simulator based on a multi-agent system that allows to study complex operation of electricity markets. In this way, the developed methodologies allow the simulator to cover more operation contexts of the present and future of the electricity market. In this way, this dissertation offers a huge contribution to the AS market simulation, based on models and mechanisms currently used in several real markets, as well as the introduction of innovative methodologies of market clearing process on the energy and AS joint market. This dissertation presents five case studies; each one consists of multiple scenarios. The first case study illustrates the application of AS market simulation considering several bids of market players. The energy and ancillary services joint market simulation is exposed in the second case study. In the third case study it is developed a comparison between the simulation of the joint market methodology, in which the player bids to the ancillary services is considered by network areas and a reference methodology. The fourth case study presents the simulation of joint market methodology based on Bialek topological distribution factors applied to transmission network with 7 buses managed by a TSO. The last case study presents a joint market model simulation which considers the aggregation of small players to a VPP, as well as complex contracts related to these entities. The case study comprises a distribution network with 33 buses managed by VPP, which comprises several kinds of distributed resources, such as photovoltaic, CHP, fuel cells, wind turbines, biomass, small hydro, municipal solid waste, demand response, and storage units.
Resumo:
Nos últimos anos assistiu-se ao crescente aumento do custo da Energia Elétrica (EE), com grande impacto após o ano 2012 devido à alteração no escalão da taxa de IVA aplicável. Por outro lado tem-se ainda vindo a verificar o aumento do défice tarifário devido a um conjunto de medidas e decisões estratégicas que atualmente estão a ser pagas por todos os consumidores de energia. A introdução dos programas da microprodução seguida da miniprodução, por parte da Direção Geral de Energia e Geologia (DGEG), permitiu aos pequenos e grandes consumidores de EE, efetuar localmente produção de EE por intermedio de fontes renováveis. Contudo, segundo as “limitações” por parte destes programas, apenas era permitido aos novos pequenos produtores injetar toda a eletricidade produzida na rede elétrica, não proporcionando qualquer benefício ao nível do consumo de energia local. Ano após ano, tem-se verificado uma revisão negativa, por parte da DGEG, sobre as tarifas de remuneração da energia produzida por estes sistemas, o que abalou significativamente um setor que até aqui tinha vindo a crescer a passos largos. Tendo em conta esta nova realidade surge a necessidade de procurar alternativas mais viáveis. A alternativa proposta, não é nada mais do que uma “revisão eficiente” dos atuais sistemas em vigor, permitindo assim aos pequenos produtores, atenuar os consumos energéticos e injetar na rede os excedentes de energia. O Autoconsumo revoluciona assim os atuais mecanismos existentes, garantindo deste modo que os consumidores de EE possam reduzir a sua fatura de eletricidade através da geração local de energia.
Resumo:
Os matemáticos do séc. XIX só ficaram plenamente tranquilizados quando o conceito de limite se viu completamente “livre” de qualquer conotação "metafísica", ou seja, quando se soube, graças à astúcia genial dos “épsilon – delta” de Weierstrass, exprimir no estilo Arquimedes a ideia intuitiva de "verdadeiro valor" de uma quantidade indeterminada sem invocar os acréscimos "infinitamente pequenos” que, no entanto, tinham tido êxito no século XVIII. Mas o preço a pagar para apenas manipular conceitos bem definidos a partir das noções algébricas sobre os números, foi a “inversão” dos raciocínios na Análise, ou seja, o facto de que é necessário raciocinar ao contrário relativamente ao caminho heurístico e adivinhar a escolha estratégica “vencedora” em cada junção ou desdobramento lógico. Perante esta dificuldade o ensino da noção de limite viu-se “arrumado” para o 12º ano (para não dizer, aí minimizado) e os conceitos que dela dependem, como o de derivada, viram-se, nos anos anteriores, esvaziados de significado formal, sendo apresentados através de noções (próximas, mas não formais) das não convencionais reduzindo-se à expressão característica de “tende para”. Esta “tendência” não possui na Análise Clássica qualquer significado formal, e apesar de se poder considerar próxima da definição Não Convencional de limite, não lhe sendo feita qualquer referência, fica assim, impossibilitada qualquer formalização da “intuição” em questão, no entanto, pretendemos alertar, através de um exemplo, para uma “pseudo” utilização das suas noções e conceitos. Constatamos, mais uma vez, que a Análise Não Convencional parece ser um caminho possível para uma abordagem da Análise num nível não universitário.
Resumo:
Em 2006, a IEA (Agência Internacional de Energia), publicou alguns estudos de consumos mundiais de energia. Naquela altura, apontava na fabricação de produtos, um consumo mundial de energia elétrica, de origem fóssil de cerca 86,16 EJ/ano (86,16×018 J) e um consumo de energia nos sistemas de vapor de 32,75 EJ/ano. Evidenciou também nesses estudos que o potencial de poupança de energia nos sistemas de vapor era de 3,27 EJ/ano. Ou seja, quase tanto como a energia consumida nos sistemas de vapor da U.E. Não se encontraram números relativamente a Portugal, mas comparativamente com outros Países publicitados com alguma similaridade, o consumo de energia em vapor rondará 0,2 EJ/ano e por conseguinte um potencial de poupança de cerca 0,02 EJ/ano, ou 5,6 × 106 MWh/ano ou uma potência de 646 MW, mais do que a potência de cinco barragens Crestuma/Lever! Trata-se efetivamente de muita energia; interessa por isso perceber o onde e o porquê deste desperdício. De um modo muito modesto, pretende-se com este trabalho dar algum contributo neste sentido. Procurou-se evidenciar as possibilidades reais de os utilizadores de vapor de água na indústria reduzirem os consumos de energia associados à sua produção. Não estão em causa as diferentes formas de energia para a geração de vapor, sejam de origem fóssil ou renovável; interessou neste trabalho estudar o modo de como é manuseado o vapor na sua função de transporte de energia térmica, e de como este poderá ser melhorado na sua eficiência de cedência de calor, idealmente com menor consumo de energia. Com efeito, de que servirá se se optou por substituir o tipo de queima para uma mais sustentável se a jusante se continuarem a verificarem desperdícios, descarga exagerada nas purgas das caldeiras com perda de calor associada, emissões permanentes de vapor para a atmosfera em tanques de condensado, perdas por válvulas nos vedantes, purgadores avariados abertos, pressão de vapor exageradamente alta atendendo às temperaturas necessárias, “layouts” do sistema de distribuição mal desenhados, inexistência de registos de produção e consumos de vapor, etc. A base de organização deste estudo foi o ciclo de vapor: produção, distribuição, consumo e recuperação de condensado. Pareceu importante incluir também o tratamento de água, atendendo às implicações na transferência de calor das superfícies com incrustações. Na produção de vapor, verifica-se que os maiores problemas de perda de energia têm a ver com a falta de controlo, no excesso de ar e purgas das caldeiras em exagero. Na distribuição de vapor aborda-se o dimensionamento das tubagens, necessidade de purgas a v montante das válvulas de controlo, a redução de pressão com válvulas redutoras tradicionais; será de destacar a experiência americana no uso de micro turbinas para a redução de pressão com produção simultânea de eletricidade. Em Portugal não se conhecem instalações com esta opção. Fabricantes da República Checa e Áustria, têm tido sucesso em algumas dezenas de instalações de redução de pressão em diversos países europeus (UK, Alemanha, R. Checa, França, etc.). Para determinação de consumos de vapor, para projeto ou mesmo para estimativa em máquinas existentes, disponibiliza-se uma série de equações para os casos mais comuns. Dá-se especial relevo ao problema que se verifica numa grande percentagem de permutadores de calor, que é a estagnação de condensado - “stalled conditions”. Tenta-se também evidenciar as vantagens da recuperação de vapor de flash (infelizmente de pouca tradição em Portugal), e a aplicação de termocompressores. Finalmente aborda-se o benchmarking e monitorização, quer dos custos de vapor quer dos consumos específicos dos produtos. Esta abordagem é algo ligeira, por manifesta falta de estudos publicados. Como trabalhos práticos, foram efetuados levantamentos a instalações de vapor em diversos sectores de atividades; 1. ISEP - Laboratório de Química. Porto, 2. Prio Energy - Fábrica de Biocombustíveis. Porto de Aveiro. 3. Inapal Plásticos. Componentes de Automóvel. Leça do Balio, 4. Malhas Sonix. Tinturaria Têxtil. Barcelos, 5. Uma instalação de cartão canelado e uma instalação de alimentos derivados de soja. Também se inclui um estudo comparativo de custos de vapor usado nos hospitais: quando produzido por geradores de vapor com queima de combustível e quando é produzido por pequenos geradores elétricos. Os resultados estão resumidos em tabelas e conclui-se que se o potencial de poupança se aproxima do referido no início deste trabalho.
Resumo:
O desenvolvimento incessante em áreas urbanas ameaça a qualidade e quantidade das águas subterrâneas. O Porto é uma cidade densamente urbanizada, dominada por granitos, os quais constituem um meio fraturado anisotrópico e heterogéneo. O principal objetivo desta dissertação foi realçar a importância da cartografia hidrogeológica, bem como a relevância de realizar inventários hidrogeológicos e de potenciais focos de contaminação para compreender a vulnerabilidade dos sistemas aquíferos na cidade do Porto. Para tal, foram selecionadas as bacias hidrográficas da Asprela e de Massarelos. Assim, foram levados a cabo dois inventários, um hidrogeológico e outro das potenciais atividades de contaminação. O estudo foi apoiado pelos Sistemas de Informação Geográfica (SIG), os quais foram fundamentais para um melhor conhecimento e integração nas áreas de estudo. Previamente à implementação dos inventários foi feita uma caracterização das duas bacias, em termos geográficos, hidroclimatológicos, de ocupação do solo, geomorfológicos e hidrogeológicos. As duas bacias desenvolvem‐se, principalmente, na unidade hidrogeológica do granito de grão médio a fino, por vezes com saprólito. O inventário hidrogeológico contemplou principalmente fontanários e nascentes, tendo incluído, respetivamente, 8 e 21 pontos de água nas bacias da Asprela e de Massarelos. As águas subterrâneas são límpidas, sem turvação ou cheiro, ácidas, com mineralizações baixas a médias, temperaturas baixas e caudais muito pequenos. Quanto aos potenciais focos de contaminação, na bacia da Asprela foram reconhecidos 61, enquanto que na bacia de Massarelos foram identificados 78. A maioria destas atividades é pontual correspondendo, nomeadamente, a estabelecimentos de ensino e estações de serviço/oficinas de automóveis. Contudo, os focos lineares apresentam uma difusão significativa nas duas bacias hidrográficas. Apesar de a vulnerabilidade intrínseca à contaminação das águas subterrâneas nestas áreas ser baixa a moderada, a localização dos potenciais focos de contaminação poderá ser responsável pelo aumento da vulnerabilidade nas duas bacias estudadas. Esta metodologia demonstrou ser extremamente importante para um melhor conhecimento dos sistemas de água subterrânea do Porto e, ainda, da hidrogeologia de áreas urbanas.
Resumo:
A procura por alternativas ao atual paradigma energético, que se caracteriza por uma predominância indiscutível das fontes combustíveis fósseis, é o motivo primário desta investigação. A energia emitida pelo Sol que chega à Terra diariamente ultrapassa em várias ordens de grandeza a energia que a nossa sociedade atual necessita. O efeito chaminé é uma das formas de aproveitar essa energia. Este efeito tem origem no diferencial de temperaturas existente entre o interior e o exterior de uma chaminé, que provoca um gradiente nas massas volúmicas do fluido entre o interior e o exterior da chaminé, induzindo assim um fluxo de ar. Esta diferença de temperaturas radica na exposição da face exterior da chaminé à radiação solar. No sistema que nos propomos estudar, o ar entra na chaminé por pequenos orifícios situados na sua base, e, ao tomar contacto com as paredes internas da chaminé, aquece desde a temperatura ambiente, Ta, até à temperatura interna, Ti . Este aumento de temperatura torna o ar dentro da chaminé mais “leve” em comparação com o ar mais frio do exterior levando-o a ascender ao longo do interior da chaminé. Este escoamento contém energia cinética que pode, por exemplo, ser transformada em energia elétrica por intermédio de turbinas. A eficiência de conversão da energia será tanto maior quanto menor for a velocidade do ar a jusante da turbina. Esta tecnologia poderá ser instalada de forma descentralizada, como acontece com as atuais centrais concentradoras solares térmicas e fotovoltaicas localizadas na periferia de grandes cidades ou, alternativamente, poderá ser inserida no próprio tecido urbanístico. A investigação demonstra que as dimensões da chaminé, a irradiação e a temperatura do ar são os fatores com maior impacto na potência hidráulica gerada.