9 resultados para análise de sensibilidade
em Instituto Politécnico do Porto, Portugal
Resumo:
Dado o panorama de conservação de energia a nível nacional e mundial, torna-se hoje em dia muito importante, que seja possível controlar e estimar o consumo energético nos edifícios. Assim, atendendo à actual problemática energética e ao crescente consumo energético nos edifícios, é importante parametrizar, avaliar e comparar este consumo. Neste sentido, nas últimas décadas, têm sido efectuados desenvolvimentos técnicos, quer ao nível do equipamento de campo para efectuar monitorização e medição, quer ao nível da simulação dinâmica de edifícios. Com esta dissertação de mestrado, pretendeu-se efectuar a simulação dinâmica de um edifício escolar existente a funcionar em pleno, e efectuar uma análise de sensibilidade relativamente ao grau de variação dos resultados obtidos através da aplicação de dois programas de cálculo térmico e energético. Foram utilizados, o programa VE-Pro da IES (Integrated Environmental Solutions) e o programa Trace 700 da TRANE. Ambos os programas foram parametrizados com os mesmos dados de entrada, tendo em atenção as opções de simulação disponibilizadas por ambos. Posteriormente, utilizaram-se os dados retirados da simulação para calcular a classificação energética no âmbito do sistema de certificação energética (SCE), através de uma folha de cálculo desenvolvida para o efeito. Foram ainda consideradas várias soluções de eficiência energética para o edifício, com vista a poupanças reais de energia, tendo sempre atenção ao conforto térmico dos ocupantes. Dessas medidas fazem parte, medidas relacionadas com a iluminação, como a substituição da iluminação existente por luminárias do tipo LED (Light Emitting Diode), soluções de energias renováveis, como a instalação de colectores solares para aquecimento das águas quentes sanitárias, e painéis fotovoltaicos para produção de energia, bem como medidas ligadas aos equipamentos de climatização. Posteriormente, recalculou-se a classificação energética afectada das melhorias. Os resultados obtidos nas duas simulações foram analisados sob o ponto de vista do aquecimento, arrefecimento, ventilação, iluminação e equipamentos eléctricos. A comparação das duas simulações para cada parâmetro acima referido, apresentaram variações inferiores a 5%. O desvio maior verificou-se na ventilação, com o valor de aproximadamente 4,9%. Transpondo estes resultados para o cálculo do IEE (Índice de Eficiência Energética), verificou-se um desvio inferior a 2%.
Resumo:
O conceito de atirantamento surgiu no contexto de promover a interação global dos edifícios, nomeadamente, estabelecer as referidas ligações, de modo a prevenir o derrubamento para o exterior das paredes de fachada, perante a ocorrência de ação sísmica ou assentamento das fundações. Neste sentido, o presente trabalho tem como objetivo, estudar o comportamento dos atirantamentos ancorados no plano perpendicular das fachadas, quando solicitados à tração. No entanto, como as alvenarias são elementos heterogéneos, houve necessidade de desarticular os atirantamentos e estudar cada uma das partes que o compõe: tirantes injetados em alvenarias e sistemas de ancoragem. Em primeiro lugar, foi elaborado um estudo preliminar sobre tirantes injetados em alvenarias, o qual incidiu no seu dimensionamento, na análise de sensibilidade, apresentação de um caso de estudo e comparação de resultados. Numa segunda fase fez-se uma revisão bibliográfica dos tipos de Sistemas de Ancoragens mais comuns, onde foram mencionados alguns aspetos, nomeadamente a importância, o objetivo e condições da sua aplicação. Por último, associaram-se as duas componentes e foram estudados os Atirantamentos. Fezse um estudo da sua utilização e do seu interesse de aplicação. Foi também analisada uma forma de metodologia de dimensionamento, quando inseridos em alvenarias de tijolo e pedra. Finalizado este estudo foram traçadas as conclusões e sugeridas perspetivas futuras.
Resumo:
Actualmente a humanidade depara-se com um dos grandes desafios que é o de efectivar a transição para um futuro sustentável. Logo, o sector da energia tem um papel chave neste processo de transição, com principal destaque para a energia solar, tendo em conta que é uma das fontes de energias renováveis mais promissoras, podendo no médiolongo prazo, tornar-se uma das principais fontes de energia no panorama energético dos países. A energia solar térmica de concentração (CSP), apesar não ser ainda conhecida em Portugal, possui um potencial relevante em regiões específicas do nosso território. Logo, o objectivo deste trabalho é efectuar uma análise detalhada dos sistemas solares de concentração para produção de energia eléctrica, abordando temas, tais como, o potencial da energia solar, a definição do processo de concentração solar, a descrição das tecnologias existentes, o estado da arte do CSP, mercado CSP no mundo, e por último, a análise da viabilidade técnico-económica da instalação de uma central tipo torre solar de 20 MW, em Portugal. Para que este objectivo fosse exequível, recorreu-se à utilização de um software de simulação termodinâmica de centrais CSP, denominado por Solar Advisor Model (SAM). O caso prático foi desenvolvido para a cidade de Faro, onde foram simuladas quatro configurações distintas para uma central do tipo torre solar de 20 MW. Foram apresentados resultados, focando a desempenho diário e anual da central. Foi efectuada uma análise para avaliação da influência da variabilidade dos parâmetros, localização geográfica, múltiplo solar, capacidade de armazenamento de calor e fracção de hibridização sobre o custo nivelado da energia (LCOE), o factor de capacidade e a produção anual de energia. Conjuntamente, é apresentada uma análise de sensibilidade, com a finalidade de averiguar quais os parâmetros que influenciam de forma mais predominante o valor do LCOE. Por último, é apresentada uma análise de viabilidade económica de um investimento deste tipo.
Resumo:
Este trabalho teve como objetivo avaliar e comparar os impactes ambientais da produção do butanol considerando três processos produtivos: um que usa fontes fósseis e dois que usam fontes renováveis, nomeadamente palha de trigo e milho. Para o primeiro caso considerouse o processo oxo e os restantes usaram o processo de produção ABE (acetona, butanol e etanol). Na primeira etapa estudaram-se e descreveram-se os diferentes processos referidos. A análise do ciclo de vida foi depois aplicada efetuando as quatro fases nomeadamente definição do âmbito e objetivo, inventário, avaliação de impactes e interpretação dos resultados obtidos. O inventário foi efetuado tendo em conta a bibliografia existente sobre estes processos e com o auxílio da base de dados Ecoinvent Versão3 Database™. Na avaliação de impactes utilizou-se o método Impact 2002 + (Endpoint). Concluiu-se que a produção do butanol pelo processo ABE utilizando o milho é a que apresenta maior impacte ambiental e a que produção do butanol pelo processo ABE usando a palha de trigo é a que apresenta um menor impacte ambiental, quando o processo de alocação foi efetuado tendo em conta as massas de todos os produtos produzidos em cada processo. Foi efetuada uma análise de sensibilidade para a produção de butanol usando palha de trigo e milho relativa aos dados de menor qualidade. No processo da palha de trigo fez-se variar a quantidade de material enviado para a digestão anaeróbia e a quantidade de efluente produzida. No processo relativo ao milho apenas se fez variar a quantidade de efluente produzida. As variações tiveram um efeito pouco significativo (<1,3%) no impacte global. Por fim, efetuou-se o cálculo dos impactes considerando uma alocação económica que foi executada tendo em conta os preços de venda para o ano 2013 na Europa, para os produtos produzidos pelos diferentes processos. Considerando o valor económico verificou-se um aumento do peso relativo ao butanol, o que fez aumentar significativamente o impacte ambiental. Isto deve-se em grande parte ao baixo valor económico dos gases formados nos processos de fermentação. Se na alocação por massa for retirada a massa destes gases os resultados obtidos são similares nos dois tipos de alocação.
Resumo:
Dada a importância da variável preço no desenvolvimento dos negócios nas economias monetarizadas e a sua relevância no mercado financeiro apresentamos, recorrendo-nos das análises de alguns autores, alguns conceitos sobre a mesma e continuamos o trabalho relacionando-a com diversos aspectos da gestão, nomeadamente o planeamento, a relação entre a formação do preço e a estrutura de custos, a importância da análise da sensibilidade do mercado à política de pricing e o impacto desta variável na competitividade. O artigo desenvolve-se depois na perspectiva da relação entre o pricing e a gestão na óptica do marketing, apontando algumas estratégias de política de preço, e a relação desta com a segmentação e o ciclo de vida do produto. Dado que a literatura específica sobre pricing no mercado financeiro não é extensa concluímos com algumas considerações próprias sobre o tema.
Resumo:
Qualquer estrutura hoje em dia deve ser resistente, robusta e leve, o que aumentou o interesse industrial e investigação nas ligações adesivas, nomeadamente pela melhoria das propriedades de resistência e fratura dos materiais. Com esta técnica de união, o projeto de estruturas pode ser orientado para estruturas mais leves, não só em relação à economia direta de peso relativamente às juntas aparafusas ou soldadas, mas também por causa da flexibilidade para ligar materiais diferentes. Em qualquer área da indústria, a aplicação em larga escala de uma determinada técnica de ligação supõe que estão disponíveis ferramentas confiáveis para o projeto e previsão da rotura. Neste âmbito, Modelos de Dano Coesivo (MDC) são uma ferramenta essencial, embora seja necessário estimar as leis MDC do adesivo à tração e corte para entrada nos modelos numéricos. Este trabalho avalia o valor da tenacidade ao corte (GIIC) de juntas coladas para três adesivos com ductilidade distinta. O trabalho experimental consiste na caracterização à fratura ao corte da ligação adesiva por métodos convencionais e pelo Integral-J. Além disso, pelo integral-J, é possível definir a forma exata da lei coesiva. Para o integral-J, é utilizado um método de correlação de imagem digital anteriormente desenvolvido para a avaliação do deslocamento ao corte do adesivo na extremidade da fenda (δs) durante o ensaio, acoplado a uma sub-rotina em Matlab® para a extração automática de δs. É também apresentado um trabalho numérico para avaliar a adequabilidade de leis coesivas triangulares aproximadas em reproduzir as curvas força-deslocamento (P-δ) experimentais dos ensaios ENF. Também se apresenta uma análise de sensibilidade para compreender a influência dos parâmetros coesivos nas previsões numéricas. Como resultado deste trabalho, foram estimadas experimentalmente as leis coesivas de cada adesivo pelo método direto, e numericamente validadas, para posterior previsão de resistência em juntas adesivas. Em conjunto com a caraterização à tração destes adesivos, é possível a previsão da rotura em modo-misto.
Resumo:
O trabalho consistiu no desenvolvimento e caracterização de sensores potenciométricos com base em polímeros de impressão molecular para a determinação de um antibiótico, a norfloxacina, em aquacultura. A simplicidade, o baixo custo e a interação rápida e reversível dos sensores potenciométricos com os analitos fizeram com que este fosse o tipo de sensor escolhido. O material sensor foi obtido por tecnologia de impressão molecular, baseada em polimerização em bulk, em que a NOR foi a molécula molde e foram utilizados como monómeros para autoconstrução dos sensores o pirrol, isoladamente, ou em conjunto com partículas de sílica gel funcionalizadas com 3-aminopropil. Também foi obtido material sensor, para controlo, em que a molécula molde NOR não estava presente (NIP). As características dos materiais sensores foram sujeitas a análise de microscopia eletrónica SEM e análise por espectrómetro de infravermelhos com transformada de Fourier. Os materiais sensores foram incluídos em membranas poliméricas, que seriam incorporadas em elétrodos. A avaliação do desempenho dos elétrodos foi feita através de curvas de calibração em diferentes meios (PBS, MES e HEPES). Também foi efetuada com sucesso a análise da sensibilidade dos elétrodos em água dopada. As diversas avaliações e análises efetuadas levaram a concluir que o MIP de pirrol com aditivo aniónico, foi o material sensor testado que permitiu obter melhores propriedades de resposta.
Resumo:
Através da análise comparativo/intertextual do conto Don Juan, de E.T.A. Hoffmann e do libreto da ópera Don Giovanni, de Mozart, da autoria de Lorenzo da Ponte, o objectivo deste artigo foi pôr em relevo a relação intrínseca, presente em muitas das obras de E.T.A. Hoffmann, entre a escrita e a música, explicável pela enorme sensibilidade musical deste autor, a que não só dedicou a sua vida, como também produziu várias obras musicais. Tal como na ópera Don Giovanni, de Mozart, a escrita de Hoffmann é dirigida por uma batuta imaginária, apresentando o suspense próprio dos enigmas, cuja revelação é suspensa por um entreacto – neste caso, uma carta escrita a um amigo, em que nos é apresentada uma reformulação do mito de Don Juan – entreacto este que vem prolongar o mistério e nos encaminha para um finale, em que a progressão da melodia e a sequência narrativa se unem mais uma vez. Por seu turno, na análise puramente intertextual, é feita uma tentativa de estabelecer, de forma clara, os paralelismos existentes com o pré-texto, isto é, com o libreto da autoria de Lorenzo da Ponte, bem como com outros pré-textos presentes no texto de forma mais esbatida, mas cujo peso é, também ele, significativo para a criação do novo mito de Don Juan, um homem sempre consciente do absurdo da existência, interpretação esta que abriu caminho para novas abordagens do mito, do herói e da história. Tal como em muitas outras obras, o pós-texto procura, em geral, apropriar-se do texto pressuposto, tentando ultrapassá-lo em mestria, o que acontece com este texto de Hoffmann, literária e semanticamente mais rico que o seu pré-texto.
Resumo:
O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.