41 resultados para agente cimentante
Resumo:
As aparas de wet-blue e de wet-white constituem um resíduo sólido da indústria de curtumes com um elevado teor em carbono, tornando relevante a sua utilização na preparação de materiais de interesse tecnológico. Este trabalho teve como objectivo a preparação de carvões activados a partir de resíduos da indústria de curtumes. Os métodos de activação utilizados para a preparação dos carvões activados foram a activação física com dióxido de carbono e activação química com hidróxido de potássio. A carbonização dos resíduos foi estudada na gama de temperaturas de 500 ºC a 800 ºC, verificando-se que a sua carbonização se pode considerar completa para a temperatura de 800 ºC. Na activação física os precursores foram previamente carbonizados sob uma atmosfera inerte a 800 ºC e posteriormente activados a 940 ºC usando o CO2 como agente activante. Na etapa de activação variou-se o tempo de activação (20, 40 e 60 minutos) de modo a estudar a influência do grau de queima nas propriedades texturais dos carvões activados. O carvão activado obtido pelo método de activação física com maior área superficial específica foi o carvão preparado a partir do resíduo de wet-blue para um tempo de activação de 40 minutos e grau de queima de 23 % (SBET = 152 m2/g). Para a activação química, procedeu-se à impregnação dos precursores com KOH usando razões mássicas de impregnação KOH:precursor de 0,5:1, 1:1 e 3:1. A impregnação foi efectuada directamente nos resíduos de wet-blue e de wet-white e nos resíduos de wet-blue e de wet-white carbonizados. A activação foi efectuada a 940 ºC sob uma atmosfera inerte, com uma velocidade de aquecimento de 5 ºC/min, e um tempo de activação de 1 hora. No caso da série de carvões activados obtidos por impregnação do precursor, o carvão que exibe melhores propriedades texturais é o carvão activado preparado por impregnação na razão de 1:1 a partir do resíduo de wet-blue (SBET = 1696 m2/g). Na série de carvões activados preparados por impregnação do precursor carbonizado, o carvão com melhores propriedades texturais é o carvão proveniente da impregnação do carbonizado do resíduo de wet-blue na razão de 3:1 (SBET = 1507 m2/g). Os carvões activados obtidos por este método de activação são essencialmente microporosos e com elevada área superficial específica. Testes de adsorção preliminares mostram que estes carvões activados têm um bom desempenho para a remoção de cor de efluentes da indústria de curtumes. Concluiu-se que por activação química com KOH dos resíduos de wet-blue e wet-white se obtêm carvões activados com boas propriedades texturais, elevadas áreas superficiais específicas e elevado volume de microporos, quando comparadas com as dos carvões activados resultantes da activação física. Deste modo, chegou-se à conclusão que ambos os resíduos são bons precursores para a produção de carvão activado, mais propriamente recorrendo à activação química, reduzindo assim o volume de resíduos da indústria de curtumes destinados ao aterro.
Resumo:
A optimização e a aprendizagem em Sistemas Multi-Agente são consideradas duas áreas promissoras mas relativamente pouco exploradas. A optimização nestes ambientes deve ser capaz de lidar com o dinamismo. Os agentes podem alterar o seu comportamento baseando-se em aprendizagem recente ou em objectivos de optimização. As estratégias de aprendizagem podem melhorar o desempenho do sistema, dotando os agentes da capacidade de aprender, por exemplo, qual a técnica de optimização é mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização é mais adequada em determinado cenário. Nesta dissertação são estudadas algumas técnicas de resolução de problemas de Optimização Combinatória, sobretudo as Meta-heurísticas, e é efectuada uma revisão do estado da arte de Aprendizagem em Sistemas Multi-Agente. É também proposto um módulo de aprendizagem para a resolução de novos problemas de escalonamento, com base em experiência anterior. O módulo de Auto-Optimização desenvolvido, inspirado na Computação Autónoma, permite ao sistema a selecção automática da Meta-heurística a usar no processo de optimização, assim como a respectiva parametrização. Para tal, recorreu-se à utilização de Raciocínio baseado em Casos de modo que o sistema resultante seja capaz de aprender com a experiência adquirida na resolução de problemas similares. Dos resultados obtidos é possível concluir da vantagem da sua utilização e respectiva capacidade de adaptação a novos e eventuais cenários.
Resumo:
O objectivo do projecto descrito nesta dissertação é o desenvolvimento da interface entre as empresas e a plataforma Business-to-Business (B2B) de negociação automática de anúncios em construção. A plataforma, no seu todo, deve garantir que os intervalos da programação são preenchidos com um alinhamento de anúncios compatível com os interesses expressos e o perfil construído dos espectadores. A plataforma funciona como um mercado electrónico de negociação automática destinado a agências de publicidade (empresas produtoras) e empresas provedoras de conteúdos e serviços multimédia aos consumidores finais (empresas distribuidoras). As empresas, uma vez registadas na plataforma, passam a ser representadas por agentes que negoceiam automaticamente os itens submetidos com o comportamento especificado. Do ponto de vista da arquitectura, a plataforma consiste num sistema multiagente organizado em três camadas compostas por: (i) agentes de interface com as empresas; (ii) agentes de modelação das empresas; e (iii) agentes delegados, de duração efémera, exclusivamente criados para participar em negociações específicas de conteúdos multimédia. Cada empresa representada na plataforma possui, para além de um número indeterminado de delegados envolvidos em negociações específicas, dois agentes: (i) o agente de interface com a empresa, que expõe um conjunto de operações de interface ao exterior através de um serviço Web, localizado na primeira camada; e (ii) o agente que modela a empresa na plataforma, que expõe através de um serviço Web um conjunto de operações aos agentes das restantes camadas da plataforma, residente na camada intermédia. Este projecto focou-se no desenvolvimento da camada superior de interface da plataforma com as empresas e no enriquecimento da camada intermédia. A realização da camada superior incluiu a especificação da parte da ontologia da plataforma que dá suporte às operações de interface com o exterior, à sua exposição como serviços Web e à criação e controlo dos agentes de interface. Esta camada superior deve permitir às empresas carregar e descarregar toda informação relevante de e para a plataforma, através de uma interface gráfica ou de forma automática, e apresentar de forma gráfica e intuitiva os resultados alcançados, nomeadamente, através da apresentação da evolução das transacções. Em relação à camada intermédia, adicionou-se à ontologia da plataforma a representação do conhecimento de suporte às operações de interface com a camada superior, adoptaram-se taxonomias de classificação de espectadores, anúncios e programas, desenvolveu-se um algoritmo de emparelhamento entre os espectadores, programas e anúncios disponíveis e, por fim, procedeu-se ao armazenamento persistente dos resultados das negociações. Do ponto de vista da plataforma, testou-se o seu funcionamento numa única plataforma física e assegurou-se a segurança e privacidade da comunicação entre empresa e plataforma e entre agentes que representam uma mesma empresa.
Resumo:
Desde o seu aparecimento, a Internet teve um desenvolvimento e uma taxa de crescimento quase exponencial. Os mercados de comércio electrónico têm vindo a acompanhar esta tendência de crescimento, tornando-se cada vez mais comuns e populares entre comerciantes ou compradores/vendedores de ocasião. A par deste crescimento também foi aumentando a complexidade e sofisticação dos sistemas responsáveis por promover os diferentes mercados. No seguimento desta evolução surgiram os Agentes Inteligentes devido à sua capacidade de encontrar e escolher, de uma forma relativamente eficiente, o melhor negócio, tendo por base as propostas e restrições existentes. Desde a primeira aplicação dos Agentes Inteligentes aos mercados de comércio electrónico que os investigadores desta área, têm tentado sempre auto-superar-se arranjando modelos de Agentes Inteligentes melhores e mais eficientes. Uma das técnicas usadas, para a tentativa de obtenção deste objectivo, é a transferência dos comportamentos Humanos, no que toca a negociação e decisão, para estes mesmos Agentes Inteligentes. O objectivo desta dissertação é averiguar se os Modelos de Avaliação de Credibilidade e Reputação são uma adição útil ao processo de negociação dos Agente Inteligentes. O objectivo geral dos modelos deste tipo é minimizar as situações de fraude ou incumprimento sistemático dos acordos realizados aquando do processo de negociação. Neste contexto, foi proposto um Modelo de Avaliação de Credibilidade e Reputação aplicável aos mercados de comércio electrónico actuais e que consigam dar uma resposta adequada o seu elevado nível de exigência. Além deste modelo proposto também foi desenvolvido um simulador Multi-Agente com a capacidade de simular vários cenários e permitir, desta forma, comprovar a aplicabilidade do modelo proposto. Por último, foram realizadas várias experiências sobre o simulador desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. Sendo a conclusão mais importante a verificação/validação de que a utilização de mecanismos de credibilidade e reputação são uma mais-valia para os mercado de comércio electrónico.
Resumo:
Electricity markets are complex environments with very particular characteristics. A critical issue regarding these specific characteristics concerns the constant changes they are subject to. This is a result of the electricity markets’ restructuring, which was performed so that the competitiveness could be increased, but it also had exponential implications in the increase of the complexity and unpredictability in those markets scope. The constant growth in markets unpredictability resulted in an amplified need for market intervenient entities in foreseeing market behaviour. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of the markets, contributed to the growth of usage of simulation tools. Multi-agent based software is particularly well fitted to analyze dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. This dissertation presents ALBidS – Adaptive Learning strategic Bidding System, a multiagent system created to provide decision support to market negotiating players. This system is integrated with the MASCEM electricity market simulator, so that its advantage in supporting a market player can be tested using cases based on real markets’ data. ALBidS considers several different methodologies based on very distinct approaches, to provide alternative suggestions of which are the best actions for the supported player to perform. The approach chosen as the players’ actual action is selected by the employment of reinforcement learning algorithms, which for each different situation, simulation circumstances and context, decides which proposed action is the one with higher possibility of achieving the most success. Some of the considered approaches are supported by a mechanism that creates profiles of competitor players. These profiles are built accordingly to their observed past actions and reactions when faced with specific situations, such as success and failure. The system’s context awareness and simulation circumstances analysis, both in terms of results performance and execution time adaptation, are complementary mechanisms, which endow ALBidS with further adaptation and learning capabilities.
Resumo:
A massificação da utilização das tecnologias de informação e da Internet para os mais variados fins, e nas mais diversas áreas, criou problemas de gestão das infra-estruturas de informática, ímpares até ao momento. A gestão de redes informáticas converteu-se num factor vital para uma rede a operar de forma eficiente, produtiva e lucrativa. No entanto, a maioria dos sistemas são baseados no Simple Network Management Protocol (SNMP), assente no modelo cliente-servidor e com um paradigma centralizado. Desta forma subsiste sempre um servidor central que colecta e analisa dados provenientes dos diferentes elementos dispersos pela rede. Sendo que os dados de gestão estão armazenados em bases de dados de gestão ou Management Information Bases (MIB’s) localizadas nos diversos elementos da rede. O actual modelo de gestão baseado no SNMP não tem conseguido dar a resposta exigida. Pelo que, existe a necessidade de se estudar e utilizar novos paradigmas de maneira a que se possa encontrar uma nova abordagem capaz de aumentar a fiabilidade e a performance da gestão de redes. Neste trabalho pretende-se discutir os problemas existentes na abordagem tradicional de gestão de redes, procurando demonstrar a utilidade e as vantagens da utilização de uma abordagem baseada em Agentes móveis. Paralelamente, propõe-se uma arquitectura baseada em Agentes móveis para um sistema de gestão a utilizar num caso real.
Resumo:
O presente trabalho enquadra-se na área das redes de computadores, fazendo referência aos protocolos e ao conjunto de equipamentos e softwares necessários para a administração, controlo e monitorização desse tipos de infra-estruturas. Para a gestão de uma rede de dados, é essencial dispor de conhecimentos e documentação de nível técnico para representar da forma mais fiel possível a configuração da rede, seguindo passo a passo a interligação entre os equipamentos existentes e oferecendo assim uma visão o mais fidedigna possível das instalações. O protocolo SNMP é utilizado em larga escala sendo praticamente um standard para a administração de redes baseadas na tecnologia TCP/IP. Este protocolo define a comunicação entre um administrador e um agente, estabelecendo o formato e o significado das mensagens trocadas entre ambos. Tem a capacidade de suportar produtos de diferentes fabricantes, permitindo ao administrador manter uma base de dados com informações relevantes da monitorização de vários equipamentos, que pode ser consultada e analisada por softwares NMS concebidos especialmente para a gestão de redes de computadores. O trabalho apresentado nesta dissertação teve como objectivo desenvolver uma ferramenta para apoiar à gestão da infra-estrutura de comunicações do Aeroporto Francisco Sá Carneiro que permitisse conhecer em tempo real o estado dos elementos de rede, ajudar no diagnóstico de possíveis problemas e ainda apoiar a tarefa de planeamento e expansão da rede instalada. A ferramenta desenvolvida utiliza as potencialidades do protocolo SNMP para adquirir dados de monitorização de equipamentos de rede presentes na rede do AFSC, disponibilizando-os numa interface gráfica para facilitar a visualização dos parâmetros e alertas de funcionamento mais importantes na administração da rede.
Resumo:
No decorrer dos últimos anos, os agentes (inteligentes) de software foram empregues como um método para colmatar as dificuldades associadas com a gestão, partilha e reutilização de um crescente volume de informação, enquanto as ontologias foram utilizadas para modelar essa mesma informação num formato semanticamente explícito e rico. À medida que a popularidade da Web Semântica aumenta e cada vez informação é partilhada sob a forma de ontologias, o problema de integração desta informação amplifica-se. Em semelhante contexto, não é expectável que dois agentes que pretendam cooperar utilizem a mesma ontologia para descrever a sua conceptualização do mundo. Inclusive pode revelar-se necessário que agentes interajam sem terem conhecimento prévio das ontologias utilizadas pelos restantes, sendo necessário que as conciliem em tempo de execução num processo comummente designado por Mapeamento de Ontologias [1]. O processo de mapeamento de ontologias é normalmente oferecido como um serviço aos agentes de negócio, podendo ser requisitado sempre que seja necessário produzir um alinhamento. No entanto, tendo em conta que cada agente tem as suas próprias necessidades e objetivos, assim como a própria natureza subjetiva das ontologias que utilizam, é possível que tenham diferentes interesses relativamente ao processo de alinhamento e que, inclusive, recorram aos serviços de mapeamento que considerem mais convenientes [1]. Diferentes matchers podem produzir resultados distintos e até mesmo contraditórios, criando-se assim conflitos entre os agentes. É necessário que se proceda então a uma tentativa de resolução dos conflitos existentes através de um processo de negociação, de tal forma que os agentes possam chegar a um consenso relativamente às correspondências que devem ser utilizadas na tradução de mensagens a trocar. A resolução de conflitos é considerada uma métrica de grande importância no que diz respeito ao processo de negociação [2]: considera-se que existe uma maior confiança associada a um alinhamento quanto menor o número de conflitos por resolver no processo de negociação que o gerou. Desta forma, um alinhamento com um número elevado de conflitos por resolver apresenta uma confiança menor que o mesmo alinhamento associado a um número elevado de conflitos resolvidos. O processo de negociação para que dois ou mais agentes gerem e concordem com um alinhamento é denominado de Negociação de Mapeamentos de Ontologias. À data existem duas abordagens propostas na literatura: (i) baseadas em Argumentação (e.g. [3] [4]) e (ii) baseadas em Relaxamento [5] [6]. Cada uma das propostas expostas apresenta um número de vantagens e limitações. Foram propostas várias formas de combinação das duas técnicas [2], com o objetivo de beneficiar das vantagens oferecidas e colmatar as suas limitações. No entanto, à data, não são conhecidas experiências documentadas que possam provar tal afirmação e, como tal, não é possível atestar que tais combinações tragam, de facto, o benefício que pretendem. O trabalho aqui apresentado pretende providenciar tais experiências e verificar se a afirmação de melhorias em relação aos resultados das técnicas individuais se mantém. Com o objetivo de permitir a combinação e de colmatar as falhas identificadas, foi proposta uma nova abordagem baseada em Relaxamento, que é posteriormente combinada com as abordagens baseadas em Argumentação. Os seus resultados, juntamente com os da combinação, são aqui apresentados e discutidos, sendo possível identificar diferenças nos resultados gerados por combinações diferentes e possíveis contextos de utilização.
Resumo:
Modelação e simulação baseadas em agentes estão a ganhar cada vez mais importância e adeptos devido à sua flexibilidade e potencialidade em reproduzir comportamentos e estudar um sistema na perspetiva global ou das interações individuais. Neste trabalho, criou-se um sistema baseado em agentes e desenvolvido em Repast Simphony com o objectivo de analisar a difusão de um novo produto ou serviço através de uma rede de potenciais clientes, tentando compreender, assim, como ocorre e quanto tempo demora esta passagem de informação (inovação) com diversas topologias de rede, no contato direto entre pessoas. A simulação baseia-se no conceito da existencia de iniciadores, que são os primeiros consumidores a adotar um produto quando este chega ao mercado e os seguidores, que são os potenciais consumidores que, apesar de terem alguma predisposição para adotar um novo produto, normalmente só o fazem depois de terem sido sujeitos a algum tipo de influência. Com a aplicação criada, simularam-se diversas situações com a finalidade de obter e observar os resultados gerados a partir de definições iniciais diferentes. Com os resultados gerados pelas simulações foram criados gráficos representativos dos diversos cenários. A finalidade prática desta aplicação, poderá ser o seu uso em sala de aula para simulação de casos de estudo e utilização, em casos reais, como ferramenta de apoio à tomada de decisão, das empresas.
Resumo:
Introdução: Estudos anteriores em modelos tumorais de glioma e melanoma, tumores radiorresistentes, indicaram que a obesidade pode estar relacionada com um aumento do status oxidativo e com a diminuição da resistência à radiação. Como a Radioterapia é o tratamento frequentemente utilizado para esta patologia, propomo-nos, desta forma, a explorar a influência da obesidade em células de glioma, as BC3H1, e melanoma, B16F10, submetidas a Radioterapia, na presença de agentes oxidantes e antioxidantes, para o estudo da sua influência ao nível da viabilidade celular e do impacto do stress oxidativo. Métodos: As células BC3H1 e B16F10 foram tratadas com t-BOOH (150μM e 50 μM, respetivamente), TUDCA (25μM e 1μM, respetivamente) e com a mistura de t-BOOH+TUDCA em meio DMEM sem soro e meio condicionado (CM), a partir de adipócitos 3T3-L1. Em seguida, parte das células foram irradiadas com uma dose total de 2Gy. Posteriormente avaliou-se a viabilidade celular (teste MTT) e o stress oxidativo (teste TBARS, atividade da catalase, concentração da GSH, e status antioxidante total), às 4h e 12h. Resultados: Observou-se um aumento da capacidade antioxidante total das células irradiadas, comparativamente com as células não irradiadas. O meio condicionado reduziu o stress oxidativo nas BC3H1, ao mesmo tempo que reduziu a sua viabilidade celular. O TUDCA nas células incubadas com MC e submetidas a radioterapia, tendencialmente diminuiu a viabilidade celular, nas concertações em estudo. Discussão/Conclusão: O meio condicionado e a radioterapia, por si só, aumentam a resposta antioxidante total na célula, às 4h e às 12h. O TUDCA nas células incubadas com meio condicionado e submetidas a radioterapia, teve um comportamento citotóxico para as BC3H1, nas concentrações testadas. Revelando a necessidade de aprofundar os estudos da ação deste composto como agente radiossensibilizador, neste e noutros modelos celulares de carcinogénese.
Resumo:
Este estudo tem como objetivo compreender a relação existente entre a cultura organizacional e o desempenho nas organizações de economia social, em particular nas cooperativas. A pertinência do objeto de estudo reside no facto de a economia social, em particular as cooperativas, ser reconhecidamente um fenómeno secular, tendo expressão na quase totalidade dos países do mundo, o que tem contribuído para o seu reconhecimento jurídico e político. A crescente importância que este setor tem adquirido nos diferentes países revela o seu potencial enquanto agente empregador e enquanto alternativa às formas organizacionais e gestionárias do sistema capitalista em vigor. Também, o cooperativismo representa um papel fundamental a nível da economia social, por ser um imprescindível ator da coesão social, promovendo a renovação da economia e sociedade, contribuindo para a criação de novas esperanças e oportunidades para as comunidades e os seus cidadãos. Por outro lado, no mundo globalizado em que se vive ocorrem mudanças que despertam a reavaliação de premissas culturais. Nesse sentido, a cultura organizacional é considerada um fator de grande importância para o bom desempenho das organizações em geral (Campos, Rédua & Alvareli, 2011). Para a recolha de dados, utilizou-se o questionário, tendo por base o Modelo dos Valores Contrastantes de Quinn & Rohbaugh (1983) para a cultura e, para o desempenho, recorreu-se ao Modelo de Análise de Medição do desempenho nas OES de Carvalho (2005) e questionário para medir a satisfação no trabalho.Os resultados contribuíram para sugerir linhas orientadoras para o aprofundamento da temática. Não foi encontrado um perfil cultural que esteja mais relacionado com o melhor desempenho das cooperativas. Neste trabalho, saiu evidenciado que: vários tipos de cultura podem ser importantes para a obtenção de bons desempenhos nas cooperativas, havendo maior predominância para as culturas de Clã, Adocracia e Mercado e menos predominância para a cultura de Hierarquia. No âmbito das cooperativas deste estudo, a cultura Hierarquia, percecionada como não predominante parece coocorre com o melhor desempenho. Realçando o facto de que, mesmo nas cooperativas em que não há procedimentos estruturados é possível ter um bom desempenho.
Resumo:
A liberalização dos mercados de energia e a utilização intensiva de produção distribuída tem vindo a provocar uma alteração no paradigma de operação das redes de distribuição de energia elétrica. A continuidade da fiabilidade das redes de distribuição no contexto destes novos paradigmas requer alterações estruturais e funcionais. O conceito de Smart Grid vem permitir a adaptação das redes de distribuição ao novo contexto. Numa Smart Grid os pequenos e médios consumidores são chamados ao plano ativo das participações. Este processo é conseguido através da aplicação de programas de demand response e da existência de players agregadores. O uso de programas de demand response para alcançar benefícios para a rede encontra-se atualmente a ser estudado no meio científico. Porém, existe a necessidade de estudos que procurem benefícios para os pequenos e médios consumidores. O alcance dos benefícios para os pequenos e médios consumidores não é apenas vantajoso para o consumidor, como também o é para a rede elétrica de distribuição. A participação, dos pequenos e médios consumidores, em programas de demand response acontece significativamente através da redução de consumos energéticos. De modo a evitar os impactos negativos que podem provir dessas reduções, o trabalho aqui proposto faz uso de otimizações que recorrem a técnicas de aprendizagem através da utilização redes neuronais artificiais. Para poder efetuar um melhor enquadramento do trabalho com as Smart Grids, será desenvolvido um sistema multiagente capaz de simular os principais players de uma Smart Grid. O foco deste sistema multiagente será o agente responsável pela simulação do pequeno e médio consumidor. Este agente terá não só que replicar um pequeno e médio consumidor, como terá ainda que possibilitar a integração de cargas reais e virtuais. Como meio de interação com o pequeno e médio consumidor, foi desenvolvida no âmbito desta dissertação um sistema móvel. No final do trabalho obteve-se um sistema multiagente capaz de simular uma Smart Grid e a execução de programas de demand response, sSendo o agente representante do pequeno e médio consumidor capaz de tomar ações e reações de modo a poder responder autonomamente aos programas de demand response lançados na rede. O desenvolvimento do sistema permite: o estudo e análise da integração dos pequenos e médios consumidores nas Smart Grids por meio de programas de demand response; a comparação entre múltiplos algoritmos de otimização; e a integração de métodos de aprendizagem. De modo a demonstrar e viabilizar as capacidades de todo o sistema, a dissertação inclui casos de estudo para as várias vertentes que podem ser exploradas com o sistema desenvolvido.
Resumo:
A presente dissertação tem como principal propósito avaliar o desempenho energético e a qualidade do ar interior do edifício principal do Parque Biológico de Vila Nova de Gaia (PBG). Para esse efeito, este estudo relaciona os termos definidos na legislação nacional em vigor até à presente data, e referentes a esta área de atuação, em particular, os presentes no SCE, RSECE, RCCTE e RSECE-QAI. Para avaliar o desempenho energético, procedeu-se numa primeira fase ao processo de auditoria no local e posteriormente à realização de uma simulação dinâmica detalhada, cuja modelação do edifício foi feita com recurso ao software DesignBuilder. Após a validação do modelo simulado, por verificação do desvio entre os consumos energéticos registados nas faturas e os calculados na simulação, igual a 5,97%, foi possível efetuar a desagregação dos consumos em percentagem pelos diferentes tipos de utilizações. Foi também possível determinar os IEE real e nominal, correspondendo a 29,9 e 41.3 kgep/m2.ano, respetivamente, constatando-se através dos mesmos que o edifício ficaria dispensado de implementar um plano de racionalização energética (PRE) e que a classe energética a atribuir é a C. Contudo, foram apresentadas algumas medidas de poupança de energia, de modo a melhorar a eficiência energética do edifício e reduzir a fatura associada. Destas destacam-se duas propostas, a primeira propõe a alteração do sistema de iluminação interior e exterior do edifício, conduzindo a uma redução no consumo de eletricidade de 47,5 MWh/ano, com um período de retorno de investimento de 3,5 anos. A segunda está relacionada com a alteração do sistema de produção de água quente para o aquecimento central, através do incremento de uma caldeira a lenha ao sistema atual, que prevê uma redução de 50 MWh no consumo de gás natural e um período de retorno de investimento de cerca de 4 anos. Na análise realizada à qualidade do ar interior (QAI), os parâmetros quantificados foram os exigidos legalmente, excetuando os microbiológicos. Deste modo, para os parâmetros físicos, temperatura e humidade relativa, obtiveram-se os resultados médios de 19,7ºC e 66,9%, respetivamente, ligeiramente abaixo do previsto na legislação (20,0ºC no período em que foi feita a medição, inverno). No que diz respeito aos parâmetros químicos, os valores médios registados para as concentrações de dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCHO), partículas em suspensão (PM10) e radão, foram iguais a 580 ppm, 0,2 ppm, 0,06 ppm, 0,01 ppm, 0,07 mg/m3 e 196 Bq/m3, respetivamente, verificando-se que estão abaixo dos valores máximos de referência presentes no regulamento (984 ppm, 10,7 ppm, 0,10 ppm, 0,08 ppm, 0,15 mg/m3 e 400 Bq/m3). No entanto, o parâmetro relativo aos compostos orgânicos voláteis (COV) teve um valor médio igual a 0,84 ppm, bastante acima do valor máximo de referência (0,26 ppm). Neste caso, terá que ser realizada uma nova série de medições utilizando meios cromatográficos, para avaliar qual(ais) são o(s) agente(s) poluidor(es), de modo a eliminar ou atenuar as fontes de emissão.
Resumo:
Dissertação de Mestrado em Gestão Integrada da Qualidade, Ambiente e Segurança
Resumo:
Este trabalho descreve o desenvolvimento de um material sensor para creatinina por impressão molecular em estrutura polimérica (MIP) e a sua aplicação no desenvolvimento de um dispositivo de natureza potenciométrica para a determinação da molécula alvo em fluidos biológicos. A creatinina é um dos biomarcadores mais utilizados no acompanhamento da doença renal, já que é um bom indicador da taxa de filtração glomerular (TFG). Os materiais biomiméticos desenhados para interação com a creatinina foram obtidos por polimerização radicalar, recorrendo a monómeros de ácido metacríclico ou de vinilpiridina e a um agente de reticulação apropriado. De modo a aferir o efeito da impressão da creatinina na resposta dos materiais MIP à sua presença, foram também preparados e avaliados materiais de controlo, obtidos sem impressão molecular (NIP). O controlo da constituição química destes materiais, incluindo a extração da molécula impressa, foi realizado por Espectroscopia de Raman e de Infravermelho com Transformada de Fourrier. A afinidade de ligação entre estes materiais e a creatinina foi também avaliada com base em estudos cinéticos. Todos os materiais descritos foram integrados em membranas selectivas de elétrodos seletivos de ião, preparadas sem ou com aditivo iónico lipófilo, de carga negativa ou positiva. A avaliação das características gerais de funcionamento destes elétrodos, em meios de composição e pH diferentes, indicaram que as membranas com materiais impressos e aditivo aniónico eram as únicas com utilidade analítica. Os melhores resultados foram obtidos em solução tampão Piperazine-N,N′-bis(2- ethanesulfonic acid), PIPES, de pH 2,8, condição que permitiu obter uma resposta quasi-Nernstiana, a partir de 1,6×10-5 mol L-1. Estes elétrodos demonstraram ainda uma boa selectividade ao apresentaram uma resposta preferencial para a creatinina quando na presença de ureia, carnitina, glucose, ácido ascórbico, albumina, cloreto de cálcio, cloreto de potássio, cloreto de sódio e sulfato de magnésio. Os elétrodos foram ainda aplicados com sucesso na análise de amostras sintéticas de urina, quando os materiais sensores eram baseados em ácido metacrilico, e soro, quando os materiais sensores utilizados eram baseados em vinilpiridina.