1000 resultados para Polímeros condutores intrínsecos (PCIs)
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente, perfil de Engenharia Sanitária
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Química pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Desenvolvimento de estruturas porosas tridimensionais por moldação por congelamento (Freeze-Casting)
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
O presente trabalho tem como objetivo a otimização da etapa de fermentação dos açúcares obtidos a partir da drêche cervejeira para produção do bioetanol através da utilização das leveduras Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NCYC 2791 como agentes fermentativos. O meio de cultura usado para manter as culturas destas leveduras foi Yeast Extract Peptone Dextrose (YEPD). O principal propósito deste trabalho foi o de encontrar alternativas aos combustíveis fósseis, pautando-se por soluções inofensivas para o meio ambiente e sustentáveis. Assim, o trabalho está dividido em quatro etapas: 1) caraterização química e biológica da drêche; 2) pré-tratamento ácido e hidrólise enzimática para primeiramente quebrar as moléculas de lenhina que envolvem os polímeros de celulose e hemicelulose e em seguida romper as ligações poliméricas destas macromoléculas por ação enzimática e transforma-las em açúcares simples, respetivamente, obtendo-se então a glucose, a maltose, a xilose e a arabinose; e, por último, 3) otimização da etapa de fermentação da glucose, maltose e das pentoses que constitui a condição essencial para se chegar à síntese do bioetanol de um modo eficiente e sustentável e 4) a recuperação do bioetanol produzido por destilação fracionada. A quantificação dos açúcares libertados no processo foi feita recorrendo a análises por cromatografia líquida de alta eficiência (HPLC). Neste estudo foram identificados e quantificados cinco açúcares: Arabinose, Glucose, Maltose, Ribose e Xilose. Na etapa de pré-tratamento e hidrólise enzimática foram usados os ácidos clorídrico (HCl) e nítrico (HNO3) com a concentração de 1% (m/m), e as enzimas Glucanex 100g e Ultraflo L. Foram testadas seis condições de pré-tratamento e hidrólise enzimática, alterando os parâmetros tempo de contacto e razão enzimas/massa de drêche, respetivamente, e mantendo a temperatura (50 ºC), velocidade de agitação (75 rpm) e concentração dos ácidos (1% (m/m)). No processamento de 25 g de drêche seca com 0,5 g de Glucanex, 0,5 mL de Ultraflo e um tempo de reação de 60 minutos para as enzimas foi obtida uma eficiência de 15%, em hidrolisado com 6% da celulose. Realizou-se a fermentação do hidrolisado resultante do pré-tratamento ácido e hidrólise enzimática de drêche cervejeira e de meios sintéticos preparados com os açúcares puros, usando as duas estirpes selecionadas para este estudo: Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NYCY 2791. As eficiências de fermentação dos açúcares nos meios sintéticos foram superiores a 80% para ambas as leveduras. No entanto, as eficiências de fermentação do hidrolisado da drêche foram de 45,10% pela Pichia stipitis e de 36,58 para Kluyveromyces marxianus, para um tempo de fermentação de 72 horas e à temperatura de 30 °C. O rendimento teórico em álcool no hidrolisado da drêche é de 0,27 g/g, três vezes maior do que o real (0,0856 g/g), para Pichia stipitis e de 0,19 g/g seis vezes maior do que o real (0,0308 g/g), para a Kluyveromyces marxianus.
Resumo:
Relatório de Estágio apresentado na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Ensino de Física e de Química
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Civil - Estruturas e Geotecnia
Resumo:
A presente dissertação tem com objetivo o desenvolvimento de um biossensor com base nos polímeros de impressão molecular para a deteção de uma molécula alvo, o ácido glutâmico que é convertido em glutamina pela glutamina sintetase, recorrendo à potenciometria. Nas células neoplásicas a glutamina não é sintetizada podendo-se considerar que o ácido glutâmico é um potencial agente anti-cancro. A técnica de impressão molécular utilizada foi a polimerização em bulk, combinando a acrilamida e a bis acrilamida com o ácido glutâmico. Para se verificar se a resposta potenciométrica obtida era de facto da molécula alvo foram preparados em paralelo com os sensores, materiais de controlo, ou seja, moléculas sem impressão molécular (NIP). Para se controlar a constituíção química dos vários sensores nomeadamente, do NIP e do polímero de impressão molecular (MIP) antes e após a remoção bem como a molécula foram realizados estudos de Espetroscopia de Infravermelhos de Transformada de Fourier (FTIR), Scanning electron microscope (SEM) e Espetroscopia de Raios X por dispersão em energia (EDS). Os materiais desenvolvidos foram aplicados em várias membranas que diferiam umas das outras, sendo seletivas ao ião. A avaliação das características gerais das membranas baseou-se na análise das curvas de calibração, conseguidas em meios com pHs diferentes, comparando os vários elétrodos. O pH 5 foi o que apresentou melhor resultado, associado a uma membrana que continha um aditivo, o p-tetra-octilphenol, e com o sensor com percentagem de 3%. Posto isto, testou-se em material biológico, urina, com as melhores características quer em termos de sensibilidade (18,32mV/década) quer em termos de linearidade (1,6x10-6 a 1,48x10-3 mol/L). Verificou-se ainda que aplicando iões interferentes na solução, estes não interferem nesta, podendo ser aplicados na amostra sem que haja alteração na resposta potenciométrica. O elétrodo é capaz de distinguir o ácido glutâmico dos restantes iões presentes na solução.
Resumo:
Introducção e objetivos: Foi nosso objetivo estudar as tendências da intervencção coronária percutânea entre 2004-2013 e comparar Portugal com outros países europeus. Métodos: Análise dos procedimentos coronários efetuados entre 2004-2013 com base num registo prospetivo, multicêntrico, voluntário, doente a doente --- Registo Nacional de Cardiologia de Intervenc¸ão (RNCI) da Associac¸ão Portuguesa de Intervenc¸ão Cardiovascular da Sociedade Portuguesa de Cardiologia (APIC-SPC) --- e dos dados oficiais publicados pela Direc¸ão Geral de Saúde (DGS). Resultados: Em 2013 realizaram-se 36 810 cateterismos diagnósticos (3529 coronariografias por milhão de habitantes), representando um aumento significativo de 34% relativamente ao ano de 2007 (p < 0,001). As intervenc¸ões coronárias percutâneas (ICP) cresceram 64% desde 2004, atingindo um total de 13 897 procedimentos e uma taxa de 1333 por milhão de habitantes no ano de 2013 (p < 0,001). A angioplastia primária (ICP-P) cresceu 265% (1328 versus 3524) atingindo uma taxa de 338/milhão, o que representou 25% do total de angioplastias efectuadas em 2013. Os stents foram o dispositivo intracoronário mais utilizado, com uma taxa de stents eluidores de fármaco de 73% em 2013. O acesso radial passou de 4,1% em 2004 para 57,9% em 2013 (p < 0,001). Conclusões: A cardiologia de intervenc¸ão mantém uma tendência de crescimento desde 2004 a 2013. Neste ano, a totalidade dos centros de cardiologia de intervenc¸ão portugueses estavam a exportar os dados para o RNCI, destacando-se o aumento relativo da angioplastia primária e o incremento do acesso radial.
Resumo:
A Sociedade Europeia de Pesquisa do Sono realizou muito recentemente um estudo, onde mostrou que a prevalência média de adormecimento ao volante nos últimos 2 anos foi de 17%. Além disto, tem sido provado por todo o mundo que a sonolência durante a condução é uma das principais causas de acidentes de trânsito. Torna-se assim conveniente, o desenvolvimento de sistemas que analisem a suscetibilidade de um determinado condutor para adormecer no trânsito, bem como de ferramentas que monitorem em tempo real o estado físico e mental do condutor, para alertarem nos momentos críticos. Apesar do estudo do sono se ter iniciado há vários anos, a maioria das investigações focaram-se no ciclo normal do sono, estudando os indivíduos de forma relaxada e de olhos fechados. Só mais recentemente, têm surgido os estudos que se focam nas situações de sonolência em atividade, como _e o caso da condução. Uma grande parte Dos estudos da sonolência em condução têm utilizado a eletroencefalografia (EEG), de forma a perceber se existem alterações nas diferentes bandas de frequência desta, que possam indicar o estado de sonolência do condutor. Além disso, a evolução da sonolência a partir de alterações no piscar dos olhos (que podem ser vistas nos sinais EEG) também tem sido alvo de grande pesquisa, tendo vindo a revelar resultados bastante promissores. Neste contexto e em parceria com a empresa HealthyRoad, esta tese está integrada no projeto HealthyDrive, que visa o desenvolvimento de um sistema de alerta e deteção de sinais de fadiga e sonolência nos condutores de veículos automóveis. A contribuição desta tese no projeto prendeu-se com o estudo da sonolência dos indivíduos em condução a partir de sinais EEG, para desta forma investigar possíveis indicadores dos diferentes níveis desta que possam ser utilizados pela empresa no projeto. Foram recolhidos e analisados 17 sinais EEG de indivíduos em simulação de condução. Além disso foram desenvolvidos dois métodos de análise destes sinais: O primeiro para a deteção e análise dos piscar de olhos a partir de EEG, o segundo para análise do espetro de potência. Ambos os métodos foram utilizados para analisar os sinais recolhidos e investigar que tipo de relação existe entre a sonolência do condutor e as alterações nos piscares dos olhos, bem como as alterações do espetro do EEG. Os resultados mostraram uma correlação entre a duração do piscar de olhos e a sonolência do condutor. Com o aumento da sonolência velicou-se um aumento da duração do piscar, desencadeado principalmente pelo aumento na duração de fecho, que chegou aos 51.2%. Em relação ao espectro de potência, os resultados sugerem que a potência relativa de todas as bandas analisadas fornecem informações relevantes sobre a sonolência do condutor. Além disso, o parâmetro (_+_)/_ demostrou estar relacionado com variações da sonolência, diminuindo com o seu avanço e aumentando significativamente (111%) no instante em que os condutores adormeceram.
Resumo:
O Cancro da mama é uma doença cuja incidência tem vindo a aumentar de ano para ano e além disso é responsável por um grande número de mortes em todo mundo. De modo a combater esta doença têm sido propostos e utilizados biomarcadores tumorais que permitem o diagnóstico precoce, o acompanhamento do tratamento e/ou a orientação do tipo tratamento a adotar. Atualmente, os biomarcadores circulantes no sangue periférico recomendados pela Associação Americana de Oncologia Clinica (ASCO) para monitorizar os pacientes durante o tratamento são o cancer antigen 15-3 (CA 15-3), o cancer antigen 27.29 (CA 27.29) e o cancer embryobic antigen (CEA). Neste trabalho foi desenvolvido um sensor eletroquímico (voltamétrico) para monitorizar o cancro da mama através da análise do biomarcador CA 15-3. Inicialmente realizou-se o estudo da adsorção da proteína na superfície do elétrodo para compreender o comportamento do sensor para diferentes concentrações. De seguida, estudaram-se três polímeros (poliaminofenol, polifenol e polifenilenodiamina) e selecionou-se o poliaminofenol como o polímero a utilizar, pois possuía a melhor percentagem de alteração de sinal. Após a seleção do polímero, este foi depositado na superfície do elétrodo por eletropolimerização, formando um filme polimérico molecularmente impresso (MIP) à volta da proteína (molde). Posteriormente, foram analisados cinco solventes (água, mistura de dodecil sulfato de sódio e ácido acético, ácido oxálico, guanidina e proteinase K) e o ácido oxálico revelou ser mais eficaz na extração da proteína. Por último, procedeu-se à caraterização do sensor e analisou-se a resposta analítica para diferentes concentrações de CA 15-3 revelando diferenças claras entre o NIP (polímero não impresso) e o MIP.
Resumo:
O trabalho consistiu no desenvolvimento e caracterização de sensores potenciométricos com base em polímeros de impressão molecular para a determinação de um antibiótico, a norfloxacina, em aquacultura. A simplicidade, o baixo custo e a interação rápida e reversível dos sensores potenciométricos com os analitos fizeram com que este fosse o tipo de sensor escolhido. O material sensor foi obtido por tecnologia de impressão molecular, baseada em polimerização em bulk, em que a NOR foi a molécula molde e foram utilizados como monómeros para autoconstrução dos sensores o pirrol, isoladamente, ou em conjunto com partículas de sílica gel funcionalizadas com 3-aminopropil. Também foi obtido material sensor, para controlo, em que a molécula molde NOR não estava presente (NIP). As características dos materiais sensores foram sujeitas a análise de microscopia eletrónica SEM e análise por espectrómetro de infravermelhos com transformada de Fourier. Os materiais sensores foram incluídos em membranas poliméricas, que seriam incorporadas em elétrodos. A avaliação do desempenho dos elétrodos foi feita através de curvas de calibração em diferentes meios (PBS, MES e HEPES). Também foi efetuada com sucesso a análise da sensibilidade dos elétrodos em água dopada. As diversas avaliações e análises efetuadas levaram a concluir que o MIP de pirrol com aditivo aniónico, foi o material sensor testado que permitiu obter melhores propriedades de resposta.
Resumo:
Este trabalho tem como objetivo o estudo da segurança dos peões, com incidência na questão da circulação e travessias pedonais dentro de zonas urbanas. Pretendeu-se identificar as vias mais problemáticas, com maior incidência de atropelamentos dos peões, de modo a estudar as causas. Após esse estudo, e o estudo de soluções para o problema, pode-se garantir ao peão uma melhor qualidade na mobilidade dentro dos meios urbanos. Falando na segurança de peões, é impreterível falar da sinistralidade. Foi abordado o tema e executado um estudo para análise do posicionamento de Portugal na União Europeia. Fez-se um estudo entre os anos 2010 a 2014, constatando-se que Portugal teve uma melhoria de 2010 a 2013. Já em 2014 teve um ligeiro decréscimo no melhoramento dos resultados. Em relação ao número de peões mortos por milhão de habitantes, a análise fez-se no período de tempo compreendido de 2010 a 2014, e a nível europeu pôde-se verificar, que de 2010 a 2012 Portugal teve uma melhoria significativa. Já 2013 foi um ano com maus resultados e obteve-se um decréscimo na melhoria que se havia conseguido, mas em 2014 conseguiu-se uma boa recuperação ficando nesse ano na décima sexta posição. Foi também analisada a França, para se fazer uma comparação com Portugal, e concluímos que França tem os melhores resultados a nível da sinistralidade, sendo um País com melhores condições de transporte, melhorando assim o nível de sinistralidade. Foram referidos também alguns temas publicados, que são uma forma de dar a conhecer as consequências de alguns maus hábitos da população, assim como algumas doenças normais da sociedade em geral e como se refletem na condução. Para se melhorar a segurança dos peões, existem as técnicas de acalmia, tendo sido feita uma abordagem ao tema. No caso de estudo Cidade do Porto, foram analisados os resultados em relação aos anos de 2013, 2014 e os três primeiros meses de 2015. Os resultados obtidos e suas análises, apontam para a necessidade de uma maior formação quer do peão, quer do condutor, uma vez que grande parte dos sinistros são mortes por atravessamento fora do local de passagem ou excesso de velocidade dos condutores. Assim será necessário intervir também a nível da acalmia. Existem ainda muitas áreas a melhorar, para a obtenção de resultados brilhantes no nosso país, mas se todos caminharmos na mesma direção rapidamente chegaremos ao topo dos objetivos pretendidos que é salvar todos os dias mais vidas.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Tipicamente as redes elétricas de distribuição apresentam uma topologia parcialmente malhada e são exploradas radialmente. A topologia radial é obtida através da abertura das malhas nos locais que otimizam o ponto de operação da rede, através da instalação de aparelhos de corte que operam normalmente abertos. Para além de manterem a topologia radial, estes equipamentos possibilitam também a transferência de cargas entre saídas, aquando da ocorrência de defeitos. As saídas radiais são ainda dotadas de aparelhos de corte que operam normalmente fechados, estes têm como objetivo maximizar a fiabilidade e isolar defeitos, minimizando a área afetada pelos mesmos. Assim, na presente dissertação são desenvolvidos dois algoritmos determinísticos para a localização ótima de aparelhos de corte normalmente abertos e fechados, minimizando a potência ativa de perdas e o custo da energia não distribuída. O algoritmo de localização de aparelhos de corte normalmente abertos visa encontrar a topologia radial ótima que minimiza a potência ativa de perdas. O método é desenvolvido em ambiente Matlab – Tomlab, e é formulado como um problema de programação quadrática inteira mista. A topologia radial ótima é garantida através do cálculo de um trânsito de potências ótimo baseado no modelo DC. A função objetivo é dada pelas perdas por efeito de Joule. Por outro lado o problema é restringido pela primeira lei de Kirchhoff, limites de geração das subestações, limites térmicos dos condutores, trânsito de potência unidirecional e pela condição de radialidade. Os aparelhos de corte normalmente fechados são localizados ao longo das saídas radiais obtidas pelo anterior algoritmo, e permite minimizar o custo da energia não distribuída. No limite é possível localizar um aparelho de corte normalmente fechado em todas as linhas de uma rede de distribuição, sendo esta a solução que minimiza a energia não distribuída. No entanto, tendo em conta que a cada aparelho de corte está associado um investimento, é fundamental encontrar um equilíbrio entre a melhoria de fiabilidade e o investimento. Desta forma, o algoritmo desenvolvido avalia os benefícios obtidos com a instalação de aparelhos de corte normalmente fechados, e retorna o número e a localização dos mesmo que minimiza o custo da energia não distribuída. Os métodos apresentados são testados em duas redes de distribuição reais, exploradas com um nível de tensão de 15 kV e 30 kV, respetivamente. A primeira rede é localizada no distrito do Porto e é caraterizada por uma topologia mista e urbana. A segunda rede é localizada no distrito de Bragança e é caracterizada por uma topologia maioritariamente aérea e rural.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Física