34 resultados para Reservatórios (Operação)
Resumo:
O presente trabalho centra-se no desenvolvimento e aplicação de sensores de aceleração ópticos, baseados em redes de Bragg gravadas em fibras ópticas, para monitorização da integridade estrutural de estruturas de engenharia civil. Foram implementados dois acelerómetros uniaxiais e um acelerómetro biaxial. Recorreu-se a uma ferramenta de simulação baseada no método dos elementos finitos que permitiu optimizar, sem custos de produção, as características dos sensores, nomeadamente a sua frequência de ressonância. A caracterização dos sensores foi realizada em ambiente laboratorial e a sua resposta comparada com os resultados de simulação, de modo a validar os modelos numéricos. A aplicabilidade e demonstração de conceito foram realizadas na monitorização de estruturas com testes de campo. Foi monitorizado um teste destrutivo de uma parede de adobe, construída à escala real no Departamento de Engenharia Civil da Universidade de Aveiro, onde foram utilizados sensores estáticos e dinâmicos baseados em redes de Bragg gravadas em fibra óptica. Foram realizadas medidas dinâmicas na ponte pedonal do Campus Universitário da Universidade de Aveiro, onde se compararam os resultados obtidos com os sensores ópticos com resultados de sensores electrónicos comerciais. O acelerómetro biaxial foi testado na monitorização de estruturas esbeltas, nomeadamente na monitorização de duas torres de telecomunicações móveis, onde se demonstrou a possibilidade da utilização de sensores ópticos na caracterização dinâmica deste tipo de estruturas. Outro tipo de estruturas de engenharia civil onde foi demonstrada a aplicabilidade dos sensores ópticos desenvolvidos na monitorização estrutural foram os reservatórios de água elevados. Foi realizada a monitorização dinâmica de um exemplo deste tipo de estruturas, localizado no Campus Universitário da Universidade de Aveiro. A monitorização foi realizada recorrendo ao sensor biaxial desenvolvido e a um sismógrafo, ficando o sensor óptico instalado na estrutura de modo a permitir futuras leituras e assim a monitorização periódica da estrutura. Foi ainda desenvolvido um sensor de humidade relativa do ar, com um material sol-gel, que permitiu registar o nível de humidade relativa no interior de blocos de betão, durante um ano. Este sensor pode ser incluído numa rede de sensores multiplexados, na caracterização e monitorização da integridade estrutural de certas estruturas de engenharia civil.
Resumo:
No panorama atual do desenvolvimento de software educativo é importante que os processos de desenvolvimento sejam adequados e compatíveis com o contexto em que serão utilizados este tipo de recursos. Desta forma, é importante melhorar continuamente os processos de desenvolvimento bem como se proceder à avaliação de forma a garantir a sua qualidade e viabilidade económica. Este estudo propõe uma Metodologia Híbrida de Desenvolvimento Centrado no Utilizador (MHDCU) aplicada ao software educativo. Trata-se de um processo de desenvolvimento simples, iterativo e incremental que tem como “alicerces” princípios do Design Centrado no Utilizador, especificados na International Organization for Standardization - ISO 13407. Na sua base encontra-se a estrutura disciplinada de processos de desenvolvimento, bem como práticas e valores dos métodos ágeis de desenvolvimento de software. O processo é constituído por 4 fases principais: planeamento (guião didático), design (storyboard), implementação e manutenção/operação. A prototipagem e a avaliação são realizadas de modo transversal a todo o processo. A metodologia foi implementada numa Pequena e Média Empresa de desenvolvimento de recursos educacionais, com o objetivo de desenvolver recursos educacionais com qualidade reconhecida e simultaneamente viáveis do ponto de vista económico. O primeiro recurso que teve por base a utilização desta metodologia foi o Courseware Sere – “O Ser Humano e os Recursos Naturais”. O trabalho seguiu uma metodologia de investigação & desenvolvimento, de natureza mista, em que se pretendeu descrever e analisar/avaliar uma metodologia de desenvolvimento de software educativo, i.e., o processo, bem como o produto final. O estudo é fundamentalmente descritivo e exploratório. A metodologia de desenvolvimento do software (primeira questão de investigação) foi proposta, essencialmente, com base na revisão integrativa da literatura da especialidade e com base nos resultados que emergiram das Fases 2 e 3. Do ponto de vista exploratório, foi avaliado, por um lado, o potencial técnico e didático da 1ª versão do software inserido no Courseware Sere (segunda questão de investigação), e, por outro lado, analisar os pontos fortes e as fragilidades da metodologia utilizada para o seu desenvolvimento (terceira questão de investigação). Como técnicas de recolha de dados recorreu-se a dois inquéritos por questionário e à observação direta participante (mediada pela plataforma moodle). Quanto às técnicas de análise de dados optou-se pela análise estatística descritiva e pela análise de conteúdo. Os resultados indicam que o recurso desenvolvido possui qualidade técnica e didática. Relativamente a análise da Metodologia Híbrida de desenvolvimento Centrado no Utilizador foram propostas algumas melhorias relacionadas com o envolvimento do utilizador e introdução de novos métodos. Apesar de identificadas algumas limitações, este projeto permitiu que a empresa melhorasse significativamente os processos de desenvolvimento de recursos (mesmo os que não são informatizados), bem como permitiu o aumento do seu portefólio com o desenvolvimento do Courseware Sere.
Resumo:
A indústria da pasta e do papel é um sector importante da economia mundial, particularmente a que assenta em espécies de Eucalyptus. No entanto, essas indústrias geram quantidades significativas de correntes secundárias de subprodutos e resíduos de biomassa que podem ser exploradas em aplicações de valor acrescentado em vez de serem queimadas para produção de energia. Um exemplo nobre pode ser a produção de ácidos triterpénicos com estruturas dos tipos lupano, oleanano e ursano, dada a sua abundância em alguns destes resíduos, em particular na casca, adotando o conceito de biorrefinaria integrada numa fábrica de pasta. Estes compostos são conhecidos pelas suas inúmeras actividades biológicas, por exemplo, antioxidante, anti-inflamatória e antitumoral, e podem encontrar aplicações em produtos de elevado valor, tais como cosméticos, nutracêuticos ou farmacêuticos. Neste sentido, o estudo das potencialidades das cascas das espécies de eucalipto mais exploradas enquanto fontes de compostos triterpénicos é um tópico relevante. Por conseguinte, foram analisados e comparados em pormenor os teores e composições em ácidos triterpénicos (TTAs) das cascas externas de várias espécies de eucalipto (E. globulus, E. grandis, E. urograndis, E. maidenii e E. nitens). Os teores dos principais TTAs identificados nestas espécies variaram entre 4.5 g/kg no E. urograndis e 21.6 g/kg no E. nitens. Observou-se que as cascas externas de Eucalyptus de zonas temperadas e Mediterrânicas, nomeadamente E. nitens e E. globulus, são mais ricas em TTAs que as espécies de regiões tropicais e subtropicais. Além disso, a casca externa do E. globulus é claramente a mais rica em ácidos com estruturas do tipo ursano enquanto a do E. nitens é a mais rica em ácidos do tipo oleanano e lupano. Estes resultados levaram-nos a estudar a extração dos TTAs da casca de Eucalyptus, bem como a sua posterior concentração e purificação, a qual foi efetuada por extração sólido-líquido convencional combinada com a precipitação de solutos, e por extração com fluidos supercríticos (SFE). No que diz respeito à primeira abordagem referida, foi desenvolvido neste trabalho um método patenteado que permite obter extratos enriquecidos em TTAs das cascas de eucalipto baseado em tecnologias disponíveis no imediato. Em relação à segunda abordagem, e de forma a apostar em processos de baixo impacto ambiental exigidos pelas biorrefinarias do futuro, a SFE surge como uma opção natural. Assim, foi efetuada a SFE da casca caduca do E. globulus com dióxido de carbono puro e modificado para recuperar a fração de TTAs, e os resultados foram comparados com os obtidos por extração em Soxhlet com diclorometano. Foram realizados estudos preliminares sobre a influência da pressão (100-200 bar), a adição de co-solvente (0, 5 e 8% m/m de etanol), e operação em múltiplos passos a fim de avaliar a aplicabilidade da alternativa supercrítica para a sua produção eficiente e selectiva. Os resultados destacaram a influência da pressão e o importante papel resumo (cont.) desempenhado pelo co-solvente neste processo, cujo efeito foi mais relevante do que o aumento da pressão em várias dezenas de bar. Este trabalho foi depois otimizado, usando o planeamento factorial de experiências e a metodologia de superfícies de resposta, para analisar a influência da temperatura (40-60 ºC), pressão (100-200 bar), e teor de etanol (0.0-5.0% m/m) na recuperação dos TTAs e respectiva concentração nos extractos. Nestes intervalos, as melhores condições de operação encontradas foram 200 bar, 40 °C e 5% de etanol, para as quais os modelos de regressão estatisticamente validados previram um rendimento de extração de 1.2% com 50% de concentração em TTAs, correspondendo ao rendimento em TTAs de 5.1 g/kg de casca e uma recuperação de 79.2% comparativamente ao valor do Soxhlet. Os TTAs livres e acetilados apresentaram tendências de extracção bastante distintas devido às suas diferentes afinidades para o CO2 causadas pelas diferentes polaridades: os derivados acetilados aproximam-se de um patamar máximo a cerca de 200 bar e 5% de etanol, enquanto a extração dos TTAs livres apresenta uma tendência sempre crescente no intervalo de condições estudado. Foram também medidas curvas cumulativas de SFE da casca do E. globulus de forma a analisar o comportamento cinético do processo em termos de rendimento total, rendimento em TTAs, rendimento em TTAs livres, rendimento em TTAs acetilados, e concentração dos TTAs nos extractos. Foi analisada a influência da pressão, temperatura, teor de co-solvente e caudal do dióxido de carbono sobre as respostas anteriores. Os dados experimentais foram modelados com os modelos Logístico, de Dessorção, de Placa Plana Simples, e de Difusão. Na globalidade, os resultados confirmaram que a pressão e o teor de etanol têm um efeito significativo sobre as curvas de extração, os rendimentos finais e as concentrações dos extratos, e mostraram a presença de limitações externas à transferência de massa em alguns ensaios. Mais uma vez, as famílias individuais de TTAs livres e acetilados apresentaram diferentes tendências de extracção. A modelação permitiu-nos confirmar não só o importante papel desempenhado pela difusão intraparticular na SFE, mas também a contribuição da resistência no filme em alguns ensaios. Após a análise de todos os resultados, foi efetuado um ensaio em duas etapas em série, possibilitando o enriquecimento do teor em TTAs no extracto devido às diferentes condições adotadas em cada etapa. Por último, um éster metílico de um ácido triterpénico do tipo oleanano - morolato de metilo - foi identificado pela primeira vez enquanto componente da casca de Eucalyptus na casca externa do Eucalyptus grandis x globulus, onde ocorre em teores elevados. A sua extração com CO2 supercrítico foi também realizada, visando a conceção de uma alternativa de extração ambientalmente benigna para este composto. A 200 bar e 60 ºC, a remoção do morolato de metilo atingiu um patamar às 6 h para 5.1 kg h-1 de CO2 / kg de casca. Em geral, e de forma semelhante à SFE da casca do E. globulus, os TTAs acetilados foram mais significativamente extraídos quando comparados com os seus ácidos livres, o que está diretamente relacionado com a natureza menos polar destas moléculas. O trabalho apresentado nesta tese é uma contribuição para a valorização de uma corrente de biomassa com baixo valor na indústria de pasta em duas vertentes complementares. Por um lado, aumentou o conhecimento da composição lipofílica das cascas de Eucalyptus spp. com interesse comercial para a produção de pasta, destacando o seu potencial enquanto fontes de ácidos triterpénicos. Por outro lado, foram desenvolvidos dois processos alternativos e facilmente integráveis numa fábrica de pasta para a sua exploração a partir da casca: um baseado em tecnologias convencionais bem estabelecidas a nível industrial, prevendo a sua aplicação a curto prazo, e um outro baseado na SFE, seguindo as tendências das futuras biorrefinarias.
Resumo:
O desenvolvimento das redes de estradas rurais, especialmente em áreas montanhosas, é a intervenção chave para melhorar a acessibilidade às localidades e aos serviços públicos, cobrindo o maior número de localidades e de serviços públicos, otimizando os escassos recursos disponíveis em países em desenvolvimento. Este estudo explora diferentes modelos de organização de redes de estradas rurais considerando a construção de novas ligações ou o melhoramento de estradas existentes. Um método, baseado na cobertura da rede de estradas rurais, é utilizado para identificar os pontos nodais que formam a rede rural base numa específica região, a qual cobrirá um conjunto dos serviços públicos e de localidades. O modelo assenta numa rede rural de estradas típica ("backbone" e "branch") das regiões montanhosas do Nepal. Os modelos propostos fornecem um conjunto de possibilidades de ligações a estabelecer ou a melhorar e oferece soluções para diferentes níveis de orçamento, que otimizam os custos de transporte na rede, considerando diferentes tipos de pavimento (em solo, granular ou asfáltico). Foi realizado separadamente um modelo dedicado a análises multi-objetivo para resolver problemas de melhoramento de ligações dentro da rede considerando dois objectivos, minimizar os custos de operação para o utilizador e maximizar a população coberta pela rede de estradas, considerando ligações pavimentadas e não pavimentadas (em solo, granular ou asfáltico) dentro de um determinado limite orçamental. O modelo dá ao decisor (DM) diferentes alternativas eficientes para que este possa tomar uma decisão final. Estes modelos, desenvolvidos para redes de estradas rurais, são também aplicáveis a outras redes de infraestruturas rurais, tais como, de fornecimento de água, de eletricidade e de telecomunicações. A implementação dos modelos nas redes de estradas rurais dos distritos de Gorkha e Lamjung do Nepal permitiu confirmara sua aplicabilidade. Verifica-se que os modelos propostos são mais práticos e realísticos no estudo de soluções de melhoramento e de desenvolvimento de redes de estradas rurais em regiões montanhosas de países em desenvolvimento.
Resumo:
O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).
Resumo:
A perfuração é uma das operações envolvidas no desmonte de rocha com explosivos. A forma como esta operação é executada é determinante para o sucesso do desmonte. Quando é realizada correctamente o desmonte produz superfícies limpas com o mínimo de sobrescavação e perturbação. A selecção das ferramentas de perfuração é um dos factores preponderantes para os custos do desmonte de maciços rochosos. O objectivo deste trabalho é demonstrar a interdependência entre os parâmetros petrofísicos, geotécnicos e geomecânicos do maciço rochoso e as tecnologias de perfuração de forma a optimizar tanto técnica como economicamente. A forma como a perfuração é executada é determinante para a boa fragmentação do maciço rochoso. Este estudo irá centrar-se na perfurabilidade do maciço, linearidade dos furos, rendimento e desgaste das ferramentas de perfuração e desenvolvimento de metodologias do ciclo de perfuração. Neste trabalho, discute-se a importância de uma abordagem integrativa para fins de geoengenhara mineira em que foi aplicada a técnica de amostragem linear em superfícies expostas do maciço num ambiente de uma exploração granítica. As áreas seleccionadas para este estudo — Pedreira de Serdedelo (Ribeira, Ponte de Lima) e pedreira do Fojo (Ferreira, Paredes de Coura), NW de Portugal — estão situadas nas proximidades de falhas geológicas regionais. Em todo os casos de estudo foram desenvolvidos numa plataforma SIG usando as seguintes ferramentas: cartografia geo-aplicada, técnicas de geologia estrutural, da geotecnia e da geomecânica mineiras e avaliação de geotecnologias. Esta abordagem leva-nos a compreender a relevância da heterogeneidade do maciço rochoso para o dimensionamento da exploração a diferentes escalas. O controlo geomecânico do desmonte do maciço rochoso através de uma perfuração alinhada é salientado com o intuito de uma abordagem de geoengenharia integrada nos maciços rochosos.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
A vida da sociedade atual é dependente dos recursos fósseis, tanto a nível de energia como de materiais. No entanto, tem-se verificado uma redução das reservas destes recursos, ao mesmo tempo que as necessidades da sociedade continuam a aumentar, tornando cada vez mais necessárias, a produção de biocombustíveis e produtos químicos. Atualmente o etanol é produzido industrialmente a partir da cana-de-açúcar e milho, matérias-primas usadas na alimentação humana e animal. Este fato desencadeou o aumento de preços dos alimentos em todo o mundo e, como consequência, provocou uma série de distúrbios sociais. Os subprodutos industriais, recursos independentes das cadeias alimentares, têm-se posicionado como fonte de matérias-primas potenciais para bioprocessamento. Neste sentido, surgem os subprodutos gerados em grande quantidade pela indústria papeleira. Os licores de cozimento da madeira ao sulfito ácido (SSLs) são uma matériaprima promissora, uma vez que durante este processo os polissacarídeos da madeira são hidrolisados originando açúcares fermentáveis. A composição dos SSLs varia consoante o tipo de madeira usada no processo de cozimento (de árvores resinosas, folhosas ou a mistura de ambas). O bioprocessamento do SSL proveniente de folhosas (HSSL) é uma metodologia ainda pouco explorada. O HSSL contém elevadas concentrações de açúcares (35-45 g.L-1), na sua maioria pentoses. A fermentação destes açúcares a bioetanol é ainda um desafio, uma vez que nem todos os microrganismos são capazes de fermentar as pentoses a etanol. De entre as leveduras capazes de fermentar naturalmente as pentoses, destaca-se a Scheffersomyces stipitis, que apresenta uma elevada eficiência de fermentação. No entanto, o HSSL contém também compostos conhecidos por inibirem o crescimento de microrganismos, dificultando assim o seu bioprocessamento. Neste sentido, o principal objetivo deste trabalho foi a produção de bioetanol pela levedura S. stipitis a partir de HSSL, resultante do cozimento ao sulfito ácido da madeira de Eucalyptus globulus. Para alcançar este objetivo, estudaram-se duas estratégias de operação diferentes. Em primeiro lugar estudou-se a bio-desintoxicação do HSSL com o fungo filamentoso Paecilomyces variotii, conhecido por crescer em resíduos industriais. Estudaram-se duas tecnologias fermentativas diferentes para a biodesintoxicação do HSSL: um reator descontínuo e um reator descontínuo sequencial (SBR). A remoção biológica de inibidores do HSSL foi mais eficaz quando se usou o SBR. P. variotii assimilou alguns inibidores microbianos como o ácido acético, o ácido gálico e o pirogalol, entre outros. Após esta desintoxicação, o HSSL foi submetido à fermentação com S. stipitis, na qual foi atingida a concentração máxima de etanol de 2.36 g.L-1 com um rendimento de 0.17 g.g-1. P. variotti, além de desintoxicar o HSSL, também é útil na produção de proteína microbiana (SCP) para a alimentação animal pois, a sua biomassa é rica em proteína. O estudo da produção de SCP por P. variotii foi efetuado num SBR com HSSL sem suplementos e suplementado com sais. A melhor produção de biomassa foi obtida no HSSL sem adição de sais, tendo-se obtido um teor de proteína elevado (82,8%), com uma baixa concentração de DNA (1,1%). A proteína continha 6 aminoácidos essenciais, mostrando potencial para o uso desta SCP na alimentação animal e, eventualmente, em nutrição humana. Assim, a indústria papeleira poderá integrar a produção de bioetanol após a produção SCP e melhorar a sustentabilidade da indústria de pastas. A segunda estratégia consistiu em adaptar a levedura S. stipitis ao HSSL de modo a que esta levedura conseguisse crescer e fermentar o HSSL sem remoção de inibidores. Operou-se um reator contínuo (CSTR) com concentrações crescentes de HSSL, entre 20 % e 60 % (v/v) durante 382 gerações em HSSL, com uma taxa de diluição de 0.20 h-1. A população adaptada, recolhida no final do CSTR (POP), apresentou uma melhoria na fermentação do HSSL (60 %), quando comparada com a estirpe original (PAR). Após esta adaptação, a concentração máxima de etanol obtida foi de 6.93 g.L-1, com um rendimento de 0.26 g.g-1. POP possuía também a capacidade de metabolizar, possivelmente por ativação de vias oxidativas, compostos derivados da lenhina e taninos dissolvidos no HSSL, conhecidos inibidores microbianos. Por fim, verificou-se também que a pré-cultura da levedura em 60 % de HSSL fez com que a estirpe PAR melhorasse o processo fermentativo em HSSL, em comparação com o ensaio sem pré-cultura em HSSL. No entanto, no caso da estirpe POP, o seu metabolismo foi redirecionado para a metabolização dos inibidores sendo que a produção de etanol decresceu.
Resumo:
Este trabalho abordou a valorização de um subproduto da indústria de lacticínios (soro de queijo) através da alteração do funcionamento de processos habitualmente utilizados no contexto do tratamento biológico. Foi avaliada a fermentação acidogénica deste subproduto para maximizar a conversão do seu elevado teor de matéria orgânica em ácidos orgânicos voláteis (AOV) que actualmente são produtos com elevada procura, nomeadamente para produção de polihidroxialcanoatos (PHA). Em ensaios descontínuos e semi-contínuos foi caracterizada a produção e composição de AOV a partir de soro de queijo variando a razão food-to-microorganism (F/M) e a concentração de alcalinidade. Recorrendo à modelação dos resultados através de superfícies de resposta, demonstrou-se que condições de F/M = 4 gCQO g-1SSV combinadas com uma adição elevada de alcalinidade (8 g L-1 expresso como CaCO3) resultaram na conversão de 72% da CQO alimentada em AOV. O acetato e o butirato foram os AOV predominantes (60%), mas elevadas razões F/M combinadas com elevadas alcalinidades promoveram o alongamento da cadeia carboxílica, tendo sido produzidos AOV de maior massa molecular (iso-valerato e n-caproato). O processo de fermentação acidogénica foi posteriormente desenvolvido em modo contínuo num reactor MBBR acidogénico operado a longo prazo. Cargas orgânicas entre 30 e 50 gCQO L-1d-1 permitiram obter um grau de acidificação máximo de 68% no efluente fermentado. Foi ainda demonstrado que uma adição dinâmica de alcalinidade (0 – 4,8 g CaCO3 L-1) nestas condições estimulou a produção de AOV de cadeia ímpar (propionato e n-valerato) até 42%. O efluente acidificado no processo anaeróbio foi usado como substrato em reactores SBR operados para selecção de culturas microbianas mistas acumuladoras de PHA, nos quais foi aplicado um regime de alimentação dinâmica em condições aeróbias (“fartura-fome”). Estes sistemas operaram também a longo prazo, e demonstraram ser capazes de remover mais de 96% da CQO alimentada e simultaneamente convertê-la em PHA, até 36% do peso celular seco. A velocidade de remoção de substrato (valor máximo de 1,33 gCQO g-1SSV h-1) foi proporcional ao teor de polímero acumulado, evidenciando o estabelecimento de uma fase de “fome” prolongada que estimulou a selecção de microrganismos com elevada capacidade de acumulação de PHA. Além disso, o teor molar de hidroxivalerato (HV) no copolímero produzido [P(HB-co-HV)] foi directamente proporcional ao teor de AOV de cadeia ímpar (propionato e n-valerato) presente no soro fermentado que serviu de substrato. Uma estratégia de operação do reactor SBR com variação da carga orgânica, aliada ao regime “fartura-fome” estabelecido, permitiu ainda simular a realidade dos processos de tratamento biológico de efluentes, nos quais a composição e concentração inicial de matéria orgânica variam frequentemente. Este modo de operação do sistema estimulou notavelmente o processo de selecção de culturas acumuladoras de PHA tendo resultado num aumento da acumulação de PHA de 7% para 36%. Os resultados demonstraram com sucesso a possibilidade de valorização do soro de queijo através de eco-biotecnologia, contribuindo para uma mudança de paradigma no tratamento convencional de efluentes: ao invés de serem eliminados enquanto poluentes, os componentes orgânicos presentes neste subproduto industrial podem assim ser convertidos em materiais de valor acrescentado.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
A conjuntura atual económica, financeira e social tem pressionado o uso racional dos recursos existentes, seja pelo setor privado ou pelo setor público. Contudo, nem sempre as empresas e organizações conseguem fazê-lo da melhor forma possível, seja por falta de experiência, por falta de conhecimento ou simplesmente pela aversão à mudança. É no contexto de redução de custos/ gastos que a gestão Lean tem vindo a afirmar-se como um método/filosofia eficaz e o suficientemente flexível e robusta para se adaptar a diferentes realidades organizacionais. Nesse seguimento, este relatório testemunha a introdução da gestão Lean numa organização do Terceiro Setor – Centro Social e Paroquial da Vera Cruz, e questiona o seu valor acrescentado mesmo se implementada numa lógica parcelar e numa organização ainda globalmente longe de estar organizada segundo uma lógica Lean. Os resultados obtidos no âmbito do projeto em questão parecem apontar para uma operação bem sucedida e com boas perspetivas futuras, caso a referida organização dê continuidade à sua implementação.
Resumo:
The development of a new instrument for the measurement of convective and radiative is proposed, based on the transient operation of a transpiration radiometer. Current transpiration radiometers rely on steady state temperature measurements in a porous element crossed by a know gas mass flow. As a consequence of the porous sensing element’s intrinsically high thermal inertia, the instrument’s time constant is in the order of several seconds. The proposed instrument preserves established advantages of transpiration radiometers while incorporating additional features that broaden its applicability range. The most important developments are a significant reduction of the instrument’s response time and the possibility of separating and measuring the convective and radiative components of the heat flux. These objectives are achieved through the analysis of the instrument’s transient response, a pulsed gas flow being used to induce the transient behavior.
Resumo:
É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.
Resumo:
Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.