58 resultados para Obesidade - Limitações
Resumo:
A indústria da pasta e do papel é um sector importante da economia mundial, particularmente a que assenta em espécies de Eucalyptus. No entanto, essas indústrias geram quantidades significativas de correntes secundárias de subprodutos e resíduos de biomassa que podem ser exploradas em aplicações de valor acrescentado em vez de serem queimadas para produção de energia. Um exemplo nobre pode ser a produção de ácidos triterpénicos com estruturas dos tipos lupano, oleanano e ursano, dada a sua abundância em alguns destes resíduos, em particular na casca, adotando o conceito de biorrefinaria integrada numa fábrica de pasta. Estes compostos são conhecidos pelas suas inúmeras actividades biológicas, por exemplo, antioxidante, anti-inflamatória e antitumoral, e podem encontrar aplicações em produtos de elevado valor, tais como cosméticos, nutracêuticos ou farmacêuticos. Neste sentido, o estudo das potencialidades das cascas das espécies de eucalipto mais exploradas enquanto fontes de compostos triterpénicos é um tópico relevante. Por conseguinte, foram analisados e comparados em pormenor os teores e composições em ácidos triterpénicos (TTAs) das cascas externas de várias espécies de eucalipto (E. globulus, E. grandis, E. urograndis, E. maidenii e E. nitens). Os teores dos principais TTAs identificados nestas espécies variaram entre 4.5 g/kg no E. urograndis e 21.6 g/kg no E. nitens. Observou-se que as cascas externas de Eucalyptus de zonas temperadas e Mediterrânicas, nomeadamente E. nitens e E. globulus, são mais ricas em TTAs que as espécies de regiões tropicais e subtropicais. Além disso, a casca externa do E. globulus é claramente a mais rica em ácidos com estruturas do tipo ursano enquanto a do E. nitens é a mais rica em ácidos do tipo oleanano e lupano. Estes resultados levaram-nos a estudar a extração dos TTAs da casca de Eucalyptus, bem como a sua posterior concentração e purificação, a qual foi efetuada por extração sólido-líquido convencional combinada com a precipitação de solutos, e por extração com fluidos supercríticos (SFE). No que diz respeito à primeira abordagem referida, foi desenvolvido neste trabalho um método patenteado que permite obter extratos enriquecidos em TTAs das cascas de eucalipto baseado em tecnologias disponíveis no imediato. Em relação à segunda abordagem, e de forma a apostar em processos de baixo impacto ambiental exigidos pelas biorrefinarias do futuro, a SFE surge como uma opção natural. Assim, foi efetuada a SFE da casca caduca do E. globulus com dióxido de carbono puro e modificado para recuperar a fração de TTAs, e os resultados foram comparados com os obtidos por extração em Soxhlet com diclorometano. Foram realizados estudos preliminares sobre a influência da pressão (100-200 bar), a adição de co-solvente (0, 5 e 8% m/m de etanol), e operação em múltiplos passos a fim de avaliar a aplicabilidade da alternativa supercrítica para a sua produção eficiente e selectiva. Os resultados destacaram a influência da pressão e o importante papel resumo (cont.) desempenhado pelo co-solvente neste processo, cujo efeito foi mais relevante do que o aumento da pressão em várias dezenas de bar. Este trabalho foi depois otimizado, usando o planeamento factorial de experiências e a metodologia de superfícies de resposta, para analisar a influência da temperatura (40-60 ºC), pressão (100-200 bar), e teor de etanol (0.0-5.0% m/m) na recuperação dos TTAs e respectiva concentração nos extractos. Nestes intervalos, as melhores condições de operação encontradas foram 200 bar, 40 °C e 5% de etanol, para as quais os modelos de regressão estatisticamente validados previram um rendimento de extração de 1.2% com 50% de concentração em TTAs, correspondendo ao rendimento em TTAs de 5.1 g/kg de casca e uma recuperação de 79.2% comparativamente ao valor do Soxhlet. Os TTAs livres e acetilados apresentaram tendências de extracção bastante distintas devido às suas diferentes afinidades para o CO2 causadas pelas diferentes polaridades: os derivados acetilados aproximam-se de um patamar máximo a cerca de 200 bar e 5% de etanol, enquanto a extração dos TTAs livres apresenta uma tendência sempre crescente no intervalo de condições estudado. Foram também medidas curvas cumulativas de SFE da casca do E. globulus de forma a analisar o comportamento cinético do processo em termos de rendimento total, rendimento em TTAs, rendimento em TTAs livres, rendimento em TTAs acetilados, e concentração dos TTAs nos extractos. Foi analisada a influência da pressão, temperatura, teor de co-solvente e caudal do dióxido de carbono sobre as respostas anteriores. Os dados experimentais foram modelados com os modelos Logístico, de Dessorção, de Placa Plana Simples, e de Difusão. Na globalidade, os resultados confirmaram que a pressão e o teor de etanol têm um efeito significativo sobre as curvas de extração, os rendimentos finais e as concentrações dos extratos, e mostraram a presença de limitações externas à transferência de massa em alguns ensaios. Mais uma vez, as famílias individuais de TTAs livres e acetilados apresentaram diferentes tendências de extracção. A modelação permitiu-nos confirmar não só o importante papel desempenhado pela difusão intraparticular na SFE, mas também a contribuição da resistência no filme em alguns ensaios. Após a análise de todos os resultados, foi efetuado um ensaio em duas etapas em série, possibilitando o enriquecimento do teor em TTAs no extracto devido às diferentes condições adotadas em cada etapa. Por último, um éster metílico de um ácido triterpénico do tipo oleanano - morolato de metilo - foi identificado pela primeira vez enquanto componente da casca de Eucalyptus na casca externa do Eucalyptus grandis x globulus, onde ocorre em teores elevados. A sua extração com CO2 supercrítico foi também realizada, visando a conceção de uma alternativa de extração ambientalmente benigna para este composto. A 200 bar e 60 ºC, a remoção do morolato de metilo atingiu um patamar às 6 h para 5.1 kg h-1 de CO2 / kg de casca. Em geral, e de forma semelhante à SFE da casca do E. globulus, os TTAs acetilados foram mais significativamente extraídos quando comparados com os seus ácidos livres, o que está diretamente relacionado com a natureza menos polar destas moléculas. O trabalho apresentado nesta tese é uma contribuição para a valorização de uma corrente de biomassa com baixo valor na indústria de pasta em duas vertentes complementares. Por um lado, aumentou o conhecimento da composição lipofílica das cascas de Eucalyptus spp. com interesse comercial para a produção de pasta, destacando o seu potencial enquanto fontes de ácidos triterpénicos. Por outro lado, foram desenvolvidos dois processos alternativos e facilmente integráveis numa fábrica de pasta para a sua exploração a partir da casca: um baseado em tecnologias convencionais bem estabelecidas a nível industrial, prevendo a sua aplicação a curto prazo, e um outro baseado na SFE, seguindo as tendências das futuras biorrefinarias.
Resumo:
A linha de investigação deste estudo é a ‘articulação da Investigação em Didáctica das Ciências e Práticas de Ensino dos Professores de Ciências’. O seu enquadramento teórico e metodológico inicial assentou nos estudos das áreas ‘Relações entre Investigação e as Práticas’ e ‘Avaliação da Formação Pós-Graduada – vertente impacte/articulação’. Inicialmente, fez-se uma análise histórico-epistemológica da Didáctica desde a sua génese até aos dias de hoje, para se compreender quer as raízes do gap entre académicos e práticos em geral, quer a crescente necessidade de articulação. Posteriormente, avançou-se para a primeira área, partindo da polémica despoletada por Hargreaves, ao defender que o ensino deveria ser uma profissão baseada na investigação. Em seguida, partiu-se de uma análise mais geral sobre a Investigação e as Práticas no contexto educacional em vários países antes se centrar especificamente no contexto da Didáctica das Ciências (impacte da IDC nas Práticas e constrangimentos na articulação). Analisou-se também brevemente as relações entre a IDC e Práticas no contexto da Formação de Professores, e não a área da Formação de Professores, para mantermos sempre o foco nas questões inerentes à articulação. Culminou-se na análise das culturas e epistemologias da acção e da investigação, com especial destaque para o conceito de professorinvestigador na actualidade e para a descrição das barreiras epistemológicas e ontológicas. Concluiu-se que as comunidades da investigação e da acção utilizavam o conceito ‘articulação’ indiscriminadamente como sinónimo de interacções, contacto, aproximação, impacte, etc., o que acabou esvaziando-o do seu verdadeiro significado. No que diz respeito à segunda área, a sua análise partiu da descrição da evolução de dez anos (1997-2007) de estudos sobre a Avaliação do Impacte dos CM nas práticas por ser considerada uma forma eficaz de articular as dimensões da Didáctica em direcção a um novo olhar sobre o conceito ‘articulação’. Além disso, apontou a dificuldade de se avaliar o impacte ao nível macro, por um lado, por não se tratar de uma prática investigativa institucionalizada no estatuto da carreira dos professores dos EB e ES e, por outro, por ainda colidir com diferentes concepções da natureza das investigações realizadas por Professores encontradas em ambas as comunidades, entendida ora como processo cognitivo (para o desenvolvimento profissional dos professores), ora como prática social (para construção de conhecimento no campo da Didáctica). Foram compiladas ainda as sugestões para se potenciar o impacte da IDC nas Práticas e/ou a articulação entre a IDC-Práticas em contexto formativo de diversos estudos avaliativos. Finalizou-se a análise chamando a atenção para cinco aspectos que ainda carecem de maior aprofundamento nesta área. Este longo enquadramento evidenciou a complexidade da problemática ‘articulação’ decorrente da interdependência das várias dimensões (epistemológica, política, ontológica, psicológica, ética, entre outras). Por exemplo, a ausência de consenso sobre critérios para a avaliação da qualidade da investigação produzida por professores (dimensões política e epistemológica) acaba, por vezes, por não conferir legitimidade às mesmas e por influenciar a legitimação pela comunidade académica, o que resulta na necessidade de diferenciação dos contributos e no maior afastamento entre as comunidades (dimensão ontológica), entre outros. Assim, optou-se por iniciar a análise do fenómeno ‘articulação entre IDCPráticas’ através dos primeiros modelos de articulação investigação-ensino, os quais visavam, contudo, fundamentalmente o impacte da IDC nas Práticas de Ensino das Ciências. Posteriormente, foram apresentadas as potencialidades da Avaliação ↔ Feedback, TIC e Colaboração (estratégias/métodos) para potenciar a articulação entre Investigação- Práticas. No que diz respeito à investigação empírica, realizou-se um estudo de caso descritivo e explorativo de natureza mista. O caso único, crítico e instrumental foi o fenómeno “articulação entre a IDC-Práticas na Formação Didáctica Pós- Graduada” no contexto da unidade curricular ‘Metodologia do Ensino da Física’ (MEF) do Curso de Mestrado em Ensino de Física. A técnica de análise geral utilizada foi a “descrição do caso” pelo facto de não se ter um referencial teórico especificamente sobre o caso. O caso contemplou três unidades de análise, a saber: Caracterização dos Professores-Formandos; Funcionamento da Unidade Curricular e Dinâmica dos currículos dos módulos articuladores. Estas unidades de análises permitiram evidenciar de que forma as características e/ou alterações implementadas na disciplina MEF contribuíram (ou podem contribuir) para a articulação da IDC-Práticas e descrever as dinâmicas do currículo (intencional – negociado – acção), evidenciando em que medida promoveram (ou inibiram) a articulação IDC – práticas. O estudo de caso aqui descrito revelou, ainda, a existência de dois níveis de articulação entre a Investigação e as Práticas no contexto formativo. O primeiro nível foi a articulação entre a Investigação sobre o Ensino Superior/Formação de Professores de Ciências (patente nas estratégias/métodos utilizados na disciplina) e a prática formativa dos IF no contexto da disciplina. O segundo nível centrou-se na articulação entre a Investigação sobre o Ensino não-Superior/Didáctica das Ciências e as práticas de Ensino das Ciências, base orientadora do currículo da disciplina aqui analisada, concretizado nos dois módulos articuladores descritos. Destacam-se algumas dimensões de análise descritas na presente investigação empírica, a saber: Utilização das TIC; Avaliação do Ensino baseada no feedback dos alunos; Avaliação Formativa das Aprendizagens e feedback; Trabalho de grupo realizado nos módulos articuladores; Currículo centrado na IDC; Currículo centrado na articulação da IDC-Práticas de Ensino das Ciências; Currículo centrado nas Práticas de Ensino das Ciências; Currículo centrado na articulação da Investigação-Práticas formativas e Currículo centrado nas Políticas Educativas. Relativamente a dinâmica dos currículos (intencional - negociado - acção) dos dois módulos articuladores, foram definidos quatro construtos (objectos de ensino, objectos de aprendizagem, objectivos de ensino e objectivos de aprendizagem) que culminaram na discussão de vários aspectos a serem considerados nos próximos cursos como, por exemplo: 1) Importância de o contrato didáctico prever a inclusão de objectos de aprendizagem; 2) Incompatibilidade do objectivo de aprendizagem ‘compreender a importância da IDC e a sua relevância para as práticas lectivas em contextos específicos’ num quadro formativo articulador; e 3) Importância de os cursos de formação de professores explicitarem quais ferramentas investigativas são necessárias à produção autónoma de conhecimento no contexto escolar e académico (mesmo que não sejam mobilizadas), de forma a que os professores possam delinear previamente planos individuais de formação/investigação. O estudo termina com a apropriação do modelo de articulação entre a Investigação Educacional e Práticas de McIntyre (2005) ao contexto da Didáctica das Ciências evidenciando uma relação dialógica com a investigação empírica. Apesar de este modelo priorizar a dimensão epistemológica (que aceita o gap pela impossibilidade epistemológica do seu total desaparecimento), na sua apropriação foi considerada a influência das outras dimensões. Esta apropriação assentou, portanto, numa visão moderada de articulação e na complexidade inerente à interdependência das dimensões. Foram propostos três caminhos epistemológicos complementares para a articulação entre a IDC-Práticas: 1º) Interacções entre Didáctica Investigativa – Didáctica Profissional; 2º) Utilização de estratégias na IDC especialmente desenhadas para informar as práticas de ensino; e 3º) Realização de IDC pela escola. Em cada um destes caminhos procurou-se enquadrar algumas sugestões e iniciativas já levadas a cabo para potenciar o impacte e/ou articulação e que se encontravam referenciadas na literatura em geral e no contexto português em particular. O primeiro caminho (composto por cinco etapas) evidenciou-se como aquele que leva a maior vantagem pelas inúmeras intervenções possíveis. A investigação empírica aqui apresentada enquadrou-se inclusivamente neste primeiro caminho pelo facto de ter sido uma iniciativa com a intencionalidade explícita de articular a Didáctica Investigativa e Profissional e por ter sido realizada no contexto da Formação Pós-Graduada (cenário considerado privilegiado para a promoção de interacções). Esta iniciativa foi realizada exclusivamente no âmbito curricular da Formação Pós-Graduada (Didáctica Curricular) e procurou articular as dimensões epistemológicas da Didáctica através da utilização de ‘mecanismos potencialmente articuladores’ (Avaliação - feedback, TIC e Colaboração). Foram descritas as quatro etapas deste primeiro caminho percorridas empiricamente com variações no grau de concretização, com excepção da quinta etapa ‘Investigação sobre a prática de ensino com generalização situada’ porque a vertente dissertativa do respectivo curso não fez parte do corpus. Assim, a articulação ocorreu fundamentalmente no nível epistemológico (currículo da disciplina). No que diz respeito ao 2º caminho, é aquele em que a comunidade académica mais tem investido, quer pelas críticas voltadas especificamente para a investigação, quer pelo sucesso na potenciação do impacte nas propostas até agora implementadas. Deve ser utilizado de forma complementar ao 1º, envolvendo, de preferência, os Professores que percorrem frequentemente o 1º caminho na sua prática diária. Esta condição justifica-se pela necessidade de se integrar legitimamente os professores nas equipas de investigação, aumentando concomitantemente a contribuição das Práticas para a construção de conhecimento no campo educacional. Finalmente, o 3º caminho é aquele que ainda não pode ser concretizado porque, para as Escolas serem diferentes das actuais na dimensão epistemológica (tornando-se produtoras de conhecimento didáctico), seriam necessárias medidas estruturais e articuladas nas várias dimensões anteriormente referidas. Entretanto, foram apontadas algumas soluções como, por exemplo, a utilização de investigações de generalização situada nas Escolas e a ligação das Escolas em redes. Estas investigações locais não substituiriam, mas mobilizariam a IDC produzida nas Universidades (centradas na construção do campo Didáctica das Ciências). Este caminho visionário culmina por um lado, com uma análise prospectiva assente na relação de complementaridade entre as evidências científicas e experienciais porque uma prática sem suporte investigativo é imprudente e uma investigação sem suporte experiencial é imatura. Por outro com uma constatação tardia (deveras reconfortante) que os estudos centrados na relação entre a Investigação e Práticas são estudos voltados para a Formação de Investigadores-Seniores por exigirem uma meta-reflexão da prática investigativa e do processo investigativo. As implicações do estudo são: (i) futuras iniciativas de articulação entre IDCPráticas; (ii) implementar e avaliar as sugestões advindas em novos contextos formativos; e (iii) na Educação a distância na área da Didáctica e Formação Didáctica de Professores. Assume-se a limitação estrutural da investigação resultante da alteração do projecto inicial que o restringiu a uma única etapa. Faz-se ainda uma reflexão do processo formativo-investigativo mediante a descrição dos constrangimentos de natureza interna e externa. Explicitam-se as limitações de carácter geral e específico e algumas tentativas de minimização dos respectivos efeitos no estudo. Finaliza-se o estudo com algumas sugestões de trabalhos futuros, a saber: (i) Continuidade dos estudos centrados na articulação entre IDC-Práticas; (ii) Continuidade dos estudos de Avaliação da Formação Pós-Graduada em termos de eficiência, eficácia, impacte e articulação; (iii) Análise da Epistemologia da Prática Docente em comunidades de práticas escolares; (iv) Articulação entre a Investigação sobre a Formação de Professores e as práticas dos formadores e futuros-formadores; e (v) Constituição de “Scholarship of teaching” na Formação de Professores.
Resumo:
O presente trabalho tem por objectivo estudar a caracterização e modelação de arquitecturas de rádio frequência para aplicações em rádios definidos por software e rádios cognitivos. O constante aparecimento no mercado de novos padrões e tecnologias para comunicações sem fios têm levantado algumas limitações à implementação de transceptores rádio de banda larga. Para além disso, o uso de sistemas reconfiguráveis e adaptáveis baseados no conceito de rádio definido por software e rádio cognitivo assegurará a evolução para a próxima geração de comunicações sem fios. A ideia base desta tese passa por resolver alguns problemas em aberto e propor avanços relevantes, tirando para isso partido das capacidades providenciadas pelos processadores digitais de sinal de forma a melhorar o desempenho global dos sistemas propostos. Inicialmente, serão abordadas várias estratégias para a implementação e projecto de transceptores rádio, concentrando-se sempre na aplicabilidade específica a sistemas de rádio definido por software e rádio cognitivo. Serão também discutidas soluções actuais de instrumentação capaz de caracterizar um dispositivo que opere simultaneamente nos domínios analógico e digital, bem como, os próximos passos nesta área de caracterização e modelação. Além disso, iremos apresentar novos formatos de modelos comportamentais construídos especificamente para a descrição e caracterização não-linear de receptores de amostragem passa-banda, bem como, para sistemas nãolineares que utilizem sinais multi-portadora. Será apresentada uma nova arquitectura suportada na avaliação estatística dos sinais rádio que permite aumentar a gama dinâmica do receptor em situações de multi-portadora. Da mesma forma, será apresentada uma técnica de maximização da largura de banda de recepção baseada na utilização do receptor de amostragem passa-banda no formato complexo. Finalmente, importa referir que todas as arquitecturas propostas serão acompanhadas por uma introdução teórica e simulações, sempre que possível, sendo após isto validadas experimentalmente por protótipos laboratoriais.
Resumo:
O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).
Resumo:
Os resíduos sólidos (RS) têm vindo a aumentar em quantidade e diversidade nas últimas décadas em todo o mundo, em resultado da explosão demográfica, do crescimento económico e do aumento da construção, acentuando-se também a produção de resíduos perigosos. Por estas mesmas razões têm surgido limitações do espaço disponível para deposição final de RS. A prática atual no sector da construção pode ser alterada através da introdução de uma gestão eficiente, optimizadora de custos, com a produção de menos resíduos produzidos e também através da implementação de medidas preventivas de produção de resíduos nas obras. Pretende-se, no âmbito deste trabalho, abordar a problemática da gestão de resíduos de construção em obra e contribuir para alterar a situação descrita, apresentando e validando ferramentas a utilizar na gestão de RS. O principal objetivo do trabalho é avaliar os impactes ambientais associados à gestão dos resíduos produzidos na obra na fase de construção. Nas obras em estudo foi recolhida informação sobre os resíduos (quantidades e tipologia) e analisada, tratada com a finalidade de criar uma ferramenta indispensável na gestão de resíduos de construção e compilado o inventário dos resíduos. Após esta compilação, procedeu-se à avaliação dos impactes. A aplicação da ferramenta de avaliação de ciclo de vida permitem avaliar o impacte das decisões na sustentabilidade da construção, nomeadamente no que diz respeito à geração de resíduos.
Resumo:
Tomando como ponto de partida a relação entre música e matemática, nesta investigação temos como principal objetivo estudar a influência da aprendizagem musical no desempenho matemático. Pretendeu-se ainda observar o efeito de um conjunto de preditores no referido desempenho, mais concretamente do nível socioeconómico, da inteligência e de variáveis cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais). Numa primeira parte, delineámos as linhas teóricas desta investigação. Começámos por relatar a relação entre música e matemática no âmbito da musicologia histórica, da teoria e análise musicais, da acústica e das tendências na composição musical, evidenciando os mecanismos de ligação entre elementos e conceitos musicais e tópicos e temas matemáticos. Relatámos os benefícios da exposição musical ao nível do desenvolvimento cognitivo e intelectual, destacando o aumento do raciocínio espacial, do desempenho matemático e da inteligência com a aprendizagem musical. De seguida, descrevemos o impacto das aulas de música no aumento do desempenho académico a várias disciplinas, nomeadamente a Matemática, enfatizando a associação da duração da aprendizagem musical com o aumento das capacidades matemáticas; para além do efeito da aprendizagem musical, procurámos ainda explicação de um desempenho académico melhorado com base em variáveis potenciadoras da performance, tais como o nível socioeconómico e a inteligência. Nesta linha de abordagem, explorámos os efeitos de variáveis influentes do desempenho académico fora do contexto musical, reportando-nos ao nível socioeconómico, à inteligência e às dimensões cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais), destacando o poder preditivo da inteligência, seguido do nível socioeconómico e da motivação. Por fim, referimo-nos à interação entre música e encéfalo por meio das temáticas da plasticidade neural estrutural e funcional, do efeito da aprendizagem e performance musicais, da cognição musical e domínios não musicais, bem como dos fatores genéticos; sublinhamos a possibilidade de ligações entre a cognição musical e os domínios espacial e matemático. Numa segunda parte, apresentamos a investigação que desenvolvemos em contexto escolar com 112 alunos do 7º ano de escolaridade provenientes de 12 escolas do Ensino Básico. Nove são do Ensino Especializado de Música e três são do Ensino Regular. No total, as escolas enquadram-se nas zonas urbanas de Braga, Coimbra e Lisboa. O estudo possui carácter longitudinal e abrange três anos letivos, do 7º ao 9º anos de escolaridade. Após explanação dos objetivos, das hipóteses de investigação, da caracterização da amostra, da descrição dos instrumentos de avaliação e respetiva validação empírica, relatamos os resultados que encontrámos. Estes permitiram, por um lado, validar a hipótese de que os alunos submetidos ao ensino formal de música apresentam um desempenho matemático superior comparativamente aos alunos que não frequentaram este tipo de ensino (H1) e, por outro, sustentar que o número de anos de aprendizagem musical contribui para o aumento do desempenho matemático (H3). Sublinha-se, ainda, que os alunos de instrumento de teclado revelaram desempenho matemático mais elevado em relação aos seus pares que estudaram outros instrumentos. Já no que se refere ao poder preditivo do tipo de ensino (Ensino Especializado de Música vs. Ensino Regular), apurámos que a formação em música prevê melhores desempenhos a matemática; destaca-se que as variáveis em estudo, tais como o nível socioeconómico, a motivação, as expectativas de autoeficácia e a inteligência adicionam capacidade explicativa do desempenho matemático, sendo que a presença da aprendizagem musical perdeu aptidão preditiva apenas na presença da inteligência. Contudo, após controlo estatístico da inteligência, foi possível concluir que a aprendizagem musical mantém o poder preditivo no desempenho matemático (H2). Os resultados permitiram identificar em que tópicos e temas matemáticos relacionados com os elementos e conceitos musicais os alunos com aprendizagem musical apresentam melhores desempenhos, evidenciando-se os tópicos no âmbito da Geometria (H4). Observámos, também, que é possível prever o desempenho matemático a partir do raciocínio espacial dos alunos (H5). Finalmente, referimos as limitações, refletimos sobre as implicações que estes resultados poderão trazer no âmbito do ensino da música em Portugal e apontamos pistas conducentes ao desenvolvimento de investigações futuras.
Resumo:
As ciências são um elemento central da cultura contemporânea pelo que a educação científica tem de ser vista como um direito essencial dos cidadãos. A qualidade do ensino das ciências na escola torna-se, portanto, um especial foco de interesse, científico, político e social, ao nível local, nacional, e global. A investigação em educação em ciências tem produzido conhecimentos que permitem compreender os problemas e fundamentar decisões conducentes a um ensino de ciências ajustado aos desafios atuais. Por outro lado, várias organizações internacionais (UE, OCDE e UNESCO) também têm produzido documentos que visam regular as políticas globais de ensino de ciências, assumindo que a educação científica dos cidadãos é uma condição para a prosperidade económica e social de qualquer estado. Assim, atualmente, existe um acervo documental extenso e diverso relativo ao ensino de ciências, pelo que se impõe um exercício de análise e síntese que identifique quais as orientações-chave que devem ser consideradas. O ensino de nível secundário (ISCE2 e ISCE3), sendo uma etapa em que os jovens fazem escolhas pessoais e vocacionais importantes, merece particular atenção, pois diversos estudos revelam que regista níveis preocupantes de abandono e de desinteresse pelas áreas científicas e tecnológicas. Sendo as práticas dos professores um dos principais fatores de inovação e mudança importa sistematizar os conhecimentos científicos que explicam a sua complexidade e podem orientar a promoção da sua qualidade. O estudo que se apresenta situa-se na confluência de todos estes interesses e visou duas finalidades: delimitar um conceito unificador que permita estudar e desenvolver a qualidade das práticas dos professores de ciências de nível secundário; desenvolver um instrumento de inquérito que operacionalize esse conceito, numa perspetiva de investigação, formação e supervisão de práticas de ensino de ciências. O plano da investigação decorreu em duas fases. Na fase I foi delimitado o conceito perfil de ensino do professor de ciências (PEPC); este estrutura-se em três dimensões – didática, epistemológica e psicológica – cujos referenciais teórico-empíricos decorreram de revisão sistemática de literatura e de abordagem empírica de natureza exploratória e qualitativa, baseada em entrevistas a professores de ciências. Na fase II foi construído e validado o questionário do perfil de ensino do professor de ciências (QPEPC); este contém itens empiricamente situados, construídos a partir do discurso dos professores entrevistados na fase I e seguidamente validados. A validação de QPEPC envolveu dois processos de inquérito por questionário e uma metodologia mista de investigação (análise de conteúdo e análise estatística de dados): a primeira validação contou com um painel internacional de 12 especialistas em didática de ciências; a segunda validação envolveu 184 professores de ciências portugueses. Concluindo-se que QPEPC avalia duas dimensões de PEPC, construíram-se índices e modelos gráficos para facilitar a interpretação dos dados recolhidos. Analisaram-se limitações e potencialidades heurísticas de PEPC e QPEPC, enquanto produtos da investigação, perspetivando o seu uso em contextos diversos, nomeadamente futuras investigações e cenários de formação, reflexão e supervisão de professores de ciências.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
Os coeficientes de difusão (D 12) são propriedades fundamentais na investigação e na indústria, mas a falta de dados experimentais e a inexistência de equações que os estimem com precisão e confiança em fases comprimidas ou condensadas constituem limitações importantes. Os objetivos principais deste trabalho compreendem: i) a compilação de uma grande base de dados para valores de D 12 de sistemas gasosos, líquidos e supercríticos; ii) o desenvolvimento e validação de novos modelos de coeficientes de difusão a diluição infinita, aplicáveis em amplas gamas de temperatura e densidade, para sistemas contendo componentes muito distintos em termos de polaridade, tamanho e simetria; iii) a montagem e teste de uma instalação experimental para medir coeficientes de difusão em líquidos e fluidos supercríticos. Relativamente à modelação, uma nova expressão para coeficientes de difusão a diluição infinita de esferas rígidas foi desenvolvida e validada usando dados de dinâmica molecular (desvio relativo absoluto médio, AARD = 4.44%) Foram também estudados os coeficientes de difusão binários de sistemas reais. Para tal, foi compilada uma extensa base de dados de difusividades de sistemas reais em gases e solventes densos (622 sistemas binários num total de 9407 pontos experimentais e 358 moléculas) e a mesma foi usada na validação dos novos modelos desenvolvidos nesta tese. Um conjunto de novos modelos foi proposto para o cálculo de coeficientes de difusão a diluição infinita usando diferentes abordagens: i) dois modelos de base molecular com um parâmetro específico para cada sistema, aplicáveis em sistemas gasosos, líquidos e supercríticos, em que natureza do solvente se encontra limitada a apolar ou fracamente polar (AARDs globais na gama 4.26-4.40%); ii) dois modelos de base molecular biparamétricos, aplicáveis em todos os estados físicos, para qualquer tipo de soluto diluído em qualquer solvente (apolar, fracamente polar e polar). Ambos os modelos dão origem a erros globais entre 2.74% e 3.65%; iii) uma correlação com um parâmetro, específica para coeficientes de difusão em dióxido de carbono supercrítico (SC-CO2) e água líquida (AARD = 3.56%); iv) nove correlações empíricas e semi-empíricas que envolvem dois parâmetros, dependentes apenas da temperatura e/ou densidade do solvente e/ou viscosidade do solvente. Estes últimos modelos são muito simples e exibem excelentes resultados (AARDs entre 2.78% e 4.44%) em sistemas líquidos e supercríticos; e v) duas equações preditivas para difusividades de solutos em SC-CO2, em que os erros globais de ambas são inferiores a 6.80%. No global, deve realçar-se o facto de os novos modelos abrangerem a grande variedade de sistemas e moléculas geralmente encontrados. Os resultados obtidos são consistentemente melhores do que os obtidos com os modelos e abordagens encontrados na literatura. No caso das correlações com um ou dois parâmetros, mostrou-se que estes mesmos parâmetros podem ser ajustados usando um conjunto muito pequeno de dados, e posteriormente serem utilizados na previsão de valores de D 12 longe do conjunto original de pontos. Uma nova instalação experimental para medir coeficientes de difusão binários por técnicas cromatográficas foi montada e testada. O equipamento, o procedimento experimental e os cálculos analíticos necessários à obtenção dos valores de D 12 pelo método de abertura do pico cromatográfico, foram avaliados através da medição de difusividades de tolueno e acetona em SC-CO2. Seguidamente, foram medidos coeficientes de difusão de eucaliptol em SC-CO2 nas gamas de 202 – 252 bar e 313.15 – 333.15 K. Os resultados experimentais foram analisados através de correlações e modelos preditivos para D12.
Resumo:
Alzheimer’s disease is a chronic progressive neurodegenerative disease and is the most common form of dementia (estimated 50−60% of all cases), associated with loss of memory (in particular episodic memory), cognitive decline, and behavioural and physical disability, ultimately leading to death. Alzheimer’s disease is a complex disease, mostly occurring sporadically with no apparent inheritance and being the age the main risk factor. The production and accumulation of amyloid-beta peptide in the central nervous system is a key event in the development of Alzheimer’s disease. This project is devoted to the synthesis of amyloid-beta ligands, fluorophores and blood brain barrier-transporters for diagnosis and therapy of Alzheimer’s disease. Different amyloid-beta ligands will be synthesized and their ability to interact with amyloid-beta plaques will be studied with nuclear magnetic resonance techniques and a process of lead optimization will be performed. Many natural and synthetic compounds able to interact as amyloid-beta ligands have been identified. Among them, a set of small molecules in which aromatic moieties seem to play a key role to inhibit amyloid-beta aggregation, in particular heteroaromatic polycyclic compounds such as tetracyclines. Nevertheless tetracyclines suffer from chemical instability, low water solubility and possess, in this contest, undesired anti-bacterial activity. In order to overcome these limitations, one of our goals is to synthesize tetracyclines analogues bearing a polycyclic structure with improved chemical stability and water solubility, possibly lacking antibacterial activity but conserving the ability to interact with amyloid-beta peptides. Known tetracyclines have in common a fourth cycle without an aromatic character and with different functionalisations. We aim to synthesize derivatives in which this cycle is represented by a sugar moiety, thus bearing different derivatisable positions or create derivatives in which we will increase or decrease the number of fused rings. In order to generate a potential drug-tool candidate, these molecules should also possess the correct chemical-physical characteristics. The glycidic moiety, not being directly involved in the binding, it assures further possible derivatizations, such as conjugation to others molecular entities (nanoparticles, polymeric supports, etc.), and functionalization with chemical groups able to modulate the hydro/lipophilicity. In order to be useful such compounds should perform their action within the brain, therefore they have to be able to cross the blood brain barrier, and to be somehow detected for diagnostic purposes.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
As Administrações Portuárias foram evoluindo ao longo do tempo, sendo, atualmente, organismos de capitais exclusivamente públicos. Sendo crescente a competitividade entre os Portos e as exigências em termos de qualidade na prestação de serviços, as Administrações Portuárias têm sentido a necessidade de se moldarem às necessidades dos seus clientes. No presente estudo tentou perceber-se de que modo é que a informação estatística utilizada nos Portos nacionais auxilia na tomada de decisão diária dos administradores. Com vista à concretização do objetivo proposto, foi utilizada uma metodologia qualitativa, tendo a informação sido recolhida através da análise documental e de entrevistas de elite realizadas a administradores portuários. O presente estudo começa por apresentar o percurso dos Portos, expondo a sua evolução e os modelos de gestão utilizados. Posteriormente, são apresentadas as atividades desenvolvidas durante o estágio na Organização de Acolhimento – Administração do Porto de Aveiro, S.A.. De seguida, é realizado o tratamento e análise da informação recolhida através das entrevistas a administradores portuários. Por último, são expostas as considerações finais, de modo a aferir qual a importância da estatística para a gestão portuária, são identificadas as limitações encontradas durante a realização do estudo e feitas propostas de trabalho para o futuro. O estudo mostrou que, apesar de ser apenas uma parte do processo, a estatística é imprescindível para gestão dos Portos, sendo, contudo, primordial que seja desenvolvida para melhorar o processo de tomada de decisão. Algumas das mudanças sugeridas incluem obrigar os concessionários a ceder dados à Autoridade Portuária, definir indicadores globais e dinâmicos a nível nacional que permitam analisar a evolução de cada Porto, fazer benchmarking, e selecionar um conjunto de indicadores internos de performance, para que os administradores possam ter uma visão do passado, do presente e estarem preparados para o que o futuro acarreta. Acredita-se que a análise efetuada no âmbito deste estudo poderá contribuir para que se efetuem pequenas mudanças, no sentido de contribuir para uma melhor utilização da estatística na gestão portuária.
Resumo:
In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.
Resumo:
É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.