989 resultados para Limitações
Resumo:
Um dos objetivos centrais da escola atual é o de desenvolver nos alunos competências que lhes permitam adaptar-se à sociedade em constante transformação e não apenas a veiculação de conteúdos académicos. No entanto, vários estudos mostram que existem dificuldades na transferência das aprendizagens da sala de aula para o mundo real. Uma das razões apontadas é o facto de os conhecimentos de sala de aula não serem bem integrados com os conhecimentos anteriores do aluno. Para que ocorram aprendizagens significativas, torna-se, portanto, necessário que o professor leve em consideração, no planeamento de estratégias de ensino, os conhecimentos anteriores e expectativas dos alunos, as suas questões e ideias. Para que tal aconteça, é essencial que os alunos interajam com o professor, agindo como parceiros no processo de ensino e de aprendizagem, exprimindo as suas ideias, dúvidas e expectativas. Assim sendo, nesta investigação procurou-se aumentar a participação dos alunos através da criação de momentos que lhes permitissem explorar as suas ideias e escrever as suas questões. As ‘produções’ orais e escritas dos alunos foram objeto de reflexão e análise pela professora-investigadora, e levadas em consideração no planeamento das aulas subsequentes. Os dados foram recolhidos através de observação participante e não-participante, de anotações do investigador, de questões e respostas escritas pelos alunos, e da gravação áudio das interações orais das aulas. O método de investigação adotado foi o estudo de caso, sendo a investigação de carácter qualitativo. Pese as limitações do estudo no que diz respeito à dimensão da amostra, os resultados apontam no sentido de que as estratégias aplicadas estimularam a participação dos alunos. A comparação entre o número de questões escritas pelos alunos e o número de intervenções orais em algumas das aulas lecionadas revelou que o número de alunos que escreveram questões foi superior ao número de alunos que intervieram oralmente. Constatou-se, ainda, que nas aulas em que não existiu um momento exclusivamente dedicado a esta atividade, o número de questões escritas pelos alunos foi menor do que o obtido nas aulas em que aquele tempo foi disponibilizado. Estes dados sugerem que a criação de momentos de escrita de questões permite aumentar a participação dos alunos, o que foi já anteriormente defendido por vários autores. Também os momentos de trabalho em grupo constituíram um espaço importante para a exploração das ideias dos alunos, o que se tornou visível pela grande atividade dentro dos grupos, com apresentação de argumentos, construção conjunta de conhecimentos e, sobretudo, pela variedade de propostas que surgiram como forma de dar resposta a questões idênticas das fichas de trabalho. De facto, constatou-se que um maior número de alunos participava nas discussões em turma, quando estas se seguiam aos momentos de trabalho em grupo, do que quando eram realizadas após a exposição dos temas programáticos. Em suma, o que estas constatações sugerem é que a inclusão de momentos de trabalho autónomo, com a possibilidade de trocar ideias com os colegas, pode contribuir para aumentar a motivação dos alunos para intervir na aula. A recolha de questões forneceu informação acerca de falhas no conhecimento e dúvidas implícitas e explicitas na expressão escrita dos alunos, o que corrobora os resultados encontrados por outros estudos. Da mesma forma, a análise do discurso oral dos alunos e das suas respostas escritas constituiu uma fonte de informação importante relativamente àqueles aspetos. A reflexão sobre estas permitiu à professora-investigadora fazer ajustes e planear estratégias adequadas à melhoraria dos aspetos em que foram identificados problemas. O uso das ‘produções’ escritas e orais dos alunos para discussão em aulas posteriores constituiu uma forma de promover interações aluno-aluno, permitiu aceder às dúvidas de outros alunos, que se identificaram com as ideias expressas nas questões escritas, respostas escritas e manifestações orais dos seus colegas, e ajudou a integrar os alunos na gestão do processo de ensino e aprendizagem. No que diz respeito à tentativa de estimular os alunos a reformularem as suas respostas, o pedido explícito de reformulação parece aumentar a predisposição dos alunos para fazerem alterações, quando comparado com os casos em que esse pedido não existiu. Estes resultados sugerem que esta estratégia tem a potencialidade de favorecer a reflexão dos alunos sobre as suas próprias ideias. No final da dissertação, apresentam-se as limitações deste estudo e propõem-se sugestões para melhorar e aprofundar as estratégias implementadas.
Resumo:
Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.
Resumo:
Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.
Resumo:
A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.
Resumo:
A indústria da pasta e do papel é um sector importante da economia mundial, particularmente a que assenta em espécies de Eucalyptus. No entanto, essas indústrias geram quantidades significativas de correntes secundárias de subprodutos e resíduos de biomassa que podem ser exploradas em aplicações de valor acrescentado em vez de serem queimadas para produção de energia. Um exemplo nobre pode ser a produção de ácidos triterpénicos com estruturas dos tipos lupano, oleanano e ursano, dada a sua abundância em alguns destes resíduos, em particular na casca, adotando o conceito de biorrefinaria integrada numa fábrica de pasta. Estes compostos são conhecidos pelas suas inúmeras actividades biológicas, por exemplo, antioxidante, anti-inflamatória e antitumoral, e podem encontrar aplicações em produtos de elevado valor, tais como cosméticos, nutracêuticos ou farmacêuticos. Neste sentido, o estudo das potencialidades das cascas das espécies de eucalipto mais exploradas enquanto fontes de compostos triterpénicos é um tópico relevante. Por conseguinte, foram analisados e comparados em pormenor os teores e composições em ácidos triterpénicos (TTAs) das cascas externas de várias espécies de eucalipto (E. globulus, E. grandis, E. urograndis, E. maidenii e E. nitens). Os teores dos principais TTAs identificados nestas espécies variaram entre 4.5 g/kg no E. urograndis e 21.6 g/kg no E. nitens. Observou-se que as cascas externas de Eucalyptus de zonas temperadas e Mediterrânicas, nomeadamente E. nitens e E. globulus, são mais ricas em TTAs que as espécies de regiões tropicais e subtropicais. Além disso, a casca externa do E. globulus é claramente a mais rica em ácidos com estruturas do tipo ursano enquanto a do E. nitens é a mais rica em ácidos do tipo oleanano e lupano. Estes resultados levaram-nos a estudar a extração dos TTAs da casca de Eucalyptus, bem como a sua posterior concentração e purificação, a qual foi efetuada por extração sólido-líquido convencional combinada com a precipitação de solutos, e por extração com fluidos supercríticos (SFE). No que diz respeito à primeira abordagem referida, foi desenvolvido neste trabalho um método patenteado que permite obter extratos enriquecidos em TTAs das cascas de eucalipto baseado em tecnologias disponíveis no imediato. Em relação à segunda abordagem, e de forma a apostar em processos de baixo impacto ambiental exigidos pelas biorrefinarias do futuro, a SFE surge como uma opção natural. Assim, foi efetuada a SFE da casca caduca do E. globulus com dióxido de carbono puro e modificado para recuperar a fração de TTAs, e os resultados foram comparados com os obtidos por extração em Soxhlet com diclorometano. Foram realizados estudos preliminares sobre a influência da pressão (100-200 bar), a adição de co-solvente (0, 5 e 8% m/m de etanol), e operação em múltiplos passos a fim de avaliar a aplicabilidade da alternativa supercrítica para a sua produção eficiente e selectiva. Os resultados destacaram a influência da pressão e o importante papel resumo (cont.) desempenhado pelo co-solvente neste processo, cujo efeito foi mais relevante do que o aumento da pressão em várias dezenas de bar. Este trabalho foi depois otimizado, usando o planeamento factorial de experiências e a metodologia de superfícies de resposta, para analisar a influência da temperatura (40-60 ºC), pressão (100-200 bar), e teor de etanol (0.0-5.0% m/m) na recuperação dos TTAs e respectiva concentração nos extractos. Nestes intervalos, as melhores condições de operação encontradas foram 200 bar, 40 °C e 5% de etanol, para as quais os modelos de regressão estatisticamente validados previram um rendimento de extração de 1.2% com 50% de concentração em TTAs, correspondendo ao rendimento em TTAs de 5.1 g/kg de casca e uma recuperação de 79.2% comparativamente ao valor do Soxhlet. Os TTAs livres e acetilados apresentaram tendências de extracção bastante distintas devido às suas diferentes afinidades para o CO2 causadas pelas diferentes polaridades: os derivados acetilados aproximam-se de um patamar máximo a cerca de 200 bar e 5% de etanol, enquanto a extração dos TTAs livres apresenta uma tendência sempre crescente no intervalo de condições estudado. Foram também medidas curvas cumulativas de SFE da casca do E. globulus de forma a analisar o comportamento cinético do processo em termos de rendimento total, rendimento em TTAs, rendimento em TTAs livres, rendimento em TTAs acetilados, e concentração dos TTAs nos extractos. Foi analisada a influência da pressão, temperatura, teor de co-solvente e caudal do dióxido de carbono sobre as respostas anteriores. Os dados experimentais foram modelados com os modelos Logístico, de Dessorção, de Placa Plana Simples, e de Difusão. Na globalidade, os resultados confirmaram que a pressão e o teor de etanol têm um efeito significativo sobre as curvas de extração, os rendimentos finais e as concentrações dos extratos, e mostraram a presença de limitações externas à transferência de massa em alguns ensaios. Mais uma vez, as famílias individuais de TTAs livres e acetilados apresentaram diferentes tendências de extracção. A modelação permitiu-nos confirmar não só o importante papel desempenhado pela difusão intraparticular na SFE, mas também a contribuição da resistência no filme em alguns ensaios. Após a análise de todos os resultados, foi efetuado um ensaio em duas etapas em série, possibilitando o enriquecimento do teor em TTAs no extracto devido às diferentes condições adotadas em cada etapa. Por último, um éster metílico de um ácido triterpénico do tipo oleanano - morolato de metilo - foi identificado pela primeira vez enquanto componente da casca de Eucalyptus na casca externa do Eucalyptus grandis x globulus, onde ocorre em teores elevados. A sua extração com CO2 supercrítico foi também realizada, visando a conceção de uma alternativa de extração ambientalmente benigna para este composto. A 200 bar e 60 ºC, a remoção do morolato de metilo atingiu um patamar às 6 h para 5.1 kg h-1 de CO2 / kg de casca. Em geral, e de forma semelhante à SFE da casca do E. globulus, os TTAs acetilados foram mais significativamente extraídos quando comparados com os seus ácidos livres, o que está diretamente relacionado com a natureza menos polar destas moléculas. O trabalho apresentado nesta tese é uma contribuição para a valorização de uma corrente de biomassa com baixo valor na indústria de pasta em duas vertentes complementares. Por um lado, aumentou o conhecimento da composição lipofílica das cascas de Eucalyptus spp. com interesse comercial para a produção de pasta, destacando o seu potencial enquanto fontes de ácidos triterpénicos. Por outro lado, foram desenvolvidos dois processos alternativos e facilmente integráveis numa fábrica de pasta para a sua exploração a partir da casca: um baseado em tecnologias convencionais bem estabelecidas a nível industrial, prevendo a sua aplicação a curto prazo, e um outro baseado na SFE, seguindo as tendências das futuras biorrefinarias.
Resumo:
A linha de investigação deste estudo é a ‘articulação da Investigação em Didáctica das Ciências e Práticas de Ensino dos Professores de Ciências’. O seu enquadramento teórico e metodológico inicial assentou nos estudos das áreas ‘Relações entre Investigação e as Práticas’ e ‘Avaliação da Formação Pós-Graduada – vertente impacte/articulação’. Inicialmente, fez-se uma análise histórico-epistemológica da Didáctica desde a sua génese até aos dias de hoje, para se compreender quer as raízes do gap entre académicos e práticos em geral, quer a crescente necessidade de articulação. Posteriormente, avançou-se para a primeira área, partindo da polémica despoletada por Hargreaves, ao defender que o ensino deveria ser uma profissão baseada na investigação. Em seguida, partiu-se de uma análise mais geral sobre a Investigação e as Práticas no contexto educacional em vários países antes se centrar especificamente no contexto da Didáctica das Ciências (impacte da IDC nas Práticas e constrangimentos na articulação). Analisou-se também brevemente as relações entre a IDC e Práticas no contexto da Formação de Professores, e não a área da Formação de Professores, para mantermos sempre o foco nas questões inerentes à articulação. Culminou-se na análise das culturas e epistemologias da acção e da investigação, com especial destaque para o conceito de professorinvestigador na actualidade e para a descrição das barreiras epistemológicas e ontológicas. Concluiu-se que as comunidades da investigação e da acção utilizavam o conceito ‘articulação’ indiscriminadamente como sinónimo de interacções, contacto, aproximação, impacte, etc., o que acabou esvaziando-o do seu verdadeiro significado. No que diz respeito à segunda área, a sua análise partiu da descrição da evolução de dez anos (1997-2007) de estudos sobre a Avaliação do Impacte dos CM nas práticas por ser considerada uma forma eficaz de articular as dimensões da Didáctica em direcção a um novo olhar sobre o conceito ‘articulação’. Além disso, apontou a dificuldade de se avaliar o impacte ao nível macro, por um lado, por não se tratar de uma prática investigativa institucionalizada no estatuto da carreira dos professores dos EB e ES e, por outro, por ainda colidir com diferentes concepções da natureza das investigações realizadas por Professores encontradas em ambas as comunidades, entendida ora como processo cognitivo (para o desenvolvimento profissional dos professores), ora como prática social (para construção de conhecimento no campo da Didáctica). Foram compiladas ainda as sugestões para se potenciar o impacte da IDC nas Práticas e/ou a articulação entre a IDC-Práticas em contexto formativo de diversos estudos avaliativos. Finalizou-se a análise chamando a atenção para cinco aspectos que ainda carecem de maior aprofundamento nesta área. Este longo enquadramento evidenciou a complexidade da problemática ‘articulação’ decorrente da interdependência das várias dimensões (epistemológica, política, ontológica, psicológica, ética, entre outras). Por exemplo, a ausência de consenso sobre critérios para a avaliação da qualidade da investigação produzida por professores (dimensões política e epistemológica) acaba, por vezes, por não conferir legitimidade às mesmas e por influenciar a legitimação pela comunidade académica, o que resulta na necessidade de diferenciação dos contributos e no maior afastamento entre as comunidades (dimensão ontológica), entre outros. Assim, optou-se por iniciar a análise do fenómeno ‘articulação entre IDCPráticas’ através dos primeiros modelos de articulação investigação-ensino, os quais visavam, contudo, fundamentalmente o impacte da IDC nas Práticas de Ensino das Ciências. Posteriormente, foram apresentadas as potencialidades da Avaliação ↔ Feedback, TIC e Colaboração (estratégias/métodos) para potenciar a articulação entre Investigação- Práticas. No que diz respeito à investigação empírica, realizou-se um estudo de caso descritivo e explorativo de natureza mista. O caso único, crítico e instrumental foi o fenómeno “articulação entre a IDC-Práticas na Formação Didáctica Pós- Graduada” no contexto da unidade curricular ‘Metodologia do Ensino da Física’ (MEF) do Curso de Mestrado em Ensino de Física. A técnica de análise geral utilizada foi a “descrição do caso” pelo facto de não se ter um referencial teórico especificamente sobre o caso. O caso contemplou três unidades de análise, a saber: Caracterização dos Professores-Formandos; Funcionamento da Unidade Curricular e Dinâmica dos currículos dos módulos articuladores. Estas unidades de análises permitiram evidenciar de que forma as características e/ou alterações implementadas na disciplina MEF contribuíram (ou podem contribuir) para a articulação da IDC-Práticas e descrever as dinâmicas do currículo (intencional – negociado – acção), evidenciando em que medida promoveram (ou inibiram) a articulação IDC – práticas. O estudo de caso aqui descrito revelou, ainda, a existência de dois níveis de articulação entre a Investigação e as Práticas no contexto formativo. O primeiro nível foi a articulação entre a Investigação sobre o Ensino Superior/Formação de Professores de Ciências (patente nas estratégias/métodos utilizados na disciplina) e a prática formativa dos IF no contexto da disciplina. O segundo nível centrou-se na articulação entre a Investigação sobre o Ensino não-Superior/Didáctica das Ciências e as práticas de Ensino das Ciências, base orientadora do currículo da disciplina aqui analisada, concretizado nos dois módulos articuladores descritos. Destacam-se algumas dimensões de análise descritas na presente investigação empírica, a saber: Utilização das TIC; Avaliação do Ensino baseada no feedback dos alunos; Avaliação Formativa das Aprendizagens e feedback; Trabalho de grupo realizado nos módulos articuladores; Currículo centrado na IDC; Currículo centrado na articulação da IDC-Práticas de Ensino das Ciências; Currículo centrado nas Práticas de Ensino das Ciências; Currículo centrado na articulação da Investigação-Práticas formativas e Currículo centrado nas Políticas Educativas. Relativamente a dinâmica dos currículos (intencional - negociado - acção) dos dois módulos articuladores, foram definidos quatro construtos (objectos de ensino, objectos de aprendizagem, objectivos de ensino e objectivos de aprendizagem) que culminaram na discussão de vários aspectos a serem considerados nos próximos cursos como, por exemplo: 1) Importância de o contrato didáctico prever a inclusão de objectos de aprendizagem; 2) Incompatibilidade do objectivo de aprendizagem ‘compreender a importância da IDC e a sua relevância para as práticas lectivas em contextos específicos’ num quadro formativo articulador; e 3) Importância de os cursos de formação de professores explicitarem quais ferramentas investigativas são necessárias à produção autónoma de conhecimento no contexto escolar e académico (mesmo que não sejam mobilizadas), de forma a que os professores possam delinear previamente planos individuais de formação/investigação. O estudo termina com a apropriação do modelo de articulação entre a Investigação Educacional e Práticas de McIntyre (2005) ao contexto da Didáctica das Ciências evidenciando uma relação dialógica com a investigação empírica. Apesar de este modelo priorizar a dimensão epistemológica (que aceita o gap pela impossibilidade epistemológica do seu total desaparecimento), na sua apropriação foi considerada a influência das outras dimensões. Esta apropriação assentou, portanto, numa visão moderada de articulação e na complexidade inerente à interdependência das dimensões. Foram propostos três caminhos epistemológicos complementares para a articulação entre a IDC-Práticas: 1º) Interacções entre Didáctica Investigativa – Didáctica Profissional; 2º) Utilização de estratégias na IDC especialmente desenhadas para informar as práticas de ensino; e 3º) Realização de IDC pela escola. Em cada um destes caminhos procurou-se enquadrar algumas sugestões e iniciativas já levadas a cabo para potenciar o impacte e/ou articulação e que se encontravam referenciadas na literatura em geral e no contexto português em particular. O primeiro caminho (composto por cinco etapas) evidenciou-se como aquele que leva a maior vantagem pelas inúmeras intervenções possíveis. A investigação empírica aqui apresentada enquadrou-se inclusivamente neste primeiro caminho pelo facto de ter sido uma iniciativa com a intencionalidade explícita de articular a Didáctica Investigativa e Profissional e por ter sido realizada no contexto da Formação Pós-Graduada (cenário considerado privilegiado para a promoção de interacções). Esta iniciativa foi realizada exclusivamente no âmbito curricular da Formação Pós-Graduada (Didáctica Curricular) e procurou articular as dimensões epistemológicas da Didáctica através da utilização de ‘mecanismos potencialmente articuladores’ (Avaliação - feedback, TIC e Colaboração). Foram descritas as quatro etapas deste primeiro caminho percorridas empiricamente com variações no grau de concretização, com excepção da quinta etapa ‘Investigação sobre a prática de ensino com generalização situada’ porque a vertente dissertativa do respectivo curso não fez parte do corpus. Assim, a articulação ocorreu fundamentalmente no nível epistemológico (currículo da disciplina). No que diz respeito ao 2º caminho, é aquele em que a comunidade académica mais tem investido, quer pelas críticas voltadas especificamente para a investigação, quer pelo sucesso na potenciação do impacte nas propostas até agora implementadas. Deve ser utilizado de forma complementar ao 1º, envolvendo, de preferência, os Professores que percorrem frequentemente o 1º caminho na sua prática diária. Esta condição justifica-se pela necessidade de se integrar legitimamente os professores nas equipas de investigação, aumentando concomitantemente a contribuição das Práticas para a construção de conhecimento no campo educacional. Finalmente, o 3º caminho é aquele que ainda não pode ser concretizado porque, para as Escolas serem diferentes das actuais na dimensão epistemológica (tornando-se produtoras de conhecimento didáctico), seriam necessárias medidas estruturais e articuladas nas várias dimensões anteriormente referidas. Entretanto, foram apontadas algumas soluções como, por exemplo, a utilização de investigações de generalização situada nas Escolas e a ligação das Escolas em redes. Estas investigações locais não substituiriam, mas mobilizariam a IDC produzida nas Universidades (centradas na construção do campo Didáctica das Ciências). Este caminho visionário culmina por um lado, com uma análise prospectiva assente na relação de complementaridade entre as evidências científicas e experienciais porque uma prática sem suporte investigativo é imprudente e uma investigação sem suporte experiencial é imatura. Por outro com uma constatação tardia (deveras reconfortante) que os estudos centrados na relação entre a Investigação e Práticas são estudos voltados para a Formação de Investigadores-Seniores por exigirem uma meta-reflexão da prática investigativa e do processo investigativo. As implicações do estudo são: (i) futuras iniciativas de articulação entre IDCPráticas; (ii) implementar e avaliar as sugestões advindas em novos contextos formativos; e (iii) na Educação a distância na área da Didáctica e Formação Didáctica de Professores. Assume-se a limitação estrutural da investigação resultante da alteração do projecto inicial que o restringiu a uma única etapa. Faz-se ainda uma reflexão do processo formativo-investigativo mediante a descrição dos constrangimentos de natureza interna e externa. Explicitam-se as limitações de carácter geral e específico e algumas tentativas de minimização dos respectivos efeitos no estudo. Finaliza-se o estudo com algumas sugestões de trabalhos futuros, a saber: (i) Continuidade dos estudos centrados na articulação entre IDC-Práticas; (ii) Continuidade dos estudos de Avaliação da Formação Pós-Graduada em termos de eficiência, eficácia, impacte e articulação; (iii) Análise da Epistemologia da Prática Docente em comunidades de práticas escolares; (iv) Articulação entre a Investigação sobre a Formação de Professores e as práticas dos formadores e futuros-formadores; e (v) Constituição de “Scholarship of teaching” na Formação de Professores.
Resumo:
O presente trabalho tem por objectivo estudar a caracterização e modelação de arquitecturas de rádio frequência para aplicações em rádios definidos por software e rádios cognitivos. O constante aparecimento no mercado de novos padrões e tecnologias para comunicações sem fios têm levantado algumas limitações à implementação de transceptores rádio de banda larga. Para além disso, o uso de sistemas reconfiguráveis e adaptáveis baseados no conceito de rádio definido por software e rádio cognitivo assegurará a evolução para a próxima geração de comunicações sem fios. A ideia base desta tese passa por resolver alguns problemas em aberto e propor avanços relevantes, tirando para isso partido das capacidades providenciadas pelos processadores digitais de sinal de forma a melhorar o desempenho global dos sistemas propostos. Inicialmente, serão abordadas várias estratégias para a implementação e projecto de transceptores rádio, concentrando-se sempre na aplicabilidade específica a sistemas de rádio definido por software e rádio cognitivo. Serão também discutidas soluções actuais de instrumentação capaz de caracterizar um dispositivo que opere simultaneamente nos domínios analógico e digital, bem como, os próximos passos nesta área de caracterização e modelação. Além disso, iremos apresentar novos formatos de modelos comportamentais construídos especificamente para a descrição e caracterização não-linear de receptores de amostragem passa-banda, bem como, para sistemas nãolineares que utilizem sinais multi-portadora. Será apresentada uma nova arquitectura suportada na avaliação estatística dos sinais rádio que permite aumentar a gama dinâmica do receptor em situações de multi-portadora. Da mesma forma, será apresentada uma técnica de maximização da largura de banda de recepção baseada na utilização do receptor de amostragem passa-banda no formato complexo. Finalmente, importa referir que todas as arquitecturas propostas serão acompanhadas por uma introdução teórica e simulações, sempre que possível, sendo após isto validadas experimentalmente por protótipos laboratoriais.
Resumo:
O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).
Resumo:
Os resíduos sólidos (RS) têm vindo a aumentar em quantidade e diversidade nas últimas décadas em todo o mundo, em resultado da explosão demográfica, do crescimento económico e do aumento da construção, acentuando-se também a produção de resíduos perigosos. Por estas mesmas razões têm surgido limitações do espaço disponível para deposição final de RS. A prática atual no sector da construção pode ser alterada através da introdução de uma gestão eficiente, optimizadora de custos, com a produção de menos resíduos produzidos e também através da implementação de medidas preventivas de produção de resíduos nas obras. Pretende-se, no âmbito deste trabalho, abordar a problemática da gestão de resíduos de construção em obra e contribuir para alterar a situação descrita, apresentando e validando ferramentas a utilizar na gestão de RS. O principal objetivo do trabalho é avaliar os impactes ambientais associados à gestão dos resíduos produzidos na obra na fase de construção. Nas obras em estudo foi recolhida informação sobre os resíduos (quantidades e tipologia) e analisada, tratada com a finalidade de criar uma ferramenta indispensável na gestão de resíduos de construção e compilado o inventário dos resíduos. Após esta compilação, procedeu-se à avaliação dos impactes. A aplicação da ferramenta de avaliação de ciclo de vida permitem avaliar o impacte das decisões na sustentabilidade da construção, nomeadamente no que diz respeito à geração de resíduos.
Resumo:
Tomando como ponto de partida a relação entre música e matemática, nesta investigação temos como principal objetivo estudar a influência da aprendizagem musical no desempenho matemático. Pretendeu-se ainda observar o efeito de um conjunto de preditores no referido desempenho, mais concretamente do nível socioeconómico, da inteligência e de variáveis cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais). Numa primeira parte, delineámos as linhas teóricas desta investigação. Começámos por relatar a relação entre música e matemática no âmbito da musicologia histórica, da teoria e análise musicais, da acústica e das tendências na composição musical, evidenciando os mecanismos de ligação entre elementos e conceitos musicais e tópicos e temas matemáticos. Relatámos os benefícios da exposição musical ao nível do desenvolvimento cognitivo e intelectual, destacando o aumento do raciocínio espacial, do desempenho matemático e da inteligência com a aprendizagem musical. De seguida, descrevemos o impacto das aulas de música no aumento do desempenho académico a várias disciplinas, nomeadamente a Matemática, enfatizando a associação da duração da aprendizagem musical com o aumento das capacidades matemáticas; para além do efeito da aprendizagem musical, procurámos ainda explicação de um desempenho académico melhorado com base em variáveis potenciadoras da performance, tais como o nível socioeconómico e a inteligência. Nesta linha de abordagem, explorámos os efeitos de variáveis influentes do desempenho académico fora do contexto musical, reportando-nos ao nível socioeconómico, à inteligência e às dimensões cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais), destacando o poder preditivo da inteligência, seguido do nível socioeconómico e da motivação. Por fim, referimo-nos à interação entre música e encéfalo por meio das temáticas da plasticidade neural estrutural e funcional, do efeito da aprendizagem e performance musicais, da cognição musical e domínios não musicais, bem como dos fatores genéticos; sublinhamos a possibilidade de ligações entre a cognição musical e os domínios espacial e matemático. Numa segunda parte, apresentamos a investigação que desenvolvemos em contexto escolar com 112 alunos do 7º ano de escolaridade provenientes de 12 escolas do Ensino Básico. Nove são do Ensino Especializado de Música e três são do Ensino Regular. No total, as escolas enquadram-se nas zonas urbanas de Braga, Coimbra e Lisboa. O estudo possui carácter longitudinal e abrange três anos letivos, do 7º ao 9º anos de escolaridade. Após explanação dos objetivos, das hipóteses de investigação, da caracterização da amostra, da descrição dos instrumentos de avaliação e respetiva validação empírica, relatamos os resultados que encontrámos. Estes permitiram, por um lado, validar a hipótese de que os alunos submetidos ao ensino formal de música apresentam um desempenho matemático superior comparativamente aos alunos que não frequentaram este tipo de ensino (H1) e, por outro, sustentar que o número de anos de aprendizagem musical contribui para o aumento do desempenho matemático (H3). Sublinha-se, ainda, que os alunos de instrumento de teclado revelaram desempenho matemático mais elevado em relação aos seus pares que estudaram outros instrumentos. Já no que se refere ao poder preditivo do tipo de ensino (Ensino Especializado de Música vs. Ensino Regular), apurámos que a formação em música prevê melhores desempenhos a matemática; destaca-se que as variáveis em estudo, tais como o nível socioeconómico, a motivação, as expectativas de autoeficácia e a inteligência adicionam capacidade explicativa do desempenho matemático, sendo que a presença da aprendizagem musical perdeu aptidão preditiva apenas na presença da inteligência. Contudo, após controlo estatístico da inteligência, foi possível concluir que a aprendizagem musical mantém o poder preditivo no desempenho matemático (H2). Os resultados permitiram identificar em que tópicos e temas matemáticos relacionados com os elementos e conceitos musicais os alunos com aprendizagem musical apresentam melhores desempenhos, evidenciando-se os tópicos no âmbito da Geometria (H4). Observámos, também, que é possível prever o desempenho matemático a partir do raciocínio espacial dos alunos (H5). Finalmente, referimos as limitações, refletimos sobre as implicações que estes resultados poderão trazer no âmbito do ensino da música em Portugal e apontamos pistas conducentes ao desenvolvimento de investigações futuras.
Resumo:
As ciências são um elemento central da cultura contemporânea pelo que a educação científica tem de ser vista como um direito essencial dos cidadãos. A qualidade do ensino das ciências na escola torna-se, portanto, um especial foco de interesse, científico, político e social, ao nível local, nacional, e global. A investigação em educação em ciências tem produzido conhecimentos que permitem compreender os problemas e fundamentar decisões conducentes a um ensino de ciências ajustado aos desafios atuais. Por outro lado, várias organizações internacionais (UE, OCDE e UNESCO) também têm produzido documentos que visam regular as políticas globais de ensino de ciências, assumindo que a educação científica dos cidadãos é uma condição para a prosperidade económica e social de qualquer estado. Assim, atualmente, existe um acervo documental extenso e diverso relativo ao ensino de ciências, pelo que se impõe um exercício de análise e síntese que identifique quais as orientações-chave que devem ser consideradas. O ensino de nível secundário (ISCE2 e ISCE3), sendo uma etapa em que os jovens fazem escolhas pessoais e vocacionais importantes, merece particular atenção, pois diversos estudos revelam que regista níveis preocupantes de abandono e de desinteresse pelas áreas científicas e tecnológicas. Sendo as práticas dos professores um dos principais fatores de inovação e mudança importa sistematizar os conhecimentos científicos que explicam a sua complexidade e podem orientar a promoção da sua qualidade. O estudo que se apresenta situa-se na confluência de todos estes interesses e visou duas finalidades: delimitar um conceito unificador que permita estudar e desenvolver a qualidade das práticas dos professores de ciências de nível secundário; desenvolver um instrumento de inquérito que operacionalize esse conceito, numa perspetiva de investigação, formação e supervisão de práticas de ensino de ciências. O plano da investigação decorreu em duas fases. Na fase I foi delimitado o conceito perfil de ensino do professor de ciências (PEPC); este estrutura-se em três dimensões – didática, epistemológica e psicológica – cujos referenciais teórico-empíricos decorreram de revisão sistemática de literatura e de abordagem empírica de natureza exploratória e qualitativa, baseada em entrevistas a professores de ciências. Na fase II foi construído e validado o questionário do perfil de ensino do professor de ciências (QPEPC); este contém itens empiricamente situados, construídos a partir do discurso dos professores entrevistados na fase I e seguidamente validados. A validação de QPEPC envolveu dois processos de inquérito por questionário e uma metodologia mista de investigação (análise de conteúdo e análise estatística de dados): a primeira validação contou com um painel internacional de 12 especialistas em didática de ciências; a segunda validação envolveu 184 professores de ciências portugueses. Concluindo-se que QPEPC avalia duas dimensões de PEPC, construíram-se índices e modelos gráficos para facilitar a interpretação dos dados recolhidos. Analisaram-se limitações e potencialidades heurísticas de PEPC e QPEPC, enquanto produtos da investigação, perspetivando o seu uso em contextos diversos, nomeadamente futuras investigações e cenários de formação, reflexão e supervisão de professores de ciências.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
Os coeficientes de difusão (D 12) são propriedades fundamentais na investigação e na indústria, mas a falta de dados experimentais e a inexistência de equações que os estimem com precisão e confiança em fases comprimidas ou condensadas constituem limitações importantes. Os objetivos principais deste trabalho compreendem: i) a compilação de uma grande base de dados para valores de D 12 de sistemas gasosos, líquidos e supercríticos; ii) o desenvolvimento e validação de novos modelos de coeficientes de difusão a diluição infinita, aplicáveis em amplas gamas de temperatura e densidade, para sistemas contendo componentes muito distintos em termos de polaridade, tamanho e simetria; iii) a montagem e teste de uma instalação experimental para medir coeficientes de difusão em líquidos e fluidos supercríticos. Relativamente à modelação, uma nova expressão para coeficientes de difusão a diluição infinita de esferas rígidas foi desenvolvida e validada usando dados de dinâmica molecular (desvio relativo absoluto médio, AARD = 4.44%) Foram também estudados os coeficientes de difusão binários de sistemas reais. Para tal, foi compilada uma extensa base de dados de difusividades de sistemas reais em gases e solventes densos (622 sistemas binários num total de 9407 pontos experimentais e 358 moléculas) e a mesma foi usada na validação dos novos modelos desenvolvidos nesta tese. Um conjunto de novos modelos foi proposto para o cálculo de coeficientes de difusão a diluição infinita usando diferentes abordagens: i) dois modelos de base molecular com um parâmetro específico para cada sistema, aplicáveis em sistemas gasosos, líquidos e supercríticos, em que natureza do solvente se encontra limitada a apolar ou fracamente polar (AARDs globais na gama 4.26-4.40%); ii) dois modelos de base molecular biparamétricos, aplicáveis em todos os estados físicos, para qualquer tipo de soluto diluído em qualquer solvente (apolar, fracamente polar e polar). Ambos os modelos dão origem a erros globais entre 2.74% e 3.65%; iii) uma correlação com um parâmetro, específica para coeficientes de difusão em dióxido de carbono supercrítico (SC-CO2) e água líquida (AARD = 3.56%); iv) nove correlações empíricas e semi-empíricas que envolvem dois parâmetros, dependentes apenas da temperatura e/ou densidade do solvente e/ou viscosidade do solvente. Estes últimos modelos são muito simples e exibem excelentes resultados (AARDs entre 2.78% e 4.44%) em sistemas líquidos e supercríticos; e v) duas equações preditivas para difusividades de solutos em SC-CO2, em que os erros globais de ambas são inferiores a 6.80%. No global, deve realçar-se o facto de os novos modelos abrangerem a grande variedade de sistemas e moléculas geralmente encontrados. Os resultados obtidos são consistentemente melhores do que os obtidos com os modelos e abordagens encontrados na literatura. No caso das correlações com um ou dois parâmetros, mostrou-se que estes mesmos parâmetros podem ser ajustados usando um conjunto muito pequeno de dados, e posteriormente serem utilizados na previsão de valores de D 12 longe do conjunto original de pontos. Uma nova instalação experimental para medir coeficientes de difusão binários por técnicas cromatográficas foi montada e testada. O equipamento, o procedimento experimental e os cálculos analíticos necessários à obtenção dos valores de D 12 pelo método de abertura do pico cromatográfico, foram avaliados através da medição de difusividades de tolueno e acetona em SC-CO2. Seguidamente, foram medidos coeficientes de difusão de eucaliptol em SC-CO2 nas gamas de 202 – 252 bar e 313.15 – 333.15 K. Os resultados experimentais foram analisados através de correlações e modelos preditivos para D12.
Resumo:
Alzheimer’s disease is a chronic progressive neurodegenerative disease and is the most common form of dementia (estimated 50−60% of all cases), associated with loss of memory (in particular episodic memory), cognitive decline, and behavioural and physical disability, ultimately leading to death. Alzheimer’s disease is a complex disease, mostly occurring sporadically with no apparent inheritance and being the age the main risk factor. The production and accumulation of amyloid-beta peptide in the central nervous system is a key event in the development of Alzheimer’s disease. This project is devoted to the synthesis of amyloid-beta ligands, fluorophores and blood brain barrier-transporters for diagnosis and therapy of Alzheimer’s disease. Different amyloid-beta ligands will be synthesized and their ability to interact with amyloid-beta plaques will be studied with nuclear magnetic resonance techniques and a process of lead optimization will be performed. Many natural and synthetic compounds able to interact as amyloid-beta ligands have been identified. Among them, a set of small molecules in which aromatic moieties seem to play a key role to inhibit amyloid-beta aggregation, in particular heteroaromatic polycyclic compounds such as tetracyclines. Nevertheless tetracyclines suffer from chemical instability, low water solubility and possess, in this contest, undesired anti-bacterial activity. In order to overcome these limitations, one of our goals is to synthesize tetracyclines analogues bearing a polycyclic structure with improved chemical stability and water solubility, possibly lacking antibacterial activity but conserving the ability to interact with amyloid-beta peptides. Known tetracyclines have in common a fourth cycle without an aromatic character and with different functionalisations. We aim to synthesize derivatives in which this cycle is represented by a sugar moiety, thus bearing different derivatisable positions or create derivatives in which we will increase or decrease the number of fused rings. In order to generate a potential drug-tool candidate, these molecules should also possess the correct chemical-physical characteristics. The glycidic moiety, not being directly involved in the binding, it assures further possible derivatizations, such as conjugation to others molecular entities (nanoparticles, polymeric supports, etc.), and functionalization with chemical groups able to modulate the hydro/lipophilicity. In order to be useful such compounds should perform their action within the brain, therefore they have to be able to cross the blood brain barrier, and to be somehow detected for diagnostic purposes.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.