24 resultados para Oralidade - Erros
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
A publicação intitulada Transversalidades V: Desenvolvimento da oralidade destina-se a divulgar o trabalho realizado durante o estágio de doutoramento (doutorado- sanduíche no exterior) de Ewerton Ávila dos Anjos Luna, subordinado ao tema A reflexão sobre o tratamento didático da oralidade nos cursos de formação inicial do professor de Português. Esse trabalho de investigação foi levado a cabo sob a nossa orientação científica no âmbito da Linha 1 do Projeto Desenvolvimento de competências em língua do território: para uma educação em Português, subordinada ao tema Transversalidade e especificidade da língua portuguesa no currículo, em curso no LEIP (Laboratório de Investigação em Educação em Português). (...)
Resumo:
As proteínas existentes nas células são produzidas pelo mecanismo de tradução do mRNA, no qual a informação genética contida nos genes é descodificada em cadeias polipeptídicas. O código genético, que define as regras de descodificação do genoma, minimiza os erros de tradução do mRNA, garantindo a síntese de proteínas com elevada fidelidade. Esta é essencial para a estabilidade do proteoma e para a manutenção e funcionamento dos processos celulares. Em condições fisiológicas normais, os erros da tradução do mRNA ocorrem com frequências que variam de 10-3 a 10-5 erros por codão descodificado. Situações que aumentam este erro basal geralmente estão associadas ao envelhecimento, stresse e a doenças; no entanto, em certos organismos o código genético é traduzido naturalmente com elevado erro, indicando que a síntese de proteínas aberrantes pode de algum modo ser vantajosa. A fim de estudar a resposta celular aos erros de tradução do mRNA, construímos leveduras que incorporam serina no proteoma em resposta a um codão de leucina, usando a expressão constitutiva de um tRNASer mutante. Este fenómeno genético artificial provocou uma forte diminuição da esporulação, da viabilidade e da eficiência de mating, afectando imensamente a reprodução sexual da levedura. Observou-se também uma grande heterogeneidade no tamanho e na forma das células e elevada instabilidade genómica, com o aparecimento de populações poliplóides e aneuplóides. No sentido de clarificar as bases celulares e moleculares daqueles fenótipos e compreender melhor a biologia do erro de tradução do mRNA, construímos também células de levedura que inserem serina em resposta a um codão de leucina de modo indutível e controlado. Utilizaram-se perfis de mRNA total e de mRNA associado a polissomas para elucidar a resposta celular ao erro de tradução do mRNA. Observou-se a indução de genes envolvidos na resposta ao stresse geral, stresse oxidativo e na unfolded protein response (UPR). Um aumento significativo de espécies reactivas de oxigénio (ROS) e um forte impacto negativo na capacidade das células pós-mitóticas re-iniciarem o crescimento foram também observados. Este fenótipo de perda de viabilidade celular foi resgatado por scavangers de ROS, indicando que o stresse oxidativo é a principal causa de morte celular causada pelos erros de tradução. Este estudo levanta a hipótese de que o stresse oxidativo e a acumulação de ROS, ao invés do colapso súbito do proteoma, são as principais causas da degeneração celular e das doenças humanas associadas aos erros de tradução do genoma. ABSTRACT: Proteins are synthesized through the mechanism of translation, which uses the genetic code to transform the nucleic acids based information of the genome into the amino acids based information of the proteome. The genetic code evolved in such a manner that translational errors are kept to a minimum and even when they occur their impact is minimized by similar chemical properties of the amino acids. Protein synthesis fidelity is essential for proteome stability and for functional maintenance of cellular processes. Indeed, under normal physiological conditions, mistranslation occurs at frequencies that range from 10-3 to 10-5 errors per codon decoded. Situations where this basal error frequency increases are usually associated to aging and disease. However, there are some organisms where genetic code errors occur naturally at high level, suggesting that mRNA mistranslation can somehow be beneficial. In order to study the cellular response to mRNA mistranslation, we have engineered single codon mistranslation in yeast cells, using constitutive expression of mutant tRNASer genes. These mistranslating strains inserted serines at leucine-CUG sites on a proteome wide scale due to competition between the wild type tRNALeu with the mutant tRNASer. Such mistranslation event decreased yeast sporulation, viability and mating efficiencies sharply and affected sexual reproduction strongly. High heterogeneity in cell size and shape and high instability in the genome were also observed, with the appearance of some polyploid or aneuploid cell populations. To further study the cellular and molecular basis of those phenotypes and the biology of mRNA mistranslation, we have also engineered inducible mRNA misreading in yeast and used total mRNA and polysome associated mRNA profiling to determine whether codon misreading affects gene expression. Induced mistranslation up-regulated genes involved in the general stress response, oxidative stress and in the unfolded protein response (UPR). A significant increase in reactive oxygen species (ROS) and a strong negative impact on the capacity of post-mitotic cells to re-initiate growth in fresh media were also observed. This cell viability phenotype was rescued by scavengers of ROS, indicating that oxidative stress is the main cause of cell death caused by mRNA mistranslation. This study provides strong support for the hypothesis that oxidative stress and ROS accumulation, rather than sudden proteome collapse or major proteome disruption, are the main cause of the cellular degeneration observed in human diseases associated mRNA mistranslation.
Resumo:
O metano é um gás de estufa potente e uma importante fonte de energia. A importância global e impacto em zonas costeiras de acumulações e escape de gás metano são ainda pouco conhecidas. Esta tese investiga acumulações e escape de gás em canais de maré da Ria de Aveiro com dados de cinco campanhas de reflexão sísmica de alta resolução realizadas em 1986, 1999, 2002 e 2003. Estas incluem três campanhas de Chirp (RIAV99, RIAV02 e RIAV02A) e duas campanhas de Boomer (VOUGA86 e RIAV03). O processamento dos dados de navegação incluíram filtros de erros, correcções de sincronização de relógios de sistemas de aquisição de dados, ajuste de “layback” e estimativa da posição de “midpoint”. O processamento do sinal sísmico consistiu na correcção das amplitudes, remoção de ruído do tipo “burst”, correcções estáticas, correcção do “normal move-out”, filtragem passabanda, desconvolução da assinatura e migração Stolt F-K. A análise da regularidade do trajecto de navegação, dos desfasamentos entre horizontes e dos modelos de superfícies foi utilizada para controlo de qualidade, e permitiu a revisão e melhoria dos parâmetros de processamento. A heterogeneidade da cobertura sísmica, da qualidade do sinal, da penetração e da resolução, no seu conjunto constrangeram o uso dos dados a interpretações detalhadas, mas locais, de objectos geológicos da Ria. É apresentado um procedimento para determinar a escolha de escalas adequadas para modelar os objectos geológicos, baseado na resolução sísmica, erros de posicionamento conhecidos e desfasamentos médios entre horizontes. As evidências de acumulação e escape de gás na Ria de Aveiro incluem turbidez acústica, reflexões reforçadas, cortinas acústicas, domas, “pockmarks” e alinhamentos de “pockmarks” enterradas, horizontes perturbados e plumas acústicas na coluna de água (flares). A estratigrafia e a estrutura geológica controlam a distribuição e extensão das acumulações e escape de gás. Ainda assim, nestes sistemas de baixa profundidade de água, as variações da altura de maré têm um impacto significativo na detecção de gás com métodos acústicos, através de alterações nas amplitudes originais de reflexões reforçadas, turbidez acústica e branqueamento acústico em zonas com gás. Os padrões encontrados confirmam que o escape de bolhas de gás é desencadeado pela descida da maré. Há acumulações de gás em sedimentos Holocénicos e no substrato de argilas e calcários do Mesozóico. Evidências directas de escape de gás em sondagens em zonas vizinhas, mostraram gás essencialmente biogénico. A maioria do gás na área deve ter sido gerado em sedimentos lagunares Holocénicos. No entanto, a localização e geometria de estruturas de escape de fluidos em alguns canais de maré, seguem o padrão de fracturas do substrato Mesozóico, indicando uma possível fonte mais profunda de gás e que estas fracturas funcionam como condutas preferenciais de migração dos fluidos e exercem um controlo estrutural na ocorrência de gás na Ria.
Resumo:
O presente trabalho tem como principal objectivo o desenvolvimento de novos materiais baseados em quitosano, seus derivados e celulose, na forma de nanofibras ou de papel. Em primeiro lugar procedeu-se à purificação das amostras comerciais de quitosano e à sua caracterização exaustiva em termos morfológicos e físicoquímicos. Devido a valores contraditórios encontrados na literatura relativamente à energia de superfície do quitosano, e tendo em conta a sua utilização como precursor de modificações químicas e a sua aplicação em misturas com outros materiais, realizou-se também um estudo sistemático da determinação da energia de superfície do quitosano, da quitina e seus respectivos homólogos monoméricos, por medição de ângulos de contacto Em todas as amostras comerciais destes polímeros identificaram-se impurezas não polares que estão associadas a erros na determinação da componente polar da energia de superfície. Após a remoção destas impurezas, o valor da energia total de superfície (gs), e em particular da sua componente polar, aumentou consideravelmente. Depois de purificadas e caracterizadas, algumas das amostras de quitosano foram então usadas na preparação de filmes nanocompósitos, nomeadamente dois quitosanos com diferentes graus de polimerização, correspondentes derivados solúveis em água (cloreto de N-(3-(N,N,N-trimetilamónio)-2- hidroxipropilo) de quitosano) e nanofibras de celulose como reforço (celulose nanofibrilada (NFC) e celulose bacteriana (BC). Estes filmes transparentes foram preparados através de um processo simples e com conotação ‘verde’ pela dispersão homogénea de diferentes teores de NFC (até 60%) e BC (até 40%) nas soluções de quitosano (1.5% w/v) seguida da evaporação do solvente. Os filmes obtidos foram depois caracterizados por diversas técnicas, tais como SEM, AFM, difracção de raio-X, TGA, DMA, ensaios de tracção e espectroscopia no visível. Estes filmes são altamente transparentes e apresentam melhores propriedades mecânicas e maior estabilidade térmica do que os correspondentes filmes sem reforço. Outra abordagem deste trabalho envolveu o revestimento de folhas de papel de E. globulus com quitosano e dois derivados, um derivado fluorescente e um derivado solúvel em água, numa máquina de revestimentos (‘máquina de colagem’) à escala piloto. Este estudo envolveu inicialmente a deposição de 1 a 5 camadas do derivado de quitosano fluorescente sobre as folhas de papel de forma a estudar a sua distribuição nas folhas em termos de espalhamento e penetração, através de medições de reflectância e luminescência. Os resultados mostraram que, por um lado, a distribuição do quitosano na superfície era homogénea e que, por outro lado, a sua penetração através dos poros do papel cessou após três deposições. Depois da terceira camada verificou-se a formação de um filme contínuo de quitosano sobre a superfície do papel. Estes resultados mostram que este derivado de quitosano fluorescente pode ser utilizado como marcador na optimização e compreensão de mecanismos de deposição de quitosano em papel e outros substratos. Depois de conhecida a distribuição do quitosano nas folhas de papel, estudou-se o efeito do revestimento de quitosano e do seu derivado solúvel em água nas propriedades finais do papel. As propriedades morfológicas, mecânicas, superficiais, ópticas, assim como a permeabilidade ao ar e ao vapor de água, a aptidão à impressão e o envelhecimento do papel, foram exaustivamente avaliadas. De uma forma geral, os revestimentos com quitosano e com o seu derivado solúvel em água tiveram um impacto positivo nas propriedades finais do papel, que se mostrou ser dependente do número de camadas depositadas. Os resultados também mostraram que os papéis revestidos com o derivado solúvel em água apresentaram melhores propriedades ópticas, aptidão à impressão e melhores resultados em relação ao envelhecimento do que os papéis revestidos com quitosano. Assim, o uso de derivados de quitosano solúveis em água em processos de revestimento de papel representa uma estratégia bastante interessante e sustentável para o desenvolvimento de novos materiais funcionais ou na melhoria das propriedades finais dos papéis. Por fim, tendo como objectivo valorizar os resíduos e fracções menos nobres da quitina e do quitosano provenientes da indústria transformadora, estes polímeros foram convertidos em polióis viscosos através de uma reacção simples de oxipropilação. Este processo tem também conotação "verde" uma vez que não requer solvente, não origina subprodutos e não exige nenhuma operação específica (separação, purificação, etc) para isolar o produto da reacção. As amostras de quitina e quitosano foram pré-activadas com KOH e depois modificadas com um excesso de óxido de propileno (PO) num reactor apropriado. Em todos os casos, o produto da reacção foi um líquido viscoso composto por quitina ou quitosano oxipropilados e homopolímero de PO. Estas duas fracções foram separadas e caracterizadas.
Resumo:
O presente trabalho propõe-se a divulgar as mais significativas técnicas de esquemas cooperativos, de forma a ultrapassar alguns dos problemas dos sistemas móveis sem fios da próxima geração, estendendo a área de cobertura destes sistemas, assim como a sua capacidade e fiabilidade. O estudo de diversos esquemas cooperativos é efetuado em termos de capacidade e de taxa de erros, fazendo variar o número de relays e de antenas em cada elemento do sistema. Diversos algoritmos com aplicação em sistemas cooperativos são desenvolvidos e propostos ao longo desta tese, como códigos espaço-frequência aplicados de forma distribuída nos relays, para sistemas baseados na tecnologia OFDM e sob diversos cenários próximos da realidade. Os sistemas cooperativos são particularmente úteis em situações em que o caminho direto entre dois terminais não está acessível ou tem uma fraca qualidade de transmissão. Tendo este aspeto em consideração, e pretendendo ter a máxima eficiência espetral e máxima diversidade, um algoritmo com precodificação é também proposto para múltiplos relays, cada um equipado com uma ou duas antenas. A formulação matemática associada aos algoritmos propostos é apresentada, assim como a derivação da probabilidade de erro teórica. O desempenho dos sistemas assistidos por relays usando os algoritmos propostos é comparado em relação a outros esquemas cooperativos equivalentes e a esquemas não-cooperativos, considerando cenários com diferentes qualidades de canal, daí advindo importantes conclusões em relação a estes sistemas.
Resumo:
A expressão “Piano Funcional” designa a instrução, em grupo reduzido, em diversas competências funcionais – não incluídas no ensino tradicional europeu, mais orientado para a execução virtuosista. O estudo funcional do piano activa no estudante processos de relacionamento, síntese e generalização sobre diversos aspectos da actividade musical, contribuindo para uma consciência aprofundada da linguagem e alimentando a flexibilidade e autonomia dos educandos. O objectivo do Piano Funcional é o de permitir a aquisição de uma funcionalidade musical plena, através da apropriação e controlo da linguagem musical. O objectivo do presente trabalho é o de propor um Modelo Generativo de Piano Funcional. O modelo generativo proposto parte de um levantamento e análise crítica das dinâmicas que limitam a eficácia do sistema de ensino, nomeadamente: a predominância da descodificação simbólica em detrimento da oralidade e do movimento, o favorecimento do mecanicismo e a valorização excessiva da prática interpretativa. Tais dinâmicas conduzem frequentemente ao sacrifício das competências criativas na formação dos músicos. Propõe-se assim a adopção de um grupo de “novos paradigmas”, tais como: a promoção de valores funcionais; a integração de competências, e a (re)valorização do som, da criatividade, da audição e da sensorialidade como motores das aquisições musicais do aluno. O modelo articula três processos generativos, cada um deles agrupando experiências nos domínios da (i) leitura, (ii) harmonia e (iii) experimentação. O modelo de Piano Funcional é generativo, também, porque promove uma aprendizagem como construção pessoal e criativa. Adicionalmente, realizou-se um trabalho empírico que consistiu na aplicação de conceitos de Piano Funcional na aprendizagem pianística de três sujeitos, ao longo de seis meses. O objectivo deste trabalho empírico foi o de desenvolver actividades que ilustram o âmbito do Piano Funcional e o de aferir a aplicabilidade pedagógica do modelo proposto.
Resumo:
Low level protein synthesis errors can have profound effects on normal cell physiology and disease development, namely neurodegeneration, cancer and aging. The biology of errors introduced into proteins during mRNA translation, herein referred as mistranslation, is not yet fully understood. In order to shed new light into this biological phenomenon, we have engineered constitutive codon misreading in S. cerevisiae, using a mutant tRNA that misreads leucine CUG codons as serine, representing a 240 fold increase in mRNA translational error relative to typical physiological error (0.0001%). Our studies show that mistranslation induces autophagic activity, increases accumulation of insoluble proteins, production of reactive oxygen species, and morphological disruption of the mitochondrial network. Mistranslation also up-regulates the expression of the longevity gene PNC1, which is a regulator of Sir2p deacetylase activity. We show here that both PNC1 and SIR2 are involved in the regulation of autophagy induced by mistranslation, but not by starvation-induced autophagy. Mistranslation leads to P-body but not stress-granule assembly, down-regulates the expression of ribosomal protein genes and increases slightly the selective degradation of ribosomes (ribophagy). The study also indicates that yeast cells are much more resistant to mistranslation than expected and highlights the importance of autophagy in the cellular response to mistranslation. Morpho-functional alterations of the mitochondrial network are the most visible phenotype of mistranslation. Since most of the basic cellular processes are conserved between yeast and humans, this study reinforces the importance of yeast as a model system to study mistranslation and suggests that oxidative stress and accumulation of misfolded proteins arising from aberrant protein synthesis are important causes of the cellular degeneration observed in human diseases associated to mRNA mistranslation.
Resumo:
O presente trabalho inscreve-se no domínio da etnomusicologia e propõe-se abordar o fenómeno das bandas filarmónicas em Portugal numa perspetiva eminentemente histórica, usando como recursos metodológicos a pesquisa de arquivo e o trabalho de campo. Tomando como exemplo a Banda de Música de Santiago de Riba-Ul, que se autodesigna “a banda mais antiga de Portugal”, e tentando contextualizar a sua existência bicentenária no movimento filarmónico nacional, procurei explorar o desenvolvimento que o grupo teve ao longo do tempo, a partir da análise de documentos de arquivo em articulação com os discursos produzidos no domínio da oralidade e do periodismo local. Através da análise histórica reflito sobre movimentos semelhantes aos da implantação de agrupamentos filarmónicos na Europa, a estrutura democratizada e multifuncional que foram adquirindo ao longo do tempo, os espaços de ocorrência, o repertório e os instrumentos. Tendo em conta que o universo das bandas filarmónicas em Portugal representa ainda um domínio pouco estudado, procurei neste trabalho definir um quadro conceptual sobre as diferentes designações associadas a agrupamentos de sopro em Portugal, que recorre à história como ferramenta essencial para o entendimento da relação entre designações e conceitos a partir da análise de funções, contextos e repertórios. Através do estudo de caso da Banda de Música de Santiago de Riba-Ul, procurei estabelecer um modelo de análise que é revelador sobre o modo como, em muitos casos, as bandas usam o passado (real, imaginado, vivido ou mitificado), transformado em memória semântica, como forma de legitimar o presente, convertendo a própria banda num documento/monumento. Esse estatuto conduz à reprodução do modelo de polivalência que o passado lhe legou e oferece-lhe, através de um jogo coerente de cumplicidades no seio do movimento filarmónico em Portugal, um lugar cativo no macrocosmos que aqui defini como um campo social institucional, a partir da proposta conceptual de Bourdieu.
Resumo:
O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.
Resumo:
Estudos recentes estabelecem uma ligação entre erros na tradução do mRNA e cancro, envelhecimento e neurodegeneração. RNAs de transferência mutantes que introduzem aminoácidos em locais errados nas proteínas aumentam a produção de espécies reactivas de oxigénio e a expressão de genes que regulam autofagia, ribofagia, degradação de proteínas não-funcionais e protecção contra o stress oxidativo. Erros na tradução do mRNA estão portanto relacionados com stress proteotóxico. Sabe-se agora que o mecanismo de toxicidade do crómio está associado à diminuição da fidelidade de tradução e à agregação de proteínas com malformações que destabilizam a sua estrutura terciária. Desta forma, é possível que os efeitos do stress ambiental ao nível da degeneração celular possam estar relacionados com a alteração da integridade da maquinaria da tradução. Neste estudo procedeu-se a uma avaliação alargada do impacto do stress ambiental na fidelidade da síntese de proteínas, utilizando S. cerevisiae como um sistema modelo. Para isso recorreu-se a repórteres policistrónicos de luciferase que permitiram quantificar especificamente a supressão de codões de terminação e o erro na leitura do codão AUG em células exposta a concentações não letais de metais pesados, etanol, cafeína e H2O2. Os resultados sugerem que a maquinaria de tradução é na generalidade muito resistente ao stress ambiental, devido a uma conjugação de mecanismos de homeostase que muito eficientemente antagonizam o impacto negativo dos erros de tradução. A nossa abordagem quantitativa permitiu-nos a identificar genes regulados por uma resposta programada ao stress ambiental que são também essenciais para mitigar a ocorrência de erros de tradução, nomeadamente, HSP12, HSP104 e RPN4. A exposição prolongada ao stress ambiental conduz à saturação dos mecanismos de homeostase, contribuindo para a acumulação de proteínas contendo erros de tradução e diminuindo a disponibilidade de proteínas funcionais directamente envolvidas na manutenção da fidelidade de tradução e integridade celular. Ao contrário de outras Hsps, a Hsp12p adopta normalmente uma localização membranar em condições de stress, que pode modular a fluidez e estabilidade membranar, sugerindo que a membrana plasmática é um alvo preferencial da perda de fidelidade da tradução. Para melhor compreender as respostas celulares aos erros de tradução, células contendo deleções em genes codificadores das Hsps foram transformadas com tRNAs mutantes que introduzem alterações no proteoma. Os nossos resultados demonstram que para além da resposta geral ao stress, estes tRNAs induzem alterações a nível do metabolismo celular e um aumento de aminoacilação com Metionina em vários tRNAs, sugerindo um mecanismo de protecção contra espécies reactivas de oxigénio. Em conclusão, este estudo sugere um papel para os erros de tradução na gestão de recursos energéticos e na adaptação das células a ambientes desfavoráveis.
Resumo:
A compreensão dos impactes das alterações climáticas é fundamental para a gestão a longo do prazo dos ecossistemas estuarinos. Esta compreensão só poderá ser efectiva considerando a variabilidade climática natural e o papel relativo das intervenções antropogénicas nestes ecossistemas. Assim, a presente dissertação analisa a influência das alterações climáticas e pressões antropogénicas na qualidade da água e dinâmica ecológica da Ria de Aveiro com base numa abordagem integrada, que combinou a análise de séries temporais dos últimos 25 anos e a modelação numérica de elevada resolução de cenários futuros de alterações climáticas e intervenções antropogénicas. A componente de modelação de qualidade da água e ecológica foi melhorada a vários níveis. A análise de sensibilidade do modelo 3D hidrodinâmicoecológico ECO-SELFE aplicado à Ria de Aveiro e a revisão das constantes de semi-saturação para absorção de nutrientes pelo fitoplâncton contribuíram para a precisão e robustez das aplicações. A concentração do fitoplâncton foi significativamente influenciada pelas taxas de crescimento do fitoplâncton e de mortalidade e excreção do zooplâncton, e apresentou uma sensibilidade reduzida à variação das constantes de semi-saturação na gama identificada para as diatomáceas. O acoplamento do ECO-SELFE a um modelo de campo próximo e a integração do ciclo do oxigénio aumentaram a sua capacidade de representação dos processos e das escalas espaciais relevantes. A validação do ECO-SELFE foi realizada com base num conjunto de campanhas específicas realizadas no canal de Mira. Os padrões espaciais e temporais observados para as várias variáveis (clorofila a, nutrientes, oxigénio dissolvido, salinidade, temperatura da água, correntes e níveis) foram simulados com erros menores ou semelhantes aos obtidos neste tipo de aplicações. A análise dos padrões de variabilidade espacial e temporal da qualidade da água e ecológica na Ria de Aveiro a diferentes escalas, efectuada com base nos dados históricos de 1985 a 2010 complementados pelas campanhas realizadas, sugeriu uma influência combinada da variabilidade climática e das acções antropogénicas. Os cenários futuros de alterações climáticas e intervenções antropogénicas simulados evidenciaram uma influência mais significativa das alterações climáticas quando comparadas com os efeitos das acções antropogénicas analisadas. As variações mais significativas são previstas para os cenários de subida do nível do mar, seguidos dos cenários de alterações dos regimes hidrológicos, evidenciando o papel da circulação (maré e caudal fluvial) no estabelecimento da qualidade da água e dinâmica ecológica na laguna. Para os cenários de subida do nível do mar são previstos decréscimos significativos da clorofila a e dos nutrientes a jusante e nas zonas intermédias do canal, e um aumento significativo da salinidade a montante. Estas alterações poderão favorecer modificações da composição e distribuição das comunidades, afectando a cadeia alimentar e causando uma progressão para montante de espécies marinhas. Os resultados sugerem ainda que os efeitos poderão ser mais significativos em estuários pouco profundos.
Resumo:
Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.
Resumo:
A demência é uma das principais causas de incapacidade entre os idosos, afetando mais de 36 milhões de pessoas em todo o mundo. É caracterizada pela deterioração progressiva das funções cognitivas, resultando em dificuldades no desempenho das atividades diárias do indivíduo. A idade de aparecimento dos sintomas, bem como a sua taxa de progressão, são variáveis entre a maior parte das demências, sendo estas geralmente caracterizadas por uma natureza progressiva, aumentando de gravidade ao longo do tempo. Entre os tipos mais frequentes de demência encontram-se a Doença de Alzheimer (DA), Demência Vascular, Demência de Corpos de Lewy e Demência Frontotemporal. O diagnóstico diferencial das demências é realizado tipicamente por testes neuro-psicológicos (para a exclusão de outras demências) e por exames imagiológicos. Contudo, muitos dos sintomas clínicos característicos podem sobrepor-se entre os diversos tipos de demência, o que pode constituir um problema devido a falta de especificidade e erros de diagnóstico. A compreensão dos fatores de risco ambientais e genéticos que podem modular o aparecimento e/ou progressão de doenças abre novas perspetivas relativamente à gestão destas neuropatologias. O gene da apolipoproteína E (ApoE) é reconhecido como o maior fator de risco na demência, desempenhando um papel central em particular no desenvolvimento da DA, sendo que os portadores do alelo ε4 são mais suscetíveis para a doença. Além disso, possíveis associações foram também propostas entre este gene e outras doenças neurológicas, sendo no entanto estes dados ainda controversos. Assim, o objetivo principal deste trabalho consistiu em determinar as frequências alélicas e genotípicas do gene ApoE num grupo de estudo piloto de pacientes com demência na região de Aveiro. Este grupo foi subdividido com base no diagnóstico neuroquímico, no qual foram avaliados os níveis de Aβ1-42, Tau-total e fosfo-Tau 181 no líquido cefalorraquidiano dos pacientes. Como resultado, observou-se que o alelo ε3 foi o mais frequente no grupo total, independentemente do tipo de patologia, e que o alelo ε2 foi o menos comum. O alelo ε4 foi de facto mais frequente em pacientes com DA do que em pacientes com outras neuropatologias, o que está de acordo com a relação proposta por outros autores. Adicionalmente, foi possível verificar que a frequência deste alelo nos pacientes com patologia amilóide é semelhante à observada no grupo DA, sugerindo um papel relevante para o ApoE no metabolismo e acumulação cerebral do Aβ. Consequentemente, estes indivíduos podem ter uma maior suscetibilidade para o desenvolvimento de DA no futuro. Deste modo, os nossos dados corroboram a ideia de que o alelo ε4 é um forte fator de risco para a DA e que deve ser considerado como um teste genético relevante que pode contribuir para o diagnóstico clínico da demência.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
O trabalho que apresentamos, “O Quadro Interativo no ensino do Português: dos recursos aos discursos”, situa-se na área do Multimédia em Educação e, mais especificamente, no domínio da tecnologia e pedagogia em sala de aula. Partimos de um projeto de implementação de quadros interativos em agrupamentos/escolas do interior do país, associado a um Centro de Formação e procurámos evidenciar a forma como essa tecnologia levou à introdução de recursos digitais de aprendizagem na unidade curricular de Português. Nesse âmbito, fizemos uma análise sobre os tipos, funcionalidades e usos pelos professores e estudantes no processo de ensino e aprendizagem com os QIM. Analisámos também algumas estratégias de utilização no desenvolvimento de competências essenciais da língua e a interação que proporcionaram no ambiente educativo. Para percebermos as razões e fundamentos que estiveram na base da investigação, procurámos, na primeira parte do nosso trabalho, partir de três vertentes de uma conjuntura que fundamenta a aprendizagem no século XXI: a passagem de uma sociedade da informação para uma sociedade do conhecimento como um processo que radica numa comunicação em rede e na criação de conhecimento(s) através de recursos digitais; o desenvolvimento de competências adequadas e que conduz os indivíduos para ambientes de aprendizagem com as tecnologias; e numa Escola mais familiarizada com as tecnologias, onde o ato de educar cria novos desafios a todos os agentes educativos. Notámos que a capacidade de mobilizar a informação e o conhecimento na rede reclama atitudes dinâmicas, flexíveis e adaptadas à multiculturalidade. Esta característica favorece a construção de aprendizagens multifacetadas, a inclusão progressiva do individuo na “aldeia global”, tornando-o também cada vez mais criativo e produtivo. A promoção de espaços interativos de aprendizagem facilita esse processo e o conhecimento desenvolve-se numa interação social mediada por tecnologias que nos fazem participar nessa multiculturalidade, diversidade do universo e nas histórias pessoais e coletivas. Num ambiente com estas características, torna-se necessário passar de um conceito de ensino declarado nos saberes básicos ou em conhecimentos factuais para uma estratégia de aprendizagem que incida sobre o desenvolvimento e aquisição de outras habilidades. A aquisição de saberes no âmbito da leitura, da oralidade e da escrita tornamse importantes para os indivíduos porquanto esses saberes transformam-se em competências transversais para outros domínios e literacias. Tentámos mostrar que a escola do futuro terá de ser um espaço educativo que implique ambientes de aprendizagem onde vão confluir várias ferramentas tecnológicas, que arrastam consigo outros recursos e outras possibilidades de acesso à informação e à construção de conhecimento. Para isso, a escola está obrigada a mudar alguns conceitos e estratégias e a focar-se no desenvolvimento de competências para a vida. A definição de recurso educativo ou recurso de aprendizagem e a aceção do quadro interativo como um recurso tecnológico, que envolve outros recursos, digitais e multimédia, levou-nos a concluir sobre as potenciais mais-valias deste equipamento. Para além da apresentação da informação, da orientação da atenção e das aprendizagens para o grupo - turma, abre-se a possibilidade de relacionar e organizar conteúdos digitais multimédia, criar conhecimento e desenvolver competências de acordo com os interesses dos públicos em fase de escolarização. Reclama-se um padrão de qualidade nos recursos, avaliados e estruturados em função dos conteúdos, objetivos, desempenhos e currículos de aprendizagem dos aprendentes. Definimos o paradigma digital e as dinâmicas de comunicação e interação proporcionadas pelo quadro interativo. Concluímos que o QIM produz efeitos positivos sobre a participação dos estudantes, evidenciada por um comportamento mais positivo face às tarefas a realizar em sala de aula. Contudo, o papel desta ferramenta e dos recursos utilizados requerem dos professores e dos ambientes educativos novas práticas e modelos de comunicação mais interativos. A informação e o conhecimento tornam-se mais fluidos, diversos e atuais. Fluxos variados de informação em vários suportes e formatos ou pesquisas em tempo real podem ser facilmente incorporados, acedidos e manipulados durante as aulas. A partilha de materiais e recursos retroalimenta uma rede de informação e troca de conhecimentos, amplia a aprendizagem e cria comunidades de prática com as tecnologias. A inclusão do QIM, no contexto do ensino e aprendizagem do Português, promoveu a literacia digital; o desenvolvimento de recursos digitais de aprendizagem; criou ambientes educativos modernos, mais apelativos, criativos e inovadores. Conduziu a uma mudança de práticas, que se querem mais ajustadas às necessidades e expectativas dos estudantes, aos desafios dos novos tempos e aos objetivos de uma educação que reforça o papel e autonomia dos indivíduos no processo de aprendizagem. Por isso, a lógica de projeto ou as dinâmicas de trabalho em projeto devem conduzir a dinâmicas de escola que elevem os comportamentos dos professores para se familiarizarem com a tecnologia, mas também para desenvolverem competências tecnológicas e profissionais coadunadas com contextos educativos atuais. Os resultados disponíveis mostram um quadro predominantemente positivo das possibilidades educativas dos QIM no ensino do Português. O QIM apresenta um conjunto de potencialidades pedagógicas; incentiva ao uso de recursos digitais em vários formatos e com várias finalidades; propicia estratégicas de construção e reconstrução dos percursos de aprendizagem que levam ao desenvolvimento de competências essenciais da língua. Porém, há ainda alguns aspetos que necessitam de ser revistos para tornar os QIM ainda mais eficazes como ferramenta de ensino e aprendizagem em sala de aula. Assim: i. A introdução de recursos digitais de aprendizagem na sala de aula deve ser um processo bem refletido que conduza e valorize a aproximação do professor e dos estudantes, visto que ambos estão perante uma nova realidade de conceitos, representações e formatos que carecem de habilidades, capacidades, comportamentos e literacias próprias; ii. A transformação do ensino, no que respeita a uma aprendizagem mais autónoma e individualizada, não está generalizada com a introdução dos QIM nos contextos de aprendizagem observados. Parece haver um incentivo para abordagens tradicionais centradas no professor e nos conteúdos, uma vez que a aquisição de conhecimentos está também condicionada por um sistema educativo que considera esses conteúdos estritamente necessários para o desempenho de determinadas tarefas; iii. Pelos vários níveis de análise do discurso pedagógico que se institui com os QIM, o tipo que melhor o define é ainda o tipo unidirecional. O discurso interativo, tão badalado pelos modelos comunicacionais modernos e pelos conceitos inerentes às tecnologias interativas, parece ainda não ter sido bem compreendido e explorado nos benefícios que os QIM, os recursos digitais interativos e as tecnologias em geral podem trazer ao processo de ensino e aprendizagem do Português no 3º CEB.