17 resultados para Sistema de Classificação Climática Multicritério de Geoviticultura

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A importância e preocupação dedicadas à autonomia e independência das pessoas idosas e dos pacientes que sofrem de algum tipo de deficiência tem vindo a aumentar significativamente ao longo das últimas décadas. As cadeiras de rodas inteligentes (CRI) são tecnologias que podem ajudar este tipo de população a aumentar a sua autonomia, sendo atualmente uma área de investigação bastante ativa. Contudo, a adaptação das CRIs a pacientes específicos e a realização de experiências com utilizadores reais são assuntos de estudo ainda muito pouco aprofundados. A cadeira de rodas inteligente, desenvolvida no âmbito do Projeto IntellWheels, é controlada a alto nível utilizando uma interface multimodal flexível, recorrendo a comandos de voz, expressões faciais, movimentos de cabeça e através de joystick. Este trabalho teve como finalidade a adaptação automática da CRI atendendo às características dos potenciais utilizadores. Foi desenvolvida uma metodologia capaz de criar um modelo do utilizador. A investigação foi baseada num sistema de recolha de dados que permite obter e armazenar dados de voz, expressões faciais, movimentos de cabeça e do corpo dos pacientes. A utilização da CRI pode ser efetuada em diferentes situações em ambiente real e simulado e um jogo sério foi desenvolvido permitindo especificar um conjunto de tarefas a ser realizado pelos utilizadores. Os dados foram analisados recorrendo a métodos de extração de conhecimento, de modo a obter o modelo dos utilizadores. Usando os resultados obtidos pelo sistema de classificação, foi criada uma metodologia que permite selecionar a melhor interface e linguagem de comando da cadeira para cada utilizador. A avaliação para validação da abordagem foi realizada no âmbito do Projeto FCT/RIPD/ADA/109636/2009 - "IntellWheels - Intelligent Wheelchair with Flexible Multimodal Interface". As experiências envolveram um vasto conjunto de indivíduos que sofrem de diversos níveis de deficiência, em estreita colaboração com a Escola Superior de Tecnologia de Saúde do Porto e a Associação do Porto de Paralisia Cerebral. Os dados recolhidos através das experiências de navegação na CRI foram acompanhados por questionários preenchidos pelos utilizadores. Estes dados foram analisados estatisticamente, a fim de provar a eficácia e usabilidade na adequação da interface da CRI ao utilizador. Os resultados mostraram, em ambiente simulado, um valor de usabilidade do sistema de 67, baseado na opinião de uma amostra de pacientes que apresentam os graus IV e V (os mais severos) de Paralisia Cerebral. Foi também demonstrado estatisticamente que a interface atribuída automaticamente pela ferramenta tem uma avaliação superior à sugerida pelos técnicos de Terapia Ocupacional, mostrando a possibilidade de atribuir automaticamente uma linguagem de comando adaptada a cada utilizador. Experiências realizadas com distintos modos de controlo revelaram a preferência dos utilizadores por um controlo compartilhado com um nível de ajuda associado ao nível de constrangimento do paciente. Em conclusão, este trabalho demonstra que é possível adaptar automaticamente uma CRI ao utilizador com claros benefícios a nível de usabilidade e segurança.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se uma avaliação de vários métodos de downscaling dinâmico. Os métodos utilizados vão desde o método clássico de aninhar um modelo regional nos resultados de um modelo global, neste caso as reanálises do ECMWF, a métodos propostos mais recentemente, que consistem em utilizar métodos de relaxamento Newtoniano de forma a fazer tender os resultados do modelo regional aos pontos das reanálises que se encontram dentro do domínio deste. O método que apresenta melhores resultados envolve a utilização de um sistema variacional de assimilação de dados de forma a incorporar dados de observações com resultados do modelo regional. A climatologia de uma simulação de 5 anos usando esse método é testada contra observações existentes sobre Portugal Continental e sobre o oceano na área da Plataforma Continental Portuguesa, o que permite concluir que o método desenvolvido é apropriado para reconstrução climática de alta resolução para Portugal Continental.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As constantes mudanças organizacionais impostas pelo ambiente interno e externo têm como consequência que as empresas tenham que gerir um número cada vez maior de Stock Keeping Units (SKUs) em inventário. Desta forma a classificação de SKUs reveste-se de uma importância primordial. Assim este projeto propõe a criação de uma framework de classificação de SKUs, alicerçada na literatura sobre o tema, que será testada e validada em contexto industrial. A framework é desenvolvida tendo em atenção as condicionantes do contexto específico da indústria em causa, recorrendo a uma abordagem multicritério. A Análise ABC multicritério permitiu realçar a importância de SKUs que apesar de serem pouco expressivos em termos de valor são de importância extrema para as operações/produção da organização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar diferentes abordagens para identificação de grupos de pacientes VIH com padrões temporais de evolução da doença similares. Foi considerado um sistema de equações diferenciais ordinárias para caracterizar a comportamento ao longo do tempo de um paciente VIH sob tratamento antiretroviral - TAR de longo prazo, com 5 parâmetros estimados a partir de metodologia Bayesiana. As distribuições a posteriori foram usadas para quantificar distâncias (univariadas) entre pacientes, através do valor médio da distribuição a posteriori, e considerando a distância entre as distribuições a posteriori para cada parâmetro. O resultado do agrupamento hierárquico obtido pelas duas abordagens sugere que o uso de uma distância que considere a distribuição a posteriori é preferível. Trabalho futuro irá considerar distâncias multivariadas em vez de distâncias univariadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Inúmeras potenciais funções foram sugeridas para a APP (Proteína Precursora de Amilóide de Alzheimer), contudo, fisiologicamente, a função precisa da APP não foi ainda desvendada. A APP tem características consistentes com a função de molécula-receptora, capaz de reconhecer sinais extracelulares. Também relevante para este trabalho, é o facto de que a sinalização através de RIP (Proteólise Intramembranar Regulada) tem consequências na expressão génica, como no caso da sinalização tipo-Notch. Tal como a proteína Notch, a APP é processada resultando num fragmento C-terminal designado por AICD (Domínio Intracelular da APP). Neste trabalho é focado o papel importante na sinalização nuclear desempenhado pelo fragmento AICD, especificamente através da interacção com proteínas adaptadoras, promovendo a transcrição. Com o objectivo de contribuir para uma melhor compreensão da base molecular da DA (Doença de Alzheimer), torna-se importante investigar as vias de localização nuclear do AICD e o seu envolvimento na transcrição génica, possivelmente afectando proteínas até agora não associadas à DA. Por estes motivos é fundamental a identificação de novas proteínas que interajam com a APP. Um rastreio foi efectuado, utilizando o sistema Dois-Híbrido em Levedura, para identificar interacções específicas do AICD no cérebro humano e, assim, caracterizar o interactoma do AICD. Foi feito o rastreio de aproximadamente 1.1x108 clones de uma biblioteca de cDNA de cérebro humano com o domínio C-terminal da APP com a mutação Y687E, que mimetiza o estado fosforilado. De experiências anteriores deste laboratório sabemos que a tirosina-687 afecta a localização subcelular da APP e é também consensual que a fosforilação é importante nos mecanismos de transdução de sinais, daí a utilização deste mutante parecer apropriada. O rastreio originou 55 clones positivos que foram analisados para identificar proteínas que interagem com a APP. Dois clones são particularmente importantes, a RanBPM e a Transportin-SR2, visto que estão associadas ao transporte de proteínas para o núcleo e confirmam a sinalização nuclear da APP. ABSTRACT: Many putative functions for APP (Alzheimer’s amyloid precursor protein) have been suggested, although the precise physiological function of APP remains to be elucidated. APP has characteristics consistent with it having a role as a receptor, capable of mediating extracellular signals. Also of relevance to the work described here is that RIP (Regulated Intramembrane Proteolysis) signalling can have consequences in gene expression, similar to Notch signalling. Like the latter, APP is processed by RIP resulting in a C-terminal fragment known as AICD. Here we test the hypothesis that the AICD fragment may play an important role in nuclear signalling, specifically by interacting with adaptor proteins potentiating transcription. Therefore, in order to contribute to our understanding of the molecular basis of AD (Alzheimer’s disease) it is important to investigate the pathways of AICD nuclear targeting and its involvement in gene transcription, possibly affecting other proteins hitherto not associated with AD. Thus, it is important to identify AICD binding proteins. A Yeast Two-Hybrid (YTH) screen was performed to identify human brainspecific AICD binding proteins, and thus characterize the AICD interactome. The screen of approximately 1.1 x108 clones from a human brain cDNA library was carried out using the AICD fragment with an Y687E mutation, which mimics phosphorylation on that residue. From previous work carried out in the laboratory we know that tyrosine-687 phosphorylation affects subcellular localization of APP, and it is also recognized that phosphorylation events are important in signal transduction mechanisms, hence the use of this mutant is appropriate. The YTH screen yielded 55 positive clones that were analysed and several novel brain-specific APP binding proteins were identified. Two clones were particularly important, RanBPM and Transportin-SR2, being that they are associated with the nuclear transport of proteins, and support the nuclear signalling for APP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese pretende contribuir para o estudo e análise dos factores relacionados com as técnicas de aquisição de imagens radiológicas digitais, a qualidade diagnóstica e a gestão da dose de radiação em sistema de radiologia digital. A metodologia encontra-se organizada em duas componentes. A componente observacional, baseada num desenho do estudo de natureza retrospectiva e transversal. Os dados recolhidos a partir de sistemas CR e DR permitiram a avaliação dos parâmetros técnicos de exposição utilizados em radiologia digital, a avaliação da dose absorvida e o índice de exposição no detector. No contexto desta classificação metodológica (retrospectiva e transversal), também foi possível desenvolver estudos da qualidade diagnóstica em sistemas digitais: estudos de observadores a partir de imagens arquivadas no sistema PACS. A componente experimental da tese baseou-se na realização de experiências em fantomas para avaliar a relação entre dose e qualidade de imagem. As experiências efectuadas permitiram caracterizar as propriedades físicas dos sistemas de radiologia digital, através da manipulação das variáveis relacionadas com os parâmetros de exposição e a avaliação da influência destas na dose e na qualidade da imagem. Utilizando um fantoma contrastedetalhe, fantomas antropomórficos e um fantoma de osso animal, foi possível objectivar medidas de quantificação da qualidade diagnóstica e medidas de detectabilidade de objectos. Da investigação efectuada, foi possível salientar algumas conclusões. As medidas quantitativas referentes à performance dos detectores são a base do processo de optimização, permitindo a medição e a determinação dos parâmetros físicos dos sistemas de radiologia digital. Os parâmetros de exposição utilizados na prática clínica mostram que a prática não está em conformidade com o referencial Europeu. Verifica-se a necessidade de avaliar, melhorar e implementar um padrão de referência para o processo de optimização, através de novos referenciais de boa prática ajustados aos sistemas digitais. Os parâmetros de exposição influenciam a dose no paciente, mas a percepção da qualidade de imagem digital não parece afectada com a variação da exposição. Os estudos que se realizaram envolvendo tanto imagens de fantomas como imagens de pacientes mostram que a sobreexposição é um risco potencial em radiologia digital. A avaliação da qualidade diagnóstica das imagens mostrou que com a variação da exposição não se observou degradação substancial da qualidade das imagens quando a redução de dose é efectuada. Propõe-se o estudo e a implementação de novos níveis de referência de diagnóstico ajustados aos sistemas de radiologia digital. Como contributo da tese, é proposto um modelo (STDI) para a optimização de sistemas de radiologia digital.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Motivados pelo propósito central de contribuir para a construção, a longo prazo, de um sistema completo de conversão de texto para fala, baseado em síntese articulatória, desenvolvemos um modelo linguístico para o português europeu (PE), com base no sistema TADA (TAsk Dynamic Application), que visou a obtenção automática da trajectória dos articuladores a partir do texto de entrada. A concretização deste objectivo ditou o desenvolvimento de um conjunto de tarefas, nomeadamente 1) a implementação e avaliação de dois sistemas de silabificação automática e de transcrição fonética, tendo em vista a transformação do texto de entrada num formato adequado ao TADA; 2) a criação de um dicionário gestual para os sons do PE, de modo a que cada fone obtido à saída do conversor grafema-fone pudesse ter correspondência com um conjunto de gestos articulatórios adaptados para o PE; 3) a análise do fenómeno da nasalidade à luz dos princípios dinâmicos da Fonologia Articulatória (FA), com base num estudo articulatório e perceptivo. Os dois algoritmos de silabificação automática implementados e testados fizeram apelo a conhecimentos de natureza fonológica sobre a estrutura da sílaba, sendo o primeiro baseado em transdutores de estados finitos e o segundo uma implementação fiel das propostas de Mateus & d'Andrade (2000). O desempenho destes algoritmos – sobretudo do segundo – mostrou-se similar ao de outros sistemas com as mesmas potencialidades. Quanto à conversão grafema-fone, seguimos uma metodologia baseada em regras de reescrita combinada com uma técnica de aprendizagem automática. Os resultados da avaliação deste sistema motivaram a exploração posterior de outros métodos automáticos, procurando também avaliar o impacto da integração de informação silábica nos sistemas. A descrição dinâmica dos sons do PE, ancorada nos princípios teóricos e metodológicos da FA, baseou-se essencialmente na análise de dados de ressonância magnética, a partir dos quais foram realizadas todas as medições, com vista à obtenção de parâmetros articulatórios quantitativos. Foi tentada uma primeira validação das várias configurações gestuais propostas, através de um pequeno teste perceptual, que permitiu identificar os principais problemas subjacentes à proposta gestual. Este trabalho propiciou, pela primeira vez para o PE, o desenvolvimento de um primeiro sistema de conversão de texto para fala, de base articulatória. A descrição dinâmica das vogais nasais contou, quer com os dados de ressonância magnética, para caracterização dos gestos orais, quer com os dados obtidos através de articulografia electromagnética (EMA), para estudo da dinâmica do velo e da sua relação com os restantes articuladores. Para além disso, foi efectuado um teste perceptivo, usando o TADA e o SAPWindows, para avaliar a sensibilidade dos ouvintes portugueses às variações na altura do velo e alterações na coordenação intergestual. Este estudo serviu de base a uma interpretação abstracta (em termos gestuais) das vogais nasais do PE e permitiu também esclarecer aspectos cruciais relacionados com a sua produção e percepção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como principal objectivo desenvolver e avaliar o desempenho de um sistema de monitorização da corrosão no betão armado. Para tal foram construídos dois provetes de classe 20/25, e outros dois de classe 30/35. Dentro desses quatro provetes foram instalados sensores de corrosão designados por Monicorr. Para cada classe de betão utilizaram-se dois tipos diferentes de contaminação, designadas por A e B. A contaminação do tipo A é feita adicionando durante a amassadura do betão uma solução aquosa de cloreto de cálcio a 4% em massa de cimento e sujeitando esses provetes a ciclos de condensação de 50h, durante um período de 1000h. A contaminação do tipo B é feita sujeitando os outros dois provetes de classes diferentes a ciclos de 100h de nevoeiro salino a 3% em massa de água, durante um período de 2000h. Para avaliar o desempenho do sistema de monitorização Monicorr foram comparados os valores da velocidade de corrosão instantânea por LPR, a resistividade do betão e o potencial de corrosão da armadura, obtidos pelo sistema Monicorr, com os obtidos por aparelhos utilizados para o mesmo efeito em laboratório. Paralelamente, estudou-se também a variação do potencial de corrosão da armadura em função da área oxidada. Para além disso desenvolveu-se um conjunto de pseudo referências de grafite dopada com diferentes percentagens de cimento e avaliou-se a sua estabilidade relativamente ao eléctrodo de calomelanos e óxido de managanês manganês em soluções de hidróxido de cálcio saturada e de betão armado contaminado com sais cloreto. Finalmente foram ainda desenvolvidas duas tarefas, a primeira relacionada com os resultados obtidos na medição da resistividade do betão armado pelas técnicas de dois pinos e quatro pinos, e a segunda com o desenvolvimento de um método rápido de contaminação do betão armado com dióxido de enxofre. Os resultados obtidos permitem concluir que: - o sistema de monitorização Monicorr apresenta um comportamento muito semelhante aos utilizados em laboratório para medir grandezas como o potencial de corrosão da armadura, resistividade do betão e velocidade de corrosão instantânea por LPR; - a monitorização das três grandezas atrás referidas pode ser uma ferramenta importante para permitir saber qual é o desenvolvimento corrosivo de uma estrutura de betão armado; os eléctrodos de grafite dopada com cimento apresentam uma elevada estabilidade nos meios testados tendo um desempenho muito semelhante à referência de manganês óxido de manganês para os mesmos meios. Relativamente à influência da área oxidada no potencial de corrosão da armadura não foi possível tirar conclusões. Foi possível, também, concluir que existe uma clara concordância entre as medições da resistividade do betão utilizando o método dos dois pinos e o método dos quatro pinos. Finalmente pode-se concluir que a metodologia desenvolvida para contaminar provetes de betão com iões sulfato obtém bons resultados ao fim de, apenas, 48h de contaminação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recentemente assiste-se a um crescimento da utilização das tecnologias de informação em diversas áreas, em particular dos dispositivos móveis. Na área da saúde é possível encontrar soluções inovadoras para apoio ao diagnóstico e tratamento de patologias que afectam milhares de pessoas em todo o mundo, como é o caso do risco de amputação em pacientes diabéticos. Aproveitando a existência de um ambiente de interligação telemática entre instituições de saúde Região do Baixo Vouga, o presente trabalho visa implementar o sistema HOPE Wounds na rotina diária de trabalho de profissionais de saúde, em especial médicos e enfermeiros, na prática da prestação de cuidados a pacientes diabéticos, com complicações de pé diabético. A interacção do dispositivo móvel e o ambiente web faz com que este sistema possibilite aceder e gravar diversa informação clínica, como por exemplo o registo fotográfico de feridas em escala temporal. O sistema HOPE Wounds integrado na Rede Telemática da Saúde permite ainda estabelecer a ponte entre profissionais do Centro de Saúde, da Consulta de Especialidade e do Internamento Hospitalar. A receptividade dos profissionais de saúde deixa antever a possibilidade de extensão a outras áreas médicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a preocupação de suprir lacunas evidenciadas pelo ensino tradicional típico do Curso de Contabilidade e Administração do Instituto Superior de Contabilidade e Administração do Porto, introduziu-se no seu sistema de ensino as unidades curriculares de Projeto de Simulação Empresarial I e II (PSE I e PSE II), que, pela sua singularidade e especificidades, denominamos de Ambiente Empresarial. A particularidade deste processo de formação, centrado no desenvolvimento de competências, molda a metodologia do ensino, da aprendizagem e da avaliação. De destacar que o sistema de avaliação das aprendizagens introduzido está construído numa base informática de recolha contínua e ponderação sistemática de uma série de indicadores. A presente tese tem como objetivo estudar as potencialidades e constrangimentos do sistema de avaliação utilizado nas unidades curriculares referidas. Pretendemos, em particular, analisar em que medida este sistema beneficia o sucesso escolar dos estudantes, em resultado de uma melhoria no processo de aprendizagem e, consequentemente, no desenvolvimento das competências dos estudantes. No decorrer dos anos letivos de 2008-2009 e de 2009-2010, segundo e primeiro semestres, respetivamente, recolhemos dados qualitativos e quantitativos através de questionários aos estudantes e entrevistas aos docentes e ao responsável pela coordenação das unidades curriculares. Os resultados do estudo levantaram uma série de questões relacionadas com a avaliação e a forma como esta desenvolve nos estudantes uma diferente postura no que concerne ao processo de ensino e aprendizagem. A centralidade no estudante como foco deste sistema de avaliação possibilita a autorregulação da aprendizagem através da retroação. O trabalho individual e de grupo apresentam-se como principais fatores no desenvolvimento das competências genéricas (relacionais) e comportamentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No contexto dos contaminantes aquáticos, os herbicidas são considerados como um dos grupos mais perigosos. Uma vez aplicados, estes são facilmente transportados para cursos de água, quer devido a uma pulverização pouco cuidada ou devido a fenómenos de escorrência superficial e/ou subterrânea. A presença destes agroquímicos no ambiente tem vindo a ser associada a efeitos nefastos em organismos não-alvo, como é o caso dos peixes. Contudo, existe ainda uma grande lacuna no que diz respeito à informação científica relacionada com o seu impacto genotóxico. Deste modo, a presente tese foi delineada com o intuito de avaliar o risco genotóxico em peixes de duas formulações de herbicidas: o Roundup®, que tem como princípio activo o glifosato, e o Garlon®, que apresenta o triclopir na base da sua constituição, produtos estes largamente utilizados na limpeza de campos agrícolas, assim como em florestas. Foi ainda planeado desenvolver uma base de conhecimento no que diz respeito aos mecanismos de dano do ADN. Como último objectivo, pretendeu-se contribuir para a mitigação dos efeitos dos agroquímicos no biota aquático, nomeadamente em peixes, fornecendo dados científicos no sentido de melhorar as práticas agrícolas e florestais. Este estudo foi realizado adoptando a enguia europeia (Anguilla anguilla L.) como organismo-teste, e submetendo-a a exposições de curta duração (1 e 3 dias) dos produtos comerciais mencionados, em concentrações consideradas ambientalmente realistas. Para a avaliação da genotoxicidade foram aplicadas duas metodologias: o ensaio do cometa e o teste das anomalias nucleares eritrocíticas (ANE). Enquanto o ensaio do cometa detecta quebras na cadeia do ADN, um dano passível de ser reparado, o aparecimento das ANE revela lesões cromossomais, sinalizando um tipo de dano de difícil reparação. O ensaio do cometa foi ainda melhorado com uma nova etapa que incluiu a incubação com enzimas de reparação (FPG e EndoIII), permitindo perceber a ocorrência de dano oxidativo no ADN. No que diz respeito ao Roundup®, o envolvimento do sistema antioxidante como indicador de um estado próoxidante foi também alvo de estudo. Uma vez que as referidas formulações se apresentam sob a forma de misturas, o potencial genotóxico dos seus princípios activos foi também avaliado individualmente. No caso particular do Roundup®, também foram estudados o seu surfactante (amina polietoxilada; POEA) e o principal metabolito ambiental (ácido aminometilfosfórico; AMPA). Os resultados obtidos mostraram a capacidade do Roundup® em induzir tanto dano no ADN (em células de sangue, guelras e fígado) como dano cromossómico (em células de sangue). A investigação sobre o possível envolvimento do stresse oxidativo demonstrou que o tipo de dano no ADN varia com as concentrações testadas e com a duração da exposição. Deste modo, com o aumento do tempo de exposição, os processos relacionados com o envolvimento de espécies reactivas de oxigénio (ERO) ganharam preponderância como mecanismo de dano no ADN, facto que é corroborado pela activação do sistema antioxidante observado nas guelras, assim como pelo aumento dos sítios sensíveis a FPG em hepatócitos. O glifosato e o POEA foram também considerados genotóxicos. O POEA mostrou induzir uma maior extensão de dano no ADN, tanto comparado com o glifosato como com a mistura comercial. Apesar de ambos os componentes contribuirem para a genotoxicidade da formulação, a soma dos seus efeitos individuais nunca foi observada, apontando para um antagonismo entre eles e indicando que o POEA não aumenta o risco associado ao princípio activo. Deste modo, realça-se a necessidade de regulamentar limiares de segurança para todos os componentes da formulação, recomendando, em particular, a revisão da classificação do risco do POEA (actualmente classificado com “inerte”). Uma vez confirmada a capacidade do principal metabolito do glifosato – AMPA – em exercer dano no ADN assim como dano cromossómico, os produtos da degradação ambiental dos princípios activos assumem-se como um problema silencioso, realçando assim a importância de incluir o AMPA na avaliação do risco relacionado com herbicidas com base no glifosato. A formulação Garlon® e o seu princípio activo triclopir mostraram um claro potencial genotóxico. Adicionalmente, o Garlon® mostrou possuir um potencial genotóxico mais elevado do que o seu princípio activo. No entanto, a capacidade de infligir dano oxidativo no ADN não foi demonstrada para nenhum dos agentes. No que concerne à avaliação da progressão do dano após a remoção da fonte de contaminação, nem os peixes expostos a Roundup® nem os expostos a Garlon® conseguiram restaurar completamente a integridade do seu ADN ao fim de 14 dias. No que concerne ao Roundup®, o uso de enzimas de reparação de lesões específicas do ADN associado ao teste do cometa permitiu detectar um aparecimento tardio de dano oxidativo, indicando deste modo um decaimento progressivo da protecção antioxidante e ainda uma incapacidade de reparar este tipo de dano. O período de pós-exposição correspondente ao Garlon® revelou uma tendência de diminuição dos níveis de dano, apesar de nunca se observar uma completa recuperação. Ainda assim, foi evidente uma intervenção eficiente das enzimas de reparação do ADN, mais concretamente as direccionadas às purinas oxidadas. A avaliação das metodologias adoptadas tornou evidente que o procedimento base do ensaio do cometa, que detecta apenas o dano nãoespecífico no ADN, possui algumas limitações quando comparado com a metodologia que incluiu a incubação com as enzimas de reparação, uma vez que a última mostrou reduzir a possibilidade de ocorrência de resultados falsos negativos. Os dois parâmetros adoptados (ensaio do cometa e teste das ANE) demonstraram possuir aptidões complementares, sendo assim recomendado a sua utilização conjunta com vista a efectuar uma avaliação mais adequada do risco genotóxico. Globalmente, os resultados obtidos forneceram indicações de grande utilidade para as entidades reguladoras, contribuindo ainda para a (re)formulação de medidas de conservação do ambiente aquático. Neste sentido, os dados obtidos apontam para a importância da avaliação de risco dos herbicidas incluir testes de genotoxicidade. A magnitude de risco detectada para ambas as formulações adverte para a necessidade de adopção de medidas restritivas em relação à sua aplicação na proximidade de cursos de água. Como medidas mitigadoras de impactos ambientais, aponta-se o desenvolvimento de formulações que incorporem adjuvantes selecionados com base na sua baixa toxicidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actualmente, uma das principais preocupações educativas centra-se na adaptação do ensino às características da sociedade moderna, em constante mutação, que requer o desenvolvimento de competências (Perrenoud, 1999), entre as quais a capacidade de aprender ao longo da vida (European Commission, 2007). No caso português, esta preocupação tem conduzido à valorização das competências adquiridas em contextos de aprendizagem não formais e informais, através do Sistema Nacional de Reconhecimento, Validação e Certificação de Competências (RVCC). O nosso conhecimento sobre o Sistema tem revelado que algumas das principais dificuldades dos adultos que o frequentam decorrem de lacunas graves na expressão/produção escrita, que desempenha um papel relevante no processo. Combinando aspectos de investigação-acção com um design investigativo de estudo de caso, o nosso trabalho centrou-se numa intervenção didáctica, que partiu da identificação e caraterização de competências e de lacunas em expressão/produção escrita em língua materna de um grupo de adultos a frequentar o Sistema RVCC (Nível Secundário) para a subsequente conceção, implementação e avaliação de estratégias/instrumentos para desenvolver as competências em falta. Foram recolhidos dados relativos ao desempenho dos adultos através de tarefas integradas no Portefólio Reflexivo de Aprendizagem, em três fases distintas, para posterior análise de conteúdo. Foram, ainda, recolhidas e analisadas as representações dos adultos sobre as competências que julgavam deter neste domínio, por se tratar de um fator determinante no processo. Neste caso, a recolha de dados fez-se através da aplicação de um questionário inicial e um outro no final da intervenção didáctica, que foram objecto de análise qualitativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação descreve o processo de desenvolvimento de um sistema de informação para a gestão da informação académica de programas de pósgraduação - Sistema WebMaster - que tem como objectivo tornar aquela informação acessível aos utilizadores através da World Wide Web (WWW). Começa-se por apresentar alguns conceitos que se julgam relevantes para a compreensão da problemática dos sistemas de informação em toda a sua abrangência numa determinada organização, particularizando alguns conceitos para o caso das universidades. De seguida reflecte-se sobre os sistemas de informação com base na Web, confrontando-se os conceitos de Web Site (tradicional) e aplicação Web, a nível de arquitectura tecnológica, principais vantagens e desvantagens, fazendo-se, ainda, uma breve referência às principais tecnologias para a construção de soluções com geração dinâmica de conteúdos. Por último representa-se o sistema WebMaster ao longo das suas diferentes etapas de desenvolvimento, desde a análise de requisitos, projecto do sistema, até à fase da implementação. A fase análise de requisitos foi levada a cabo através de um inquérito realizado aos potenciais utilizadores no sentido de identificar as suas necessidades de informação. Com base nos resultados desta fase apresenta-se o projecto do sistema numa perspectiva conceptual, navegacional e de interface de utilizador, fazendo uso da metodologia OOHDM - Object-Oriented Hypermedia Design Method. Finalmente, passa-se à fase da implementação que, com base nas etapas anteriores e nas tecnologias seleccionadas na fase do planeamento, proporciona um espaço interactivo e de troca de informação a todos os interessados da comunidade académica envolvidos em cursos de pós-graduação.