26 resultados para Classificação - repicagem
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
As constantes mudanças organizacionais impostas pelo ambiente interno e externo têm como consequência que as empresas tenham que gerir um número cada vez maior de Stock Keeping Units (SKUs) em inventário. Desta forma a classificação de SKUs reveste-se de uma importância primordial. Assim este projeto propõe a criação de uma framework de classificação de SKUs, alicerçada na literatura sobre o tema, que será testada e validada em contexto industrial. A framework é desenvolvida tendo em atenção as condicionantes do contexto específico da indústria em causa, recorrendo a uma abordagem multicritério. A Análise ABC multicritério permitiu realçar a importância de SKUs que apesar de serem pouco expressivos em termos de valor são de importância extrema para as operações/produção da organização.
Resumo:
Este relatório foi realizado no âmbito do estágio curricular realizado na BRIMO - Britas de Mouquim. Tem como título “Fragmentação e Classificação na Empresa BRIMO – Quartzitos de Mouquim”. O principal objetivo deste relatório é fazer um estudo da caraterização do processo de beneficiação, descrevendo assim o tipo de agregados produzidos, assim como o processo de modificação granulométrica, fragmentação e os vários tipos de equipamento utilizado. Na componente laboratorial deste trabalho, foi possível realizar um estudo sobre a eficiência da crivagem, através da realização de curvas granulométricas e de partição.
Resumo:
Hoje, há um interesse crescente pela aprendizagem de uma segunda língua, quer seja por razões profissionais ou pessoais. Esta é uma tendência que se vai afirmando num mundo cada vez mais interconectado. Por outro lado, a democratização das tecnologias computacionais torna possível pensar em desenvolver novas técnicas de ensino de línguas mais automatizadas e personalizadas. Esta dissertação teve como objetivo estudar e implementar um conjunto de técnicas de processamento de sinal e de classificação de séries temporais úteis para o desenvolvimento de metodologias do ensino oral com feedback automático. São apresentados resultados preliminares sobre a prestação destas técnicas, e avaliada a viabilidade deste tipo de abordagem.
Resumo:
O objetivo deste trabalho é avaliar diferentes abordagens para identificação de grupos de pacientes VIH com padrões temporais de evolução da doença similares. Foi considerado um sistema de equações diferenciais ordinárias para caracterizar a comportamento ao longo do tempo de um paciente VIH sob tratamento antiretroviral - TAR de longo prazo, com 5 parâmetros estimados a partir de metodologia Bayesiana. As distribuições a posteriori foram usadas para quantificar distâncias (univariadas) entre pacientes, através do valor médio da distribuição a posteriori, e considerando a distância entre as distribuições a posteriori para cada parâmetro. O resultado do agrupamento hierárquico obtido pelas duas abordagens sugere que o uso de uma distância que considere a distribuição a posteriori é preferível. Trabalho futuro irá considerar distâncias multivariadas em vez de distâncias univariadas.
Resumo:
Esta tese dedica-se ao estudo de hipermapas regulares bicontactuais, hipermapas com a propriedade que cada hiperface contacta só com outras duas hiperfaces. Nos anos 70, S. Wilson classificou os mapas bicontactuais e, em 2003, Wilson e Breda d’Azevedo classificaram os hipermapas bicontactuais no caso não-orientável. Quando esta propriedade é transferida para hipermapas origina três tipos de bicontactualidade, atendendo ao modo como as duas hiperfaces aparecem à volta de uma hiperface fixa: edge-twin, vertextwin and alternate (dois deles são o dual um do outro). Um hipermapa topológico é um mergulho celular de um grafo conexo trivalente numa superfície compacta e conexa tal que as células são 3-coloridas. Ou de maneira mais simples, um hipermapa pode ser visto como um mapa bipartido. Um hipermapa orientado regular é um triplo ordenado consistindo num conjunto finito e dois geradores, que são permutações (involuções) do conjunto tal que o grupo gerado por eles, chamado o grupo de monodromia, actua regularmente no conjunto. Nesta tese, damos uma classificação de todos os hipermapas orientados regulares bicontactuais e, para completar, reclassificamos, usando o nosso método algébrico, os hipermapas não-orientáveis bicontactuais.
Resumo:
Esta tese apresenta alguns aspectos em como o fenómeno do gesto musical pode ser compreendido na percepção da interação musical na música para instrumentos e sons electroacústicos. Através de exemplos de análise, classificação e categorização de diferentes relacões gestuais entre instrumentos e sons electroacústicos, pretende-se estabelecer modelos específicos de interacção que podem ser aplicados como método analítico assim como na composição musical. A pesquisa parte de uma variedade de definições sobre gesto musical na música em geral, na música contemporânea e na música electroacústica em particular, para subsequentemente incluir as relações entre dois eventos sonoros com características diferentes - o electroacústico e o instrumental. São essencialmente abordadas as relações entre gestos musicais através da análise de diversas características: altura, ritmo, timbre, dinâmica, características contrapontísticas, espectromorfológicas, semânticas e espaciais. O resultado da pesquisa teórica serviu de suporte à composição de diversas obras, onde estes aspectos são explorados sob o ponto de vista da criação musical.
Resumo:
Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.
Resumo:
Após uma revisão de aspectos filogénicos, ontogénicos e embriológicos contribuindo para a estruturação anatómica e fisiológica da nasofaringe, é efectuada uma análise das características clínicas do carcinoma da nasofaringe numa população portuguesa, comparando-as com a literatura. É efectuada análise de taxa de incidência da doença, razão de géneros, frequência relativa dos diversos subtipos de acordo com a classificação OMS, acuidade relativa dos estadiamentos TMN e sobrevivência em função do tratamento. A relação entre carcinoma da nasofaringe e infecção pelo vírus de Epstein – Barr em Portugal é estudada através da análise de detecção de DNA de EBV em tecido tumoral da nasofaringe e sangue periférico de doentes com NPC e em indivíduos saudáveis. São também efectuados estudos caso-controlo no sentido de perspectivar a relevância de dois polimorfismos genéticos na susceptibilidade genética para a doença. Esta Dissertação pretende ainda contribuir para a compreensão dos mecanismos biológicos de CN e a sua relação com o EBV numa região não endémica de baixo risco, como é Portugal, realçando a relevância da definição de um perfil biológico preditivo para o desenvolvimento de CN na população portuguesa.
Resumo:
Esta tese pretende contribuir para o estudo e análise dos factores relacionados com as técnicas de aquisição de imagens radiológicas digitais, a qualidade diagnóstica e a gestão da dose de radiação em sistema de radiologia digital. A metodologia encontra-se organizada em duas componentes. A componente observacional, baseada num desenho do estudo de natureza retrospectiva e transversal. Os dados recolhidos a partir de sistemas CR e DR permitiram a avaliação dos parâmetros técnicos de exposição utilizados em radiologia digital, a avaliação da dose absorvida e o índice de exposição no detector. No contexto desta classificação metodológica (retrospectiva e transversal), também foi possível desenvolver estudos da qualidade diagnóstica em sistemas digitais: estudos de observadores a partir de imagens arquivadas no sistema PACS. A componente experimental da tese baseou-se na realização de experiências em fantomas para avaliar a relação entre dose e qualidade de imagem. As experiências efectuadas permitiram caracterizar as propriedades físicas dos sistemas de radiologia digital, através da manipulação das variáveis relacionadas com os parâmetros de exposição e a avaliação da influência destas na dose e na qualidade da imagem. Utilizando um fantoma contrastedetalhe, fantomas antropomórficos e um fantoma de osso animal, foi possível objectivar medidas de quantificação da qualidade diagnóstica e medidas de detectabilidade de objectos. Da investigação efectuada, foi possível salientar algumas conclusões. As medidas quantitativas referentes à performance dos detectores são a base do processo de optimização, permitindo a medição e a determinação dos parâmetros físicos dos sistemas de radiologia digital. Os parâmetros de exposição utilizados na prática clínica mostram que a prática não está em conformidade com o referencial Europeu. Verifica-se a necessidade de avaliar, melhorar e implementar um padrão de referência para o processo de optimização, através de novos referenciais de boa prática ajustados aos sistemas digitais. Os parâmetros de exposição influenciam a dose no paciente, mas a percepção da qualidade de imagem digital não parece afectada com a variação da exposição. Os estudos que se realizaram envolvendo tanto imagens de fantomas como imagens de pacientes mostram que a sobreexposição é um risco potencial em radiologia digital. A avaliação da qualidade diagnóstica das imagens mostrou que com a variação da exposição não se observou degradação substancial da qualidade das imagens quando a redução de dose é efectuada. Propõe-se o estudo e a implementação de novos níveis de referência de diagnóstico ajustados aos sistemas de radiologia digital. Como contributo da tese, é proposto um modelo (STDI) para a optimização de sistemas de radiologia digital.
Resumo:
A presente investigação procura contribuir para o estudo e desenvolvimento da disciplina de design partindo da análise e interpretação da prática do desenho no âmbito do projecto. A escolha dos objectos de estudo – desenhos de projecto de designers e arquitectos nacionais – procura validar a classificação do projecto através da análise dos desenhos dos autores. Procuramos a relação entre desenho e design propondo como hipótese que a diferença ontológica entre ambos derive da condição fenomenológica que cada uma das disciplinas estabelece na relação com a outra. A partir da bibliografia proposta procedeu-se à reflexão crítica com vista à consideração teórica acerca do desenho, particularmente, na sua relação com o projecto. Num primeiro momento analisamos ontologicamente a prática do desenho mantendo como referência a possibilidade da sua origem no disegno florentino como fundador da disciplina, competência ao serviço de outras disciplinas, quer artísticas quer científicas e do seu desenvolvimento na prática da cultura ocidental. Num segundo momento discutimos o desenho na prática do projecto partindo da consideração teórica do desenho como resultado da triangulação imaginação – classificação – representação e do design como resultado da triangulação autor – tecnologia – programa. Interpretando o desenho como um campo operativo alargado interessou-nos o estudo do porquê e de como o desenho intervém, condicionando e/ou participando na prática e pensamento em design. Num terceiro momento interpretamos os desenhos dos autores escolhidos. Fundamentalmente analisa-se em que medida a representação (desenho) intervém no desenvolvimento da ideia (projecto) considerando as técnicas (meios) da representação. Atribui-se como finalidade contribuir para o debate crítico dentro da disciplina do design, cruzando práticas que embora relacionadas são distintas do ponto de vista epistemológico. Espera-se assim o enriquecimento da cada uma delas estimulando a possibilidade da sua prática interdisciplinar. Do ponto de vista da aplicação prática a investigação prevê a criação de um arquivo de desenho de projecto que, de entre outros, posteriormente, permitirá o estudo comparado dos desenhos com a obra realizada de cada autor.
Resumo:
A evolução acelerada da tecnologia, com um grande impacto em quase todos os segmentos da humanidade, coloca o homem perante novos desafios, com vários graus de complexidade. Cada dia que passa, estes desafios exigem novas competências e estratégias que devem ser adequadas a cada contexto. A dinâmica das tecnologias de comunicação e informação impulsionaram a evolução do ensino a distância (EaD), o que de certo modo tem exigido grandemente às instituições provedoras do EaD em geral e, em particular, às provedoras do EaD on-line novas formas de gestão, e novas formas de ensinar, fazer aprender os seus estudantes e avaliar as suas aprendizagens. No sentido de contribuir para a evolução e melhoramento do processo de avaliação das aprendizagens on-line, desenvolveu-se um estudo sobre o tema avaliação das aprendizagens on-line como elemento potenciador da interação em EaD. O desenvolvimento do tema foi orientado por um referencial teórico e contextual e concretizou-se, na sua vertente empírica, num estudo de caso exploratório. Este estudo desenvolveu-se em duas fases. Fase I: de caracterização de conceções e “práticas” vigentes de avaliação das aprendizagens on-line no Curso de licenciatura de Gestão de Negócios (LGN) da Universidade Eduardo Mondlane (UEM) de Moçambique; Fase II: de conceção, implementação e avaliação de uma proposta alternativa de avaliação das aprendizagens on-line no Curso de LGN. Para a consecução do estudo empírico concorreram um conjunto de procedimentos metodológicos que envolveu diversas técnicas e instrumentos de recolha de dados. Na fase I recorreu-se à entrevista a seis atores do Curso de LGN (3 professores, 3 assessores pedagógicos e 3 estudantes) e à análise documental (documentos relativos à conceção do Curso e outros relativos à sua implementação). Na fase II recorreu-se à observação participante, a um questionário respondido pelos estudantes participantes, a um relatório elaborado pelo professor colaborador na implementação da proposta por nós concebido, e a documentos retirados da plataforma usada no Curso de LGN, a plataforma Aulanet, nomeadamente quanto às interações dos estudantes em fóruns e chats. Os dados recolhidos foram sujeitos a análises quantitativas e qualitativas.Dos resultados obtidos na Fase I realça-se a necessidade sentida pelos entrevistados de se mudarem práticas de avaliação on-line, nomeadamente de forma a potenciar a interação e interatividade e permitir que a classificação nos módulos não fosse apenas resultado de um exame final. Dos resultados obtidos na Fase II enfatiza-se a apreciação globalmente positiva da nova metodologia de avaliação das aprendizagens on-line, quer pelos estudantes, quer pelo professor participante. Foram identificados como pontos fortes: o aumento das interações na plataforma, em particular nos fóruns e chats; as interações geraram uma dinâmica na evolução dos estudantes no que diz respeito ao desenvolvimento das suas competências no seu sucesso académico; a avaliação, por explicitar os critérios e indicadores, tornou-se mais transparente e orientadora do trabalho dos estudantes e do professor. Porém foram identificados alguns pontos menos fortes, nomeadamente: a sobrecarga de trabalho do professor e a não adesão total dos estudantes à metodologia proposta. Dada a natureza exploratória do estudo sugere-se a sua continuidade, através do envolvimento de outros professores e estudantes.
Resumo:
A presente tese investiga o processo de tomada de decisão na gestão de cadeias de abastecimento, utilizando um quadro de análise de opções reais. Especificamente, estudamos tópicos como o nível de inventário ideal para protecção contra a incerteza da procura, o momento para implementação de capacidade flexível em mercados onde existe complexidade no mix de produtos, o tempo para o reforço do factor trabalho visando requisitos de serviço ao mercado, e as decisões entre integração e outsourcing num ambiente de incerteza. Foram usadas metodologias de tempo discreto e contínuo para identificar o valor ideal e o calendário das opções a adoptar, quando a procura é estocástica. Além disso, foram considerados os efeitos dos requisitos dos mercados, como a complexidade na oferta de produtos e o nível de serviço. A procura é representada recorrendo a diferentes processos estocásticos, o impacto de saltos inesperados também é explorado, reforçando a generalização dos modelos a diferentes condições de negócio. A aplicabilidade dos modelos que apresentamos permite a diversificação e o enriquecimento da literatura sobre a abordagem de opções reais, no âmbito das cadeias de abastecimento. Níveis de inventário flexíveis e capacidades flexíveis são característicos das cadeias de abastecimento e podem ser usados como resposta à incerteza do mercado. Esta tese é constituída por ensaios que suportam a aplicação dos modelos, e consiste num capítulo introdutório (designado por ensaio I) e mais seis ensaios sobre factores que discutem o uso de medidas de flexibilidade nas cadeias de abastecimento, em ambientes de incerteza, e um último ensaio sobre a extensão do conceito de flexibilidade ao tratamento da avaliação de planos de negócio. O segundo ensaio que apresentamos é sobre o valor do inventário num único estádio, enquanto medida de flexibilidade, sujeita ao crescente condicionalismo dos custos com posse de activos. Introduzimos uma nova classificação de artigos para suportar o indicador designado por overstock. No terceiro e quarto ensaio ampliamos a exploração do conceito de overstock, promovendo a interacção e o balanceamento entre vários estádios de uma cadeia de abastecimento, como forma de melhorar o desempenho global. Para sustentar a aplicação prática das abordagens, adaptamos o ensaio número três à gestão do desempenho, para suportar o estabelecimento de metas coordenadas e alinhadas; e adaptamos o quarto ensaio à coordenação das cadeias de abastecimento, como auxiliar ao planeamento integrado e sequencial dos níveis de inventário. No ensaio cinco analisamos o factor de produção “tecnologia”, em relação directa com a oferta de produtos de uma empresa, explorando o conceito de investimento, como medida de flexibilidade nas componentes de volume da procura e gama de produtos. Dedicamos o ensaio número seis à análise do factor de produção “Mão-de-Obra”, explorando as condicionantes para aumento do número de turnos na perspectiva económica e determinando o ponto crítico para a tomada de decisão em ambientes de incerteza. No ensaio número sete exploramos o conceito de internalização de operações, demarcando a nossa análise das demais pela definição do momento crítico que suporta a tomada de decisão em ambientes dinâmicos. Complementamos a análise com a introdução de factores temporais de perturbação, nomeadamente, o estádio de preparação necessário e anterior a uma eventual alteração de estratégia. Finalmente, no último ensaio, estendemos a análise da flexibilidade em ambientes de incerteza ao conceito de planos de negócio. Em concreto, exploramos a influência do número de pontos de decisão na flexibilidade de um plano, como resposta à crescente incerteza dos mercados. A título de exemplo, usamos o mecanismo de gestão sequencial do orçamento para suportar o nosso modelo. A crescente incerteza da procura obrigou a um aumento da agilidade e da flexibilidade das cadeias de abastecimento, limitando o uso de muitas das técnicas tradicionais de suporte à gestão, pela incapacidade de incorporarem os efeitos da incerteza. A flexibilidade é claramente uma vantagem competitiva das empresas que deve, por isso, ser quantificada. Com os modelos apresentados e com base nos resultados analisados, pretendemos demonstrar a utilidade da consideração da incerteza nos instrumentos de gestão, usando exemplos numéricos para suportar a aplicação dos modelos, o que claramente promove a aproximação dos desenvolvimentos aqui apresentados às práticas de negócio.
Resumo:
A obesidade infantil é um importante problema de saúde pública, não só pelos efeitos adversos durante a infância mas porque tende a persistir na idade adulta, constituindo um factor de risco para diversas doenças crónicas. Os alicerces de uma vida saudável estruturam-se na vida pré-natal e sedimentam-se nos seis primeiros anos de vida, sendo o crescimento da criança fortemente influenciado pelo seu contexto ambiental familiar. Foi neste âmbito que emergiu como objectivo geral deste estudo explorar as relações existentes entre os determinantes infantis (antecedentes obstétricos e peri-natais) e parentais (práticas alimentares, conhecimento dos pais sobre alimentação infantil, percepção parental de competência e percepção do peso da criança) e o desenvolvimento de excesso de peso em crianças pré-escolares. Este estudo, de carácter observacional e transversal, foi realizado com 792 crianças pré-escolares, idade M= 4,39 anos (±0,91Dp) e seus pais, residentes num concelho pertencente às NUTs III Dão-Lafões, sendo efectuada a avaliação antropométrica e classificação nutricional das crianças com base no referencial NCHS (CDC, 2000) e da OMS nos pais. O protocolo de pesquisa incluiu instrumentos de medida que validamos para a população portuguesa e a construção do Questionário de Conhecimentos sobre Alimentação Infantil (QAI) cujas propriedades psicométricas certificam a sua qualidade (Alfa de Cronbach = 0,942; Alfa de Cronbach teste re-teste = 0,977). Nas crianças, 31,3% apresentavam excesso de peso (12,4% obesidade), assim como 41,1% das mães (10,2% obesidade) e 64,4% dos pais (14,8% obesidade), sendo mais evidente nas mães o risco metabólico associado ao Perímetro da Cintura. As mães revelam mais conhecimentos sobre alimentação e sentimentos de eficácia mais elevados com o papel parental, enquanto os pais manifestaram mais sentimentos de motivação e satisfação. Os resultados obtidos corroboram existir efeito significativo dos determinantes infantis e parentais no excesso de peso da criança, designadamente: (i) do peso ao nascer, com impacto dos nascidos grandes; (ii) da higiene do sono especificamente dos que dormem menos de 11horas; (iii) dos que não brincam na rua, (iv) das mães mais jovens, do IMC e risco metabólico dos Pais; (v) da percepção parental da imagem corporal dos filhos, verificando-se que quanto mais elevado o IMC das crianças, mais distorcida é esta percepção dos pais; (vi) das crenças, atitudes e práticas alimentares e que permitem inferir que uma maior preocupação com o peso da criança, maior controlo, restrição e menor pressão para comer se associa a maior excesso de peso. As inferências evidenciam que, na vigilância de saúde periódica se torna imprescindível a valorização dos determinantes de risco biológicos e familiares do excesso de peso infantil, considerando programas de intervenção centrados na família, num processo que encontre sentido a partir daquilo que as famílias experienciam, de forma a ajudá-las a criar recursos fortalecedores de competência para uma parentalidade mais positiva.
Resumo:
No contexto econômico competitivo e globalizado no qual as corporações estão inseridas, emerge a necessidade de evolução constante para acompanhar as mudanças que o ambiente lhes impõe, visando a sustentabilidade e a perpetuidade. A evolução econômica e financeira das corporações pode promover o desenvolvimento de uma nação, mesmo que o aumento da concorrência no mercado obrigue-as a investirem em novas relações com o seu universo, buscando melhorar os seus níveis de desempenho mensurados por meio de novos instrumentos economicos e financeiros. Desta forma, o grau de investimento corporativo passa a ser relevante, pois pode gerar confiança em novos investimentos, sendo visto como sinônimo de economia forte. No concernente ao objetivo, esta tese teve como escopo o desenvolvimento de um indicador econômico e financeiro visando balizar o grau de credibilidade rating que as corporações apresentam em sua estrutura corporativa, por meio de um conjunto de índices econômicos e financeiros ligados à liquidez, à lucratividade, ao endividamento e à rentabilidade, provindos das demonstrações econômicas e financeiras das corporações estudadas. Este estudo caracteriza-se no contexto da tipologia aplicada, de objetivo descritivo com delineamento bibliográfico, na amplitude da problemática, caracteriza-se como quantitativo, compreendendo a população de 70 corporações brasileiras reconhecidas pelas certificadoras internacionais, Standard & Poor's, Moody's e Fitch Ratings, as quais detinham o grau de investimento corporativo no ano de 2008. Quanto aos métodos e procedimentos estatísticos, primeiramente utilizou-se a análise descritiva com vistas ao resumo dos dados, posteriormente foi feita a análise de correlação por meio do Coeficiente de Correlação Linear de Pearson, aplicando-se em seguida a análise de regressão. Em seguida para a confecção do modelo utilizou-se a análise fatorial e para testificar sua confiabilidade o Alfa de Cronbach, utilizou-se também a análise discriminante, para classificação dos quartis. As conclusões do estudo baseiamse nos resultados apresentados pela evolução do tratamento estatístico, que inicialmente apresentam uma correlação predominantemente fraca, no entanto isto não invalida a correlação de Pearson, pois todos os coeficientes apresentaram uma significância de (p<0,05). Na aplicação da análise de regressão, todos os modelos apresentaram resultados satisfatórios sendo perceptível a existência de uma forte correlação. A confiabilidade do modelo de grau de investimento corporativo provindo da análise fatorial foi testificada pelo coeficiente do Alpha de Cronbach, que apresentou valor de 0,768, o que indica consistência interna satisfatória ao estudo. O grau de investimento na base longitudinal de 2008 a 2010 apresenta variabilidade de 95,72% a 98,33% de acertividade. Portanto, conclui-se que o indicador criado por este estudo, possui condições de ser utilizado como base de definição do grau de investimento de corporações empresariais.
Resumo:
No contexto dos contaminantes aquáticos, os herbicidas são considerados como um dos grupos mais perigosos. Uma vez aplicados, estes são facilmente transportados para cursos de água, quer devido a uma pulverização pouco cuidada ou devido a fenómenos de escorrência superficial e/ou subterrânea. A presença destes agroquímicos no ambiente tem vindo a ser associada a efeitos nefastos em organismos não-alvo, como é o caso dos peixes. Contudo, existe ainda uma grande lacuna no que diz respeito à informação científica relacionada com o seu impacto genotóxico. Deste modo, a presente tese foi delineada com o intuito de avaliar o risco genotóxico em peixes de duas formulações de herbicidas: o Roundup®, que tem como princípio activo o glifosato, e o Garlon®, que apresenta o triclopir na base da sua constituição, produtos estes largamente utilizados na limpeza de campos agrícolas, assim como em florestas. Foi ainda planeado desenvolver uma base de conhecimento no que diz respeito aos mecanismos de dano do ADN. Como último objectivo, pretendeu-se contribuir para a mitigação dos efeitos dos agroquímicos no biota aquático, nomeadamente em peixes, fornecendo dados científicos no sentido de melhorar as práticas agrícolas e florestais. Este estudo foi realizado adoptando a enguia europeia (Anguilla anguilla L.) como organismo-teste, e submetendo-a a exposições de curta duração (1 e 3 dias) dos produtos comerciais mencionados, em concentrações consideradas ambientalmente realistas. Para a avaliação da genotoxicidade foram aplicadas duas metodologias: o ensaio do cometa e o teste das anomalias nucleares eritrocíticas (ANE). Enquanto o ensaio do cometa detecta quebras na cadeia do ADN, um dano passível de ser reparado, o aparecimento das ANE revela lesões cromossomais, sinalizando um tipo de dano de difícil reparação. O ensaio do cometa foi ainda melhorado com uma nova etapa que incluiu a incubação com enzimas de reparação (FPG e EndoIII), permitindo perceber a ocorrência de dano oxidativo no ADN. No que diz respeito ao Roundup®, o envolvimento do sistema antioxidante como indicador de um estado próoxidante foi também alvo de estudo. Uma vez que as referidas formulações se apresentam sob a forma de misturas, o potencial genotóxico dos seus princípios activos foi também avaliado individualmente. No caso particular do Roundup®, também foram estudados o seu surfactante (amina polietoxilada; POEA) e o principal metabolito ambiental (ácido aminometilfosfórico; AMPA). Os resultados obtidos mostraram a capacidade do Roundup® em induzir tanto dano no ADN (em células de sangue, guelras e fígado) como dano cromossómico (em células de sangue). A investigação sobre o possível envolvimento do stresse oxidativo demonstrou que o tipo de dano no ADN varia com as concentrações testadas e com a duração da exposição. Deste modo, com o aumento do tempo de exposição, os processos relacionados com o envolvimento de espécies reactivas de oxigénio (ERO) ganharam preponderância como mecanismo de dano no ADN, facto que é corroborado pela activação do sistema antioxidante observado nas guelras, assim como pelo aumento dos sítios sensíveis a FPG em hepatócitos. O glifosato e o POEA foram também considerados genotóxicos. O POEA mostrou induzir uma maior extensão de dano no ADN, tanto comparado com o glifosato como com a mistura comercial. Apesar de ambos os componentes contribuirem para a genotoxicidade da formulação, a soma dos seus efeitos individuais nunca foi observada, apontando para um antagonismo entre eles e indicando que o POEA não aumenta o risco associado ao princípio activo. Deste modo, realça-se a necessidade de regulamentar limiares de segurança para todos os componentes da formulação, recomendando, em particular, a revisão da classificação do risco do POEA (actualmente classificado com “inerte”). Uma vez confirmada a capacidade do principal metabolito do glifosato – AMPA – em exercer dano no ADN assim como dano cromossómico, os produtos da degradação ambiental dos princípios activos assumem-se como um problema silencioso, realçando assim a importância de incluir o AMPA na avaliação do risco relacionado com herbicidas com base no glifosato. A formulação Garlon® e o seu princípio activo triclopir mostraram um claro potencial genotóxico. Adicionalmente, o Garlon® mostrou possuir um potencial genotóxico mais elevado do que o seu princípio activo. No entanto, a capacidade de infligir dano oxidativo no ADN não foi demonstrada para nenhum dos agentes. No que concerne à avaliação da progressão do dano após a remoção da fonte de contaminação, nem os peixes expostos a Roundup® nem os expostos a Garlon® conseguiram restaurar completamente a integridade do seu ADN ao fim de 14 dias. No que concerne ao Roundup®, o uso de enzimas de reparação de lesões específicas do ADN associado ao teste do cometa permitiu detectar um aparecimento tardio de dano oxidativo, indicando deste modo um decaimento progressivo da protecção antioxidante e ainda uma incapacidade de reparar este tipo de dano. O período de pós-exposição correspondente ao Garlon® revelou uma tendência de diminuição dos níveis de dano, apesar de nunca se observar uma completa recuperação. Ainda assim, foi evidente uma intervenção eficiente das enzimas de reparação do ADN, mais concretamente as direccionadas às purinas oxidadas. A avaliação das metodologias adoptadas tornou evidente que o procedimento base do ensaio do cometa, que detecta apenas o dano nãoespecífico no ADN, possui algumas limitações quando comparado com a metodologia que incluiu a incubação com as enzimas de reparação, uma vez que a última mostrou reduzir a possibilidade de ocorrência de resultados falsos negativos. Os dois parâmetros adoptados (ensaio do cometa e teste das ANE) demonstraram possuir aptidões complementares, sendo assim recomendado a sua utilização conjunta com vista a efectuar uma avaliação mais adequada do risco genotóxico. Globalmente, os resultados obtidos forneceram indicações de grande utilidade para as entidades reguladoras, contribuindo ainda para a (re)formulação de medidas de conservação do ambiente aquático. Neste sentido, os dados obtidos apontam para a importância da avaliação de risco dos herbicidas incluir testes de genotoxicidade. A magnitude de risco detectada para ambas as formulações adverte para a necessidade de adopção de medidas restritivas em relação à sua aplicação na proximidade de cursos de água. Como medidas mitigadoras de impactos ambientais, aponta-se o desenvolvimento de formulações que incorporem adjuvantes selecionados com base na sua baixa toxicidade.