27 resultados para Metodologia de Pesquisa Online
Resumo:
Esta pesquisa tem como objetivo validar externamente a Metodologia da Análise Focada na Decisão (AFD) desenvolvida por Santos, Becker e Fisher (1998) a partir do estudo de atividades desenvolvidas por um grupo de funcionários da Secretaria de Estado da Agricultura do Paraná – SEAB. A AFD define os requisitos de informações para o desenvolvimento de Sistema de Informação (SI), com foco de análise no processo decisório e executada em fases seqüenciais de análise e de modelagem de sistema. A aplicação da AFD foi realizada na SEAB, através do estudo feito junto à Divisão de Produção de Sementes e Mudas, o foco das observações. Utilizando-se a AFD definiu-se as informações essenciais, tendo como classes de decisão aquelas geradas pelos funcionários que atuam direta e indiretamente com a citada Divisão. A AFD mostrou-se um método adequado para a definição de requisitos de informações, pois os resultados de sua aplicação foram relevantes não apenas dentro dos objetivos propostos, mas propiciou, também, grande interesse em outras áreas da SEAB. Validou-se a metodologia pela confirmação de sua eficácia junto aos especialistas da área conforme relatado.
Resumo:
Este trabalho tem por objetivo avaliar os resultados do método PEI – Programa de Enriquecimento Instrumental – desenvolvido por Reuven Feuerstein, em trabalhadores de baixa escolaridade e qualificação de uma empresa de serviços. A fim de compreender as demandas das empresas modernas em relação aos seus trabalhadores, buscou-se na literatura o referencial teórico das escolas de administração que acompanham a crescente complexidade do ambiente empresarial moderno. A tendência à descentralização, principalmente na área de serviços, tem exigido o desenvolvimento da capacidade cognitiva e criativa de seus colaboradores. Considerando que o processo evolucionário, mesmo coletivamente, é resultado de uma aprendizagem individual, buscou-se no trabalho do educador Reuven Feuerstein um referencial teórico e metodológico que pudesse contribuir para que este ajustamento ocorra sem prejuízos para o trabalhador. Sua abordagem partiu da proposta de Piaget e está alinhada à de Vygotsky e Paulo Freire, também estudados na Parte I deste trabalho. A Parte II apresenta o desenrolar da pesquisa na empresa de serviços terceirizados, a ANDRITA Dragagens e Limpezas, onde o método de Feuerstein foi ministrado para 19 empregados voluntários, por 22 semanas. Nela são expostas as apreciações das avaliações, baseadas em testes e entrevistas individuais, realizadas pré e pós- intervenção. Os resultados do programa foram medidos por meio da análise comparativa das avaliações efetuadas antes e depois do PEI e são explanados na Parte III. Eles indicam que o método produziu mudanças positivas para todos os participantes, embora variando de foco e intensidade. Os efeitos mais significativos apareceram na auto-estima, os quais repercutiram na visão mais otimista do futuro e na atitude mais ativa e reflexiva diante de adversidades. A grande maioria dos participantes percebeu diferenças em seu jeito de ser e agir, tais como maior controle emocional, melhor comunicação e relacionamento interpessoal. Também foram comprovados ganhos no nível intelectual e na criatividade dos participantes. Essas mudanças se refletiram nas várias esferas da vida social, principalmente profissional e doméstica, proporcionando melhora em algum aspecto do desempenho percebido por eles próprios ou pela chefia. Passaram a assumir mais a responsabilidade pelo próprio desempenho, o que é uma característica desejável em trabalhadores de serviços. Um aspecto marcante da participação no programa foi o engajamento nas tarefas propostas pelos exercícios. Há vários relatos de como mergulhavam nas atividades e esqueciam do tempo e das preocupações, o que também é esperado no programa e visa desenvolver a motivação intrínseca, pela formação do hábito de realizar atividades que desafiem a própria capacidade. As entrevistas assinalaram, ainda, opiniões quanto ao método, seus exercícios e forma de condução, permitindo levantar idéias acerca da possibilidade de enriquecimento das atividades junto aos grupos de adultos em ambiente de trabalho.
Resumo:
As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.
Resumo:
Este trabalho apresenta uma proposta de metodologia para avaliação da condição superficial de pavimentos, asfálticos, de paralelepípedos e pedras irregulares, a ser aplicada no inventário do estado da malha viária para implantação do sistema de gerência de pavimentos da cidade de Porto Alegre. Propõe-se o emprego de duas componentes: a avaliação objetiva e a avaliação subjetiva. A avaliação objetiva trata do levantamento quantitativo da degradação existente na superfície. Para tanto, são apresentadas as descrições e níveis de severidade dos tipos de defeitos e os procedimentos para o inventário. A avaliação subjetiva consiste na atribuição de notas pelos avaliadores à condição da superfície. Buscando a homogeneidade nas respostas, foram estabelecidos critérios para auxiliar na definição do estado dos pavimentos. É proposto o emprego de curvas de valores de dedução para determinar o Índice da Condição do Pavimento, de modo análogo ao método PCI elaborado pelo Corpo de Engenheiros do Exército dos Estados Unidos. São apontados os procedimentos a serem empregados para a determinação das curvas de valores de dedução que representem as condições locais. Também foi realizada uma pesquisa para conhecer a opinião dos usuários sobre a condição de tráfego de alguns trechos e sobre a influência dos defeitos na qualidade de rolamento, na segurança e no custo de operação. Complementarmente, foi efetuada uma aplicação da metodologia proposta em trechos amostrais e apresentadas as análises sobre os resultados obtidos.
Resumo:
A presente dissertação realiza um estudo comparativo de casos, representados por dois jornais online: Terra Notícias e Diário Catarinense, tendo como ponto de partida o estabelecimento das seguintes categorias: conteúdo disponível, ergonomia do sistema hipermídia e recursos de interatividade, levantados a partir de uma revisão bibliográfica sobre o tema. Para chegar a esse objetivo, são utilizadas técnicas variadas de pesquisa, como pesquisa bibliográfica, aplicação de questionário para obtenção de dados quantitativos e qualitativos e observação estruturada a partir de categorias pré-estabelecidas. A pesquisa ainda aplica uma ferramenta para mensuração da qualidade percebida, com a finalidade de verificar a avaliação dos internautas catarinenses em relação aos dois jornais online em questão. A ferramenta de pesquisa foi construída a partir de modelo proposto por Sousa (2001), e ampliada com base nas mesmas categorias utilizadas para a análise comparativa.
Resumo:
Objetivos: Padronizar uma técnica molecular, Reação em Cadeia da Polimerase (PCR) para detectar os genes blaSPM-1 , blaVIM-2 e blaIMP-1 que conferem a Pseudomonas aeruginosa resistência a carbapenêmicos (imipenem e meropenem) através da produção das metalo-β-lactamases (MBL) SPM-1, VIM-2 e IMP-1. Comparar os resultados obtidos com a técnica de PCR com os obtidos através de uma técnica fenotípica para detecção desse mecanismo enzimático de resistência. Descrever a prevalência dos genes de MBL. Metodologia: Utilizando 48 amostras clínicas de P. aeruginosa resistentes a ceftazidima e/ou imipenem sendo 37 caracterizadas como produtoras de MBL através de uma técnica fenotípica (aproximação de disco) e 11 como não produtoras pela mesma técnica. Esses isolados foram testados com três primers específicos para os seguintes genes: blaSPM-1 , blaVIM-2 e blaIMP-1 Resultados e Discussão: Dos 37 isolados produtores de metalo-β-lactamase, 29 tiveram resultado positivo na PCR sendo 27 positivos para o gene blaSPM-1 e 2 positivos para o gene blaIMP-1 . Em nenhum isolado foi detectado o gene blaVIM-2 .Oito isolados caracterizados como produtores de MBL não tiveram nenhum produto amplificado com os três pares de primers. Os 11 isolados caracterizados como não produtores de MBL não tiveram produto amplificado. Assim, a sensibilidade da técnica molecular foi de 78,40% e a especificidade 100,0% considerando a técnica fenotípica de aproximação de disco como padrão ouro Conclusões: Foi possível a padronização da técnica de PCR para a detecção dos genes blaSPM-1 , blaVIM-2 e blaIMP-1 bem como foi possível a comparação entre a técnica de PCR e a técnica fenotípica, sendo que a metodologia molecular apresentou 100% de especificidade e 78,40% de sensibilidade. O gene de MBL mais prevalente foi blaSPM-1 encontrado em 27/29 amostras de P. aeruginosa resistentes ao imipenem. O gene blaIMP-1 foi detectado em apenas 2/29 amostras de P. aeruginosa resistentes ao imipenem. O gene blaVIM-2 e não foi detectado nas amostras de P.aeruginosa analisadas neste estudo.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Esta dissertação reflete o uso de tecnologias digitais em comunicação, na área da pesquisa científica brasileira, considerando a influência dessas novas tecnologias na sociabilidade dos grupos de pesquisa. Investiga as implicações de um modelo de comunicação e sociabilidade, através da Rede, apresentando o termo Comunidade Científica via Internet (CCI), os conceitos de sociabilidade, comunidade, ciência e espaços virtuais e como forma de interação em Rede. Baseia-se em uma metodologia de análise e verificação de variáveis realizada com grupos de pesquisa, vinculados ao Programa Nacional de Cooperação Acadêmica (PROCAD), tratando-se, no entanto, de uma pesquisa de cunho qualitativo, onde apresenta dados provindos de instrumentos de pesquisa, como questionário e entrevista, bem como de pesquisa bibliográfica, com intuito de analisar a existência e de uma comunidade nesse grupo, além de suas perspectivas em relação à comunicação, à interação e à sociabilidade em espaços virtuais.
Resumo:
Cryptococcus neoformans é uma levedura oportunista que pode se alojar no sistema nervoso central causando meningite, meningoencefalite e encefalite principalmente em indivíduos com algum comprometimento do sistema imune. É responsável por 4,5% das infecções oportunistas que acometem pacientes portadores do Vírus da Imunodeficiência Humana (HIV-positivos). Cryptococcus gattii é um patógeno primário responsável por uma alta incidência de criptococomas no pulmão e no cérebro e que apresenta uma alta morbidez neurológica e uma resposta retardada à terapia antifúngica. O diagnóstico da criptococose é, atualmente, baseado na detecção da levedura em amostras clínicas, no cultivo com posterior identificação bioquímica e na pesquisa de antígenos circulantes. A diferenciação entre as espécies C. neoformans e C. gattii, na maioria dos laboratórios, é realizada utilizando o meio de cultura ágar canavanina-glicina-azul de bromotimol (CGB) e demora em torno de sete dias. Neste trabalho foi padronizada uma metodologia de PCR multiplex que pode vir a substituir as provas bioquímicas utilizadas atualmente para a identificação das espécies de Cryptococcus, reduzindo em 6 dias o tempo necessário para a identificação das espécies. A metodologia também se mostrou mais específica na identificação das espécies, concordando com os resultados das sorotipagens em todos os 132 isolados de Cryptococcus testados, enquanto o resultado obtido com o cultivo em ágar CGB foi discordante em 6 dos 132 isolados, sendo 5 falso-positivos e 1 falso negativo. Foi também realizado o primeiro estudo epidemiológico do perfil de pacientes com meningite criptocócica no estado do Rio Grande de Sul notificados no Laboratório Central de Saúde Pública IPB-LACEN/RS no período de 2000 a 2005. A maioria dos pacientes é do sexo masculino (77,12%), branco (83,5%), na faixa etária entre 30 a 39 anos (46,24%) e infectados pelo HIV (95%).
Resumo:
Esta pesquisa parte da constatação expressa na literatura analisada de que os métodos e técnicas utilizados na elaboração do Estudo de Impacto Ambiental - EIA de empreendimentos hidrelétricos têm se mostrado inadequados para apoiar o complexo processo de tomada de decisão, tanto no âmbito das empresas de consultoria, que elaboram o Estudo, como no dos órgãos ambientais, que analisam o EIA. Para investigar e confirmar esta questão, foram analisados a legislação vigente, Termos de Referência para a elaboração de EIAs e nove EIAs de hidrelétricas. Dentre eles, foram selecionados dois para estudo de caso. Constatou-se que são necessários três processos de avaliação na elaboração do EIA: dos impactos, das medidas mitigadoras e dos programas. Na avaliação de impactos, a técnica mais utilizada é a Matriz de Leopold, aplicada de forma correta em apenas um dos EIAs. Tornou-se evidente que os pontos fracos dessa avaliação podem ser reduzidos e até eliminados desde que o órgão ambiental melhore algumas exigências no Termo de Referência, de tal forma que levem a consultora a utilizar a referida técnica de forma correta ou a adotar um método ou técnica mais adequada. As avaliações das medidas mitigadoras e dos programas não são realizadas, invariavelmente. As razões para esta situação podem ser atribuídas tanto aos órgãos ambientais como às empresas de consultoria. Os primeiros, porque nem sempre elaboram o Termo de Referência integralmente de acordo com a Resolução CONAMA nº 001/86, deixando de especificar que as avaliações devem ser realizadas com métodos e técnicas válidos e confiáveis. Os segundos, porque não tomam a iniciativa de atender à legislação vigente, independente das instruções expressas no Termo de Referência. Essas avaliações constituemse nos pontos fracos mais relevantes a serem melhorados por órgãos ambientais e consultores. Ao considerar a avaliação dos programas ambientais como a problemática prioritária, a pesquisa investiga e reconhece que as metodologias multicritério, em especial as de apoio à tomada de decisão, pertencentes ao grupo Multicriteria Decision Aid - MCDA, apresentam grande potencialidade para a solução da problemática detectada. A escolha recaiu sobre a abordagem proposta por Ensslin, Montibeller Neto e Noronha (2001), que foi adaptada e submetida a um teste para investigar a sua validade e exeqüibilidade na avaliação dos programas do EIA de duas hidrelétricas no rio Ijuí – RS. Para isso, foram envolvidos quatro especialistas da empresa consultora que elaborou o EIA, para atuarem como avaliadores. Os resultados foram submetidos à apreciação dos próprios avaliadores, de técnicos do órgão ambiental estadual e de técnicos do órgão ambiental federal, que se manifestaram favoráveis à metodologia, em sua maioria.