959 resultados para Azevém - análise - protocolo
Resumo:
Neste trabalho é revista uma metodologia baseada na modelação matemática de dados de perda transepidérmica de água (PTEA) após a realização de um plastic occlusion stress test (POST), para avaliar a dinâmica hídrica cutânea através de parâmetros cinéticos. Embora simples de executar, esta metodologia consome muito tempo, uma vez que normalmente envolve a recolha de dados durante, pelo menos, 30 minutos. Esta investigação tem como objectivo optimizar o protocolo, reduzindo o tempo total da experiência através da recolha de mais pontos na fase inicial do estudo.Foi possível reduzir significativamente o tempo de análise, o que se torna vantajoso tanto para os investigadores, como para os voluntários, uma vez que, por um lado, há redução dos custos de investigação, bem como se assegura o conforto dos participantes no estudo.
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
Tese apresentada ao Programa de Pós-graduação em Administração - Doutorado da Universidade Municipal de São Caetano do Sul
Resumo:
As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.
Resumo:
A definição de um protocolo nacional com métodos de análise para caracterização física de substratos para plantas é um fator determinante para o desenvolvimento da indústria de substratos para plantas no Brasil. Como forma de contribuir para a construção desse protocolo, o presente trabalho avaliou a influência dos níveis de umidade das amostras e comparou os resultados de métodos utilizados para obtenção da densidade e de curvas de retenção de água. A influência do teor de umidade nas amostras foi também avaliada em relação a variação da impedância mecânica mensurada através de micropenetrômetro. Foram utilizados seis materiais, três tipos de turfa e três substratos comerciais de casca de pinus e vermiculita, inicialmente caracterizados física (densidade de volume úmida e seca, densidade de partícula e curva de retenção de água) e quimicamente (pH e salinidade) segundo o protocolo do Laboratório de Biotecnologia em Horticultura, do Departamento de Horticultura e Silvicultura, da Faculdade de Agronomia / UFRGS. Verificou-se que: quanto maior a umidade inicial presente na amostra maior a densidade final do substrato; os métodos para determinação da densidade da Indústria e do Comitê Europeu de Normatização equivalem entre si e diferem significativamente do método da UFRGS; os equipamentos para obtenção da curva de retenção de água apresentam resultados divergentes, sendo que o Funil de Büchner succiona mais água do que a Mesa de Tensão e os Cilindros de Pressão; a impedância mecânica aumenta conforme aumenta a densidade e a tensão da água na amostra.
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
As ataxias espinocerebelares (SCAs) constituem um grupo de doenças neurodegenerativas fatais que apresentam uma grande heterogeneidade clínica. A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é causada por uma expansão de uma seqüência repetitiva CAG em um gene, denominado MJD1, localizado no braço longo do cromossomo 14, expansão codificadora de uma seqüência poliglutamínica constituinte da proteína ataxina 3. Indivíduos normais apresentam entre 12 a 41 repetições, enquanto indivíduos afetados apresentam 61 a 84 repetições CAGs neste gene. Este trabalho teve como objetivos principais a padronização de metodologias moleculares para o identificação e a quantificação do número de repetições CAG no gene responsável pela da DMJ. Um grupo de 112 pacientes, pertencentes a 77 famílias, com suspeita clínica de algum tipo de ataxia espinocerebelar foi avaliado no Hospital de Clínicas de Porto Alegre. Após a extração de DNA destes pacientes, este material foi amplificado por PCR utilizando oligonucleotídeos iniciadores específicos para a região de interesse e posterior transferência destes fragmentos (1) para uma membrana de nylon pelo método de Southern blot, visando ao estabelecimento de um protocolo não-radioativo para detectar a presença do alelo normal e/ou mutante; e (2) análise em gel de poliacrilamida para quantificação do número de repetições presentes no alelo mutante. As análises laboratoriais identificaram um total de 77 pacientes com uma expansão CAG no gene da MJD1. Considerando-se apenas indivíduos não relacionados, a freqüência encontrada foi de 61% (47 indivíduos). Os protocolos estabelecidos demonstraram-se bastante eficazes e sensíveis para o diagnóstico da DMJ e quantificação do alelo expandido da respectiva doença.
Resumo:
É notória a contribuição passada e potencial do setor sucro-alcooleiro para a mitigação do problema global das mudanças climáticas. Mas tendo em vista, por um lado, as regras emergentes para apresentação e aceitação de projetos em países em desenvolvimento, para implementação no âmbito do mecanismo de desenvolvimento limpo do Protocolo de Kyoto e a obtenção do direito a créditos de carbono a serem comercializados no mercado internacional, e, por outro, critérios empresariais para a implantação de projetos de investimento, originou-se a questão central deste estudo, que é identificar se há perspectivas para o setor sucro-alcooleiro paulista implementar projetos em larga escala no âmbito do CDM. Verifica-se que a geração de energia elétrica a partir da cana-de-açúcar e sua utilização em substituição a fontes mais emissoras de gases de efeito estufa faz sentido do ponto-de-vista ambiental e constitui-se um potencial projeto para implementação no CDM. O uso deste mecanismo global como uma fonte de recursos financeiros serve como um incentivo adicional para perseguir tecnologias mais modernas, agregando mais um fator de rentabilidade e atratividade aos projetos. E em cenários específicos de custos de capital, combinados a determinados preços de créditos de carbono, estimados a partir de expectativas e estudos de mercado, verifica-se que a obtenção e venda dos créditos no mercado internacional pode até mesmo modificar o "status" de alguns projetos, de destruidores para criadores de valor. Adotando-se como ferramenta de tomada de decisão o uso combinado de critérios empresariais de análise de investimentos, obtém-se uma visão mais acurada da perspectiva de atratividade e do valor criado por projetos CDM.
Resumo:
A tecnologia de rede dominante em ambientes locais é ethernet. Sua ampla utilização e o aumento crescente nos requisitos impostos pelas aplicações são as principais razões para a evolução constante presenciada desde o surgimento deste tipo de rede simples e barata. Na busca por maior desempenho, configurações baseadas na disputa por um meio de transmissão compartilhado foram substituídas por topologias organizadas ao redor de switches e micro-segmentadas, ou seja, com canais de transmissão individuais para cada estação. Neste mesmo sentido, destacam-se os dispositivos de qualidade de serviço padronizados a partir de 1998, que permitem a diferenciação de tráfego prioritário. O uso desta tecnologia em ambientes de automação sempre foi refreado devido à imprevisibilidade do protocolo CSMA/CD. Entretanto, o uso de switched ethernet em conjunto com a priorização de tráfego representa um cenário bastante promissor para estas aplicações, pois ataca as duas fontes principais de indeterminismo: colisões e enfileiramento. Este trabalho procura avaliar esta estrutura em ambientes de controle distribuído, através de uma análise temporal determinística. Como resultado, propõe-se um modelo analítico de cálculo capaz de prever os valores máximos, médios e mínimos do atraso fim-a-fim observado nas comunicações de diferentes classes de tráfego. Durante a análise, outras métricas relevantes são investigadas como a variação no atraso (jitter) e a interferência entre classes de prioridades distintas.
Resumo:
Atualmente a crescente preocupação com a melhoria da qualidade de produtos e da segurança dos alimentos tem levado as instituições públicas e privadas ao desenvolvimento e a utilização de diversos sistemas e programas de qualidade. O sistema APPCC (Análise de Perigos e Pontos Críticos de Controle), além de regulamentado pelos órgãos oficiais de controle, tem se revelado como ferramenta básica do sistema moderno de gestão, precursora da garantia da qualidade. A exemplo de outros alimentos, se observa para o caso de erva-mate, uma grande preocupação com a segurança da mesma em relação à saúde dos consumidores. O presente trabalho, tem como objetivo propor um protocolo para a implementação do sistema APPCC, na cadeia agroindustrial da erva-mate. Para isto foi desenvolvida uma pesquisa descritiva em duas agroindústrias da região do Alto Uruguai Rio-grandense, onde se associou os conceitos de cadeia agroindustrial ao sistema APPCC. Os resultados apontam que a implantação do sistema APPCC na cadeia da erva-mate é possível, como já obtido com outras cadeias agroindustriais. Com o sistema APPCC pode-se obter: alto nível de segurança alimentar para o produto erva-mate; contribuição para redução de custos; consolidação da imagem e credibilidade tanto da empresa como do produto junto aos clientes; aumento da auto confiança e da satisfação das pessoas envolvidas no processo de produção. Espera-se que os conhecimentos gerados neste trabalho possam contribuir para a aplicação na elaboração de políticas para toda a cadeia agroindustrial da erva-mate, na formulação de estratégias empresariais e usa-lo como ferramenta gerencial para que possa melhorar a eficiência e eficácia desta cadeia.
Resumo:
O objetivo geral deste estudo foi comparar adolescentes infratores e não infratores quanto a variáveis familiares que podem estar relacionadas ao desenvolvimento do comportamento infrator. Além disso, pretendeu-se investigar as variáveis preditoras da conduta infratora. Os sujeitos foram 311 adolescentes divididos em dois grupos. O primeiro grupo foi composto por 148 adolescentes do sexo masculino autores de atos infracionais, que estavam cumprindo medida sócio-educativa privativa de liberdade na Fase-RS. O segundo grupo foi constituído por 163 adolescentes que não cometeram atos infracionais, estudantes do Ensino Fundamental e Médio em escolas públicas de Porto Alegre. Os instrumentos utilizados foram uma entrevista estruturada, a Escala de Estilos Parentais e um protocolo para a análise dos prontuários dos adolescentes infratores. Os resultados indicaram a presença de diferenças significativas entre os grupos nas seguintes variáveis: configuração familiar; comportamento anti-social na família; número de irmãos; existência de conflitos na família; responsividade, exigência e intrusividade parental; práticas educativas parentais; e consumo de drogas pelos adolescentes. As análises descritivas permitiram a caracterização do comportamento infrator apresentado pelos jovens, incluindo aspectos como idade de cometimento do primeiro delito, motivações e tipo de delitos efetuados. Para investigar o valor preditivo das variáveis familiares e individuais sobre o comportamento infrator foi realizada a Análise de Regressão. Os resultados mostraram que as variáveis independentes (responsividade e exigência parentais; comportamento anti-social na família; número de irmãos; uso de drogas pelo adolescente; existência de conflitos na família e práticas educativas parentais) contribuíram para explicar 53% da variância do comportamento infrator. Examina-se o papel da família, em especial das práticas educativas, no desenvolvimento da conduta infratora, as limitações metodológicas para a investigação em adolescentes com as características dos que compõem a amostra e as implicações dos resultados encontrados para a implementação de políticas de prevenção e de tratamento destinados a essas famílias.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.
Resumo:
O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.
Resumo:
O Tribunal Permanente de Revisão, considerado a grande inovação do Protocolo de Olivos para a Solução de Controvérsias do Mercosul, recebeu como missão a unificação do entendimento da normativa que integra o bloco. Para tal desiderato, dispõe da competência para a emissão de opiniões consultivas, que podem funcionar como um mecanismo de diálogo entre aquele Tribunal e os Judiciários nacionais dos Estados Partes. Contudo, em razão de sua debilidade estrutural, há questionamentos quanto a real possibilidade de que o mecanismo possa contribuir para uma uniformização da interpretação da normativa do bloco. Assim, o trabalho pretendeu-se investigar o potencial de efetividade desse instrumento. Como base, utilizou-se a regulamentação que o rege e outros elementos da normativa do Mercosul, além da doutrina. Buscou-se estabelecer diferenças entre as opiniões consultivas e o instituto do reenvio prejudicial europeu. Por fim, apresentou-se uma proposta que potencializaria o instituto, chegando-se à conclusão de que há sim um potencial de efetividade em sua utilização.