968 resultados para Tipo difusão-reação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Utilizando métodos ab initio no nível RHF/6-311G**, combinado com conceitos do Princípio de Curtin-Hammett e da lei de distribuição de Maxwell-Boltzmann, este trabalho teve como objetivo elucidar os mecanismos implicados na reação de Michael assimétrica via o equilíbrio tautomérico imina/enamina quirais, também conhecida como alquilação desracemizante. Estão descritos novas abordagens e metodologias para uma extensiva Análise Conformacional e Análise dos Estados de Transição para moléculas com razoável número de átomos, envolvendo um alto número de graus de liberdade. Essas novas abordagens e metodologias envolvendo o Estado de Transição, proporcionaram gerar resultados com desvio de apenas 10,1% para o valor do excesso diastereoisomérico dos produtos Re/Si envolvendo a enamina (R,R) 5; consideramos ainda neste caso, contribuições de entropia e entalpia (ZPE) para a energia livre absoluta de ativação. Tais resultados obtidos evidenciaram a importância da consideração de um maior número de confôrmeros na obtenção de geometrias no estado de transição, para a correta descrição dos processos cinéticos envolvidos nas reações químicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos historiadores afirmam que estamos iniciando uma nova era, a era do conhecimento, da informação, a era digital. Surgem duas grandes armas estratégicas nesse novo ambiente global, para que as empresas sejam competitivas no século vinte e um: a criatividade e a integração. E muitas empresas estão adotando uma nova estrutura organizacional, a estrutura do tipo network, como solução para a gerência da criatividade e da integração. Essa estrutura não se preocupa com novas maneiras de manipular subordinados em vantagem própria. Ao contrário, ela nos desafia a repensar o básico: nossos valores, atitudes e considerações a respeito de liderança, trabalho e tempo. As estruturas hierárquicas convencionais não proporcionam a agilidade de resposta requerida pelo mercado atualmente, devido à burocracia por trás de todas as atividades. As pessoas especializam-se em pequenas atividades, perdendo o sentido do trabalho e a motivação intrínseca. E uma vez que as pessoas são crescentemente reconhecidas como o capital mais importante de qualquer empreendimento, a desmotivação se toma desastrosa para o futuro de qualquer negócio. A reciprocidade empresa-indivíduo é essencial. Esta dissertação pretende analisar o fator humano nos trabalhos realizados dentro da estrutura de network, traçando-se um paralelo entre as propostas dessa estrutura e as necessidades humanas, demonstrando a relação existente entre a estrutura organizacional da criatividade e da integração e a satisfação no trabalho. Iniciamente, apresenta-se uma revisão bibliográfica, sob três diferentes enfoques. Primeiro, explica-se como as transformações mundiais estão afetando a estratégia das empresas. Depois, mostra-se o impacto da estratégia do século vinte e um dentro da organização. Por fim, focaliza-se o lado psicológico do ser humano, suas necessidades, tais quais a autonomia, a competência e o relacionamento interpessoal, os fatores de satisfação intrínsecos e extrínsecos. Assim, pode-se avaliar o impacto de uma nova estrutura organizacional na motivação dos funcionários. A seguir, apresenta-se o projeto de uma pesquisa-piloto dos fatores de satisfação mais relevantes para as pessoas, confirmando-se a importância dos fatores de satisfação intrínsecos. Mostra-se também que os índices de satisfação são diretamente afetados pelo ambiente empresarial onde atuam, de acordo com seu grau de autonomia. Então, são mostradas as conclusões do trabalho e recomendações práticas para mudanças na estrutura organizacional dentro de uma empresa, seus custos e como elas devem ser administradas no longo prazo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese são apresentados os resultados de um estudo sistemático à respeito da formação e evolução térmica de nanocavidades de He em Si cristalino. O efeito da formação de nanocavidades de He no aprisionamento de impurezas em Si foi estudado inicialmente em distintas condições de fluência, temperatura e direção de implantação. Após as implantações, as amostras foram tratadas termicamente a 800°C e analisadas por espectroscopia de retroespalhamento Rutherford em condição de canalização (RBS/C), análise de detecção por recuo elástico (ERDA), espectroscopia por emissão de íons secundários (SIMS) e microscopia eletrônica de transmissão (TEM). Os resultados experimentais mostraram que implantações de He a temperatura ambiente (Ti=Tamb) levam à formação de defeitos numa região intermediária entre a superfície e a camada onde as bolhas se formam (Rp/2), sendo 5x1015He+cm-2 a fluência mínima para a observação do fenômeno. Sua origem foi atribuída à formação de pequenas cavidades nesta região. O mesmo não é observado em implantações a Ti=350°C devido ao efeito do recozimento dinâmico dos defeitos. Estes resultados mostraram a necessidade de um estudo mais profundo a respeito dos efeitos da temperatura de implantação (Ti) na formação de bolhas em Si. Este estudo foi feito a partir de implantações de He no intervalo de temperatura entre -196°C e 350°C, sendo a fluência e a energia de implantação de 2x1016He+cm-2 e 40keV respectivamente. O efeito da proximidade à superfície foi estudado com implantações a 15keV. As amostras foram analisadas pelas mesmas técnicas referidas anteriormente. Para o caso de implantações feitas a 40keV com TiTamb pequenas bolhas são formadas durante a implantação juntamente com defeitos estendidos do tipo {311}. A formação destes defeitos é atribuida ao mecanismo de formação das bolhas baseado na emissão de átomos auto-intersticiais de Si. Distintos regimes são observados após recozimento entre 400°C e 800°C por 600s. Para Ti≤250°C observa-se a dissolução do sistema de cavidades e defeitos devido à interação mutua entre os sistemas. Para Ti>250°C cavidades esféricas e anéis de discordância são observados após recozimentos a 800°C. Finalmente, se observou que a energia de implantação (15keV) não afeta a morfologia do sistema de bolhas e defeitos formados. Porém a perda de He é cinco vezes menor que no caso de amostras implantadas a 40 keV na mesma fluência. Um mecanismo baseado na difusão aumentada por danos de irradiação é sugerido neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem como objetivo geral buscar um melhor entendimento do comportamento de compra online e, para tal, valeu-se de cinco objetivos específicos. O primeiro objetivo tratou da ordenação e sistematização do conhecimento sobre esse assunto e, através de seu atingimento, foi possível perceber que o comportamento de compras online tem sido explicado na literatura científica por 3 grandes grupos de variáveis: perfil do consumidor, tipo de uso que faz da Internet e atitude em relação a essa mídia. Também foi possível reduzir de 28 para 13 as variáveis relevantes na explicação desse tipo de consumo. O segundo objetivo tratou de investigar as características que diferenciam compradores de não-compradores e aqui foi possível identificar que compradores online têm perfil socioeconômico mais elevado, viajaram mais para o exterior, conhecem mais o idioma inglês e recebem salários mais altos. Também valorizam mais a conveniência, são mais inovadores, têm menor aversão ao risco e uma orientação experiencial menor, ou seja, necessitam menos ver e pegar o produto antes de decidir comprar. Esses consumidores também têm mais locais de acesso à rede, consideram ter maior conhecimento sobre a Web e a utilizam mais para e-mails, operações bancárias e para levantar informações sobre produtos e serviços. Tendem a enxergar a Internet mais útil e divertida do que os não-compradores. O terceiro objetivo tratou de identificar diferentes segmentos de consumidores online e 5 grupos distintos surgiram. Entre os não-compradores caracterizou-se os grupos Internet não é comigo, Gosto da Internet, mas não sei se vou comprar e o Estou quase lá. Entre os compradores foi possível encontrar os grupos Estou testando e Fãs de carteirinha. Percebeu-se que os cinco grupos formam um contínuo que representa um caminhar em direção às compras online, guardando semelhanças com a Teoria da Difusão das Inovações. O quarto objetivo buscou desenvolver um modelo que estimasse como a probabilidade de consumo online é afetada pelo perfil, uso da Internet e atitudes. Segundo esse modelo, tal probabilidade é maior quando o consumidor acessa a Internet de mais lugares; utiliza a rede para banking, levantar informações sobre produtos e serviços e buscar ofertas; viaja mais para o exterior; conhece mais o idioma inglês; possui mais bens digitais; está mais envolvido com a Internet; vê mais utilidade da na rede; acha importante poder comprar sem sair de casa; tem mais propensão ao risco; não se julga muito inovador; e, mais importante, tem baixa orientação experiencial, dispondo-se a comprar sem ver e pegar o produto antes. O quinto objetivo era oferecer sugestões de cunho prático a gerentes e empreendedores e entre elas é possível destacar as seguintes: 1) Constatou-se a necessidade dos sites também terem elementos hedônicos, não apenas utilitários; 2) Os produtos de mais aceitação para venda online são os de busca, seguidos, na ordem, pelos tipo experiência-2, tipo experiência-1 e, por último, confiança; 3) Uma maior percepção de segurança online leva a mais compras e maior freqüência de compras; 4) Os achados descritos no quarto objetivo podem servir para localizar potenciais consumidores online; 5) As descobertas do terceiro objetivo podem orientar o processo de conversão e manutenção de compradores online.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objetivo deste trabalho é analisar se o uso de preferências que incorporem assimetria na reação do investidor frente a ganhos e perdas permite gerar resultados mais coerentes com o comportamento real de investidores brasileiros na seleção de portfólios ótimos de investimento. Uma das formas de tratar o comportamento assimétrico se dá através da introdução do coeficiente de aversão a perdas (ou ao desapontamento) na função utilidade tradicional, coeficiente este que aumenta o impacto das perdas frente aos ganhos. A aplicação deste ajuste na função utilidade tradicional decorre de recentes avanços na teoria de finanças, mais especificamente daqueles estudos que buscam solucionar as violações dos axiomas da teoria da utilidade esperada, violações estas já demonstradas empiricamente através de testes de laboratório. A análise das implicações do uso deste tipo de função é feita através da comparação dos resultados quanto à participação do ativo com risco (mercado acionário) na composição do portfólio ótimo (aquele que maximiza a utilidade) do investidor gerados por dois tipos de função utilidade: tradicional e com aversão a perdas. Os resultados são comparados com dados reais de participação do mercado acionário nos investimentos totais de dois tipos de investidores brasileiros - fundos de pensão e investidores individuais - visando verificar a adequação dos resultados de cada função em relação ao comportamento destes investidores. Os resultados mostram que não é possível rejeitar a função utilidade tradicional como modelo representativo do comportamento agregado dos fundos de pensão. Por outro lado, as simulações indicam que a função utilidade tradicional deve ser rejeitada como modelo representativo do comportamento dos investidores individuais, sendo o comportamento destes investidores melhor representado por uma função que incorpora aversão a perdas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe, por parte da comunidade industrial e científica, uma incessante procura por revestimentos protetores mais resistentes a ambientes cada vez mais agressivos, como aquele encontrado pelas ferramentas de injeção de alumínio. Uma das tendências que surge para aumentar a vida útil destas ferramentas é a de produzir filmes finos compostos por diversas camadas, cada qual tendo sua função especifica; um exemplo deste tipo de revestimento é aquele composto por camada de adesão, camada intermediária e camada de trabalho. Neste trabalho, foi proposto estudar a utilização do nitreto de titânio e alumínio (Ti,Al)N, tanto como camada intermediária quanto de trabalho, uma vez que este apresenta alta dureza, grande resistência ao desgaste e superior resistência à oxidação. Para a camada intermediária, foram depositados filmes finos tipo multicamadas (TixAl1-x)N/(TiyAly-1)N, (Ti,Al)N/TiN e (Ti,Al)N/AlN, com variação na estrutura cristalina e na espessura das camadas individuais, pois dependendo da quantidade de alumínio adicionado ao sistema, o (Ti,Al)N apresenta mudanças em algumas de suas propriedades, como estrutura cristalina, dureza e resistência mecânica. Os filmes finos monolíticos de (Ti,Al)N e suas multicamadas foram depositadas por magnetron sputtering reativo e caracterizados quanto ao crescimento cristalino, estequiometria, espessura das camadas individuais, dureza e módulo de elasticidade. Na segunda parte deste trabalho, a fim de avaliar a camada de trabalho, é apresentada uma nova técnica de caracterização in-situ, que avalia as reações químicas que ocorrem entre o alumínio e os materiais selecionados. Foram comparados entre si o aço AISI H13, os revestimentos nitreto de titânio, nitreto de cromo, e três diferentes composições de (Ti,Al)N, a fim de verificar qual material apresenta o comportamento mais inerte em contato ao alumínio a altas temperaturas. Para tanto, foram utilizadas as técnicas de calorimetria diferencial de varredura (DSC) e difração de raios X (XRD).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho procura identificar a variável que tem condicionando, desde 1994, o processo de fortalecimento das carreiras de estado da Administração Direta do governo federal brasileiro. Além disso, busca levantar as razões pelas quais a consolidação destas carreiras não estaria ocorrendo no sentido de formar uma burocracia tipicamente weberiana. Para proceder esta análise, recorreu-se à obra de Bernard Silberman intitulada Cages of Reason: the Rise of the Rational State in France, Japan, the United States and Great Britain. Silberman parte do pressuposto de que há dois tipos de burocracia: a profissional, presente nos Estados Unidos e na Grã-Bretanha, e a organizacional, constituída em países como a França e o Japão. Sua teoria sugere que a variável que teria propiciado o surgimento destes modelos burocráticos é o tipo de incerteza enfrentado pelos governantes para assegurar sua permanência no poder. O primeiro capítulo é dedicado à apresentação e crítica desta perspectiva teórica. O segundo capítulo procura adaptar a teoria ao caso brasileiro, a fim de subsidiar o estudo de caso sobre o processo de formação de uma burocracia meritocrática na Administração Direta do governo federal. A hipótese considerada é a de que o presidencialismo de coalizão tem sido determinante para o aumento da incerteza no Brasil a partir de 1994, o que estaria levando os políticos a reavaliar a estratégia de montagem do governo por meio da patronagem. Para verificar sua validade, tentou-se relacionar o contexto político com as medidas administrativas relativas às carreiras de estado e ao provimento dos cargos em comissão desde a década de 1930 até o presente. Concluiu-se que a hipótese levantada não é inteiramente válida para explicar o processo de fortalecimento das carreiras de estado. Contudo, há indícios de sua coerência para justificar as medidas adotadas pelo governo do Presidente Lula para disciplinar as nomeações dos cargos comissionados. Em relação ao formato das carreiras burocráticas, constatou-se, a partir da teoria de Silberman, que a presença no Brasil do que ele denominou de baixa incerteza, resultou na formação de uma burocracia mais assemelhada ao modelo profissional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar a política de juros do Banco Central durante o período entre os anos de 1995 a 2002, procurando verificar se houve mudança nesta política, isto é se houve mudanças de regimes na condução da política monetária, principalmente com a mudança do regime cambial. Para tanto o modelo estimado mais adequado para a análise foi um switching regression model que determina endogenamente se há mudança de regimes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nefropatia diabética (ND) é uma importante complicação crônica do diabetes mellitus (DM), sendo responsável por uma proporção importante dos novos casos de diálise. Os principais fatores de risco são a hiperglicemia, hipertensão arterial sistêmica (HAS), a dislipidemia e o tabagismo. Está claro que a ND apresenta também um componente genético, entretanto os genes envolvidos na sua etiologia ainda não estão totalmente identificados. O sistema renina-angiotensina (SRA) tem um importante papel na gênese e progressão da ND. Recentemente, acumulam-se evidências que endotelinas também podem participar na patogênese da ND. As endotelinas são peptídeos com potente ação vasoconstritora e atuam modulando o tono vasomotor, proliferação celular e produção hormonal. Estes peptídeos agem através de dois receptores (ET-A e ET-B) que são expressos nas células endoteliais e no músculo liso vascular. Ativação destes receptores nas células renais levam a uma complexa cascata de alterações resultando em proliferação e hipertrofia das células mesangiais, vasoconstrição das arteríolas aferentes e eferentes e acúmulo da matriz extra-celular. Essas alterações hemodinâmicas renais estão associadas com o aparecimento e progressão da doença renal no DM. Níveis plasmáticos elevados de endotelina-1 (ET-1) têm sido relatados em pacientes com DM, tanto com e sem microalbuminúria, sugerindo que a disfunção endotelial relacionada ao DM poderia aumentar a produção vascular de ET-1, que levaria ao dano glomerular. O uso de drogas antagonistas do receptor da ET-1 em situações de DM experimental tem mostrado propriedades nefroprotetoras, reforçando a importância deste sistema na ND.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A nefropatia diabética (ND) é uma complicação freqüente do diabete melito (DM) e acarreta grande morbi-mortalidade. A prevenção desta complicação será mais efetiva se os indivíduos de maior risco, que se beneficiariam de tratamento intensivo dos fatores risco modificáveis, fossem precocemente identificados. A microalbuminúria, definida por valores de excreção urinária de albumina (EUA) de 20-199 g/min, ainda é o melhor marcador da instalação e progressão da ND, além de ser um fator de risco para o desenvolvimento de doenças macrovasculares. Estas associações podem ser explicadas pela teoria de que a microalbuminúria representa, na verdade, dano endotelial generalizado. A albuminúria nos limites superiores da normalidade também está associada ao desenvolvimento futuro de micro- e macroalbuminúria. Além disso, existe uma associação entre albuminúria normal-alta, doença cardiovascular e mortalidade geral em indivíduos com e sem DM. A EUA tem correlação direta e contínua com o desenvolvimento de doença renal e cardiovascular, sem um ponto determinado a partir do qual ocorreria um aumento mais importante do risco. No entanto, na prática clínica se faz necessário o estabelecimento de um valor crítico para guiar o tratamento dos pacientes. Algumas evidências apontam para valores de EUA em torno de 10 g/min como um novo ponto de corte para o diagnóstico de microalbuminúria.Concluindo, a associação entre a EUA e os desfechos renais e cardiovasculares parece ser contínua e já está presente até mesmo com níveis de EUA considerados normais. A adoção do valor de 10 g/min como de risco poderá identificar os pacientes que deveriam receber tratamento mais precoce e agressivo dos fatores de risco modificáveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, estudamos a posição de átomos de F na estrutura cristalina do Si. As amostras foram pré-amorfizadas utilizando um feixe de Si de 200 keV e, após, implantadas com F. Então recristalizamos a camada amorfa através do processo de Epitaxia de Fase Sólida (EFS). Empregamos as técnicas de Espectrometria de Retroespalhamento Rutherford, na condição de canalização iônica, e de Análise por Reação Nuclear (NRA), através da reação ressonante ( ) O p F 16 19 , αγ , à 5 , 340 keV, para determinar a posição dos átomos de F e, depois, reproduzimos os resultados experimentais através do programa de simulação computacional chamado Simulação Adaptada de Canalização de Íons Rápidos em Sólidos (CASSIS - Channeling Adapted Simulation of Swift Ions in Solids). Os resultados obtidos apontam para duas possíveis combinações lineares distintas de sítios. Uma delas concorda com a proposta teórica de Hirose et al. (Materials Science & Engineering B – 91-92, 148, 2002), para uma condição experimental similar. Nessa configuração, os átomos de F estão na forma de complexos entre átomos de flúor e vacâncias (F-V). A outra combinação ainda não foi proposta na literatura e também pode ser pensada como um tipo de complexo F-V.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desse trabalho é avaliar o comportamento da variável preço para os medicamentos líderes de mercado no Brasil após a entrada de concorrentes similares e posteriormente a instituição dos medicamentos genéricos no Brasil. Segundo estudos realizados no mercado norte-americano, os medicamentos originais reagiriam à entrada de concorrentes genéricos de forma positiva no que se refere à variação de seu preço de comercialização. Dessa forma, os medicamentos originais se concentrariam nos segmentos de mercado mais inelásticos e com menor sensibilidade a possíveis alterações no seu preço de venda. Tal comportamento contradiz a intuição econômica comum de que a entrada de novos concorrentes em um mercado levaria a redução de preços por parte da empresa dominante. Os resultados desse trabalho, sobre o mercado farmacêutico brasileiro, indicam que as marcas líderes respondem positivamente em relação a aumento de seus preços quando da perda de participação de mercado para marcas seguidoras como genéricos e similares. Por outro lado, quando da presença de um aumento de competição entre as marcas seguidoras, se verifica uma diminuição de preços dessas marcas e um aumento da dispersão relativa dos preços das marcas seguidoras em relação à marca líder.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura verificar empiricamente se, no caso brasileiro, o sinal da covariância entre surpresas de inflação e variações da taxa nominal de câmbio podem indicar de que forma a política monetária é conduzida. Trabalhos anteriores que consideraram economias desenvolvidas constataram empiricamente que más notícias para a inflação (ou seja, inflação divulgada maior que a inflação esperada) podem ser boas notícias para o câmbio (ou seja, apreciação cambial ante a notícia) se o banco central adota um regime de metas de inflação e o implementa com uma regra de Taylor. A partir de séries intradiárias do primeiro dólar futuro BM&F e a diferença entre os dados divulgados e esperados para o IPCA e o IPCA15, analisam-se as variações nominais de câmbio em uma janela de 10 minutos ao redor das divulgações de índices de inflação. O período considerado vai de agosto de 1999 até outubro de 2007. Não se encontra evidência estatística significativa de que variações nominais de câmbio reajam à surpresas inflacionárias em uma base intradiária no caso brasileiro e que, quando há evidencia, ela é fraca e tem o sentido “tradicional”, ou seja, más notícias para a inflação são más notícias para o câmbio. Diversos trabalhos afirmam que o Banco Central do Brasil implementa uma Regra de Tayor agressiva na condução da política monetária. Ponderam-se então alguns fatores específicos de uma economia emergente, como ambiente macroeconômico sujeito a maior volatilidade e curto histórico de credibilidade da autoridade monetária.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na presente dissertação foi implementado um modelo para execução de hedging de mínima variância de opções de compra européias em mercados incompletos, considerando um espaço de tempo discreto e contínuo de estados. O desempenho foi medido de forma comparativa tomando como base a popular estratégia delta-hedging em um grande número de simulações, a partir de cenários definidos com o objetivo de submeter o modelo a diversas situações. A trajetória do preço do ativo objeto foi representada por um processo de difusão com saltos, composto por duas parcelas: (i) um processo de Wiener, cuja principal característica é ser uma função contínua e diferenciável em todos os pontos, e (ii) por um processo de Poisson, responsável por inserir descontinuidades na trajetória.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação avalia os efeitos do Exame Nacional do Ensino Médio (ENEM) sobre o ensino médio brasileiro. Esta avaliação baseia-se na teoria de que exames curriculares com a qualidade de gerar conseqüências diretas sobre os alunos, como no caso do ENEM, são capazes de influenciar positivamente o aprendizado dos alunos por dois canais: por aumento de seu esforço e pela pressão que exercem sobre professores e diretores. O presente trabalho avalia especificamente o segundo canal, sobre o qual o ENEM deve atuar por meio da divulgação ao público das notas médias por escola em todo o país. Neste sentido, estima-se o efeito da divulgação das notas do ENEM sobre os seguintes resultados educacionais: proficiência em Matemática e Língua Portuguesa no Saeb, alocação de insumos escolares e comportamento dos professores. Para tanto, dois métodos são propostos: i) diferenças em diferenças, utilizando dados dos Saeb de 2005 – um ano antes do início da divulgação – e 2007 – um ano após a primeira publicação – e ii) regressão com descontinuidade, explorando o fato de haver uma regra estrita para entrada da escola na divulgação – ter ao menos 10 concluintes do ensino médio participando do ENEM. Os resultados mostram que o fato uma escola ter seu resultado médio no ENEM divulgado não parece influenciar o desempenho de seus alunos nem a quantidade de seus insumos escolares, por nenhum dos métodos propostos. O método de diferenças em diferenças aponta ainda que os professores de escolas submetidas ao tratamento dessa divulgação parecem ter maior enfoque em atividades voltadas a resolução de exercícios e fixação de regras gramaticais, reação que é interpretada por parte da literatura como adversa. Estes últimos resultados, no entanto, podem estar refletindo apenas tendências temporais preexistentes e não um efeito de tratamento legítimo. Conclui-se então que o ENEM não deve estar servindo como indutor de melhorias dos resultados educacionais via pressão dos alunos do ensino médio. Porém, é possível levantar a hipótese de que este tipo de efeito ainda pode ser captado em prazos mais longos ou para grupos de escolas diferentes das usadas na análise.