964 resultados para Estudo de erros
Resumo:
O objetivo deste estudo é comparar as características de dois grupos de crianças com diagnóstico de Perturbação dos Sons da Fala (PSF), falantes de português europeu (PE) e falantes de português brasileiro (PB), considerando um conjunto de medidas fonológicas que incluem Percentagem de Consoantes Corretas (PCC), Percentagem de Consoantes Corretas Revista (PCC-R), Process Density Index (PDI), Índices Absolutos (IA) e Índices Relativos (IR) de Substituição, Omissão e Distorção, tipos de Processos Fonológicos e Percentagem de Acerto por Fonema (PAF). Método: Neste estudo participaram dezoito crianças com diagnóstico de Perturbação dos Sons da Fala (PSF), com idades compreendidas entre os cinco anos e dois meses e os sete anos e 11 meses, sendo doze do sexo masculino e seis do sexo feminino, divididas em dois grupos - falantes de português europeu (GPE) e falantes de português brasileiro (GPB) - emparelhadas por idade, sexo e valor de PCC. A partir da análise das transcrições fonéticas constantes nas folhas de registo de cada subteste de nomeação de cada sujeito - Teste Fonético-Fonológico - Avaliação de Linguagem Pré-Escolar (TFF - ALPE) (Mendes et al., 2009) para o português europeu, e provas de fonologia do Teste de Linguagem Infantil ABFW (Andrade et al., 2004) para o português brasileiro,- foram calculadas e comparadas as medidas fonológicas referidas, recorrendo a testes estatísticos (paramétricos e não paramétricos). Resultados: O emparelhamento do GPE com o GPB foi bem sucedido. Não existiram diferenças estatísticamente significativas nas medidas fonológicas em estudo entre o GPE e o GPB. No Estudo 1, não existiram diferenças nos tipos de erros à exceção do erro de omissão. No Estudo 2, no GPE verificamos um menor número de erros de distorção e um maior número de erros de omissão. Existem algumas particularidades devido à variante da língua, nomeadamente no processo fonológico de PAL e de DESV. Conclusão: Esta investigação permitiu realizar a comparação do GPE e do GPB com a utilização de dois instrumentos recolha de dados diferentes. Os resultados foram de encontro ao que é descrito por outros estudos nesta área de investigação. As poucas diferenças que se observaram podem ser explicadas pelas diferenças existentes entre os sistemas fonético-fonológicos das duas variedades linguísticas. É extremamente importante a metodologia de recolha de dados para a avaliação das PSF. A mais valia desta pesquisa é o contributo de indicadores clínicos para diagnóstico, prognóstico e intervenção terapêutica nas PSF.
Resumo:
O estudo sobre os textos escritos produzidos por alunos da 7ª classe em Angola foi estabelecido por nós com base na hipótese da existência de dificuldades de escrita. Há bastantes dúvidas entre os docentes angolanos sobre a capacidade dos alunos na elaboração de textos espontâneos. Desta forma, com o objectivo de conhecermos as capacidades de produção de textos escritos pelos alunos do ensino geral no Lubango, de elaborarmos uma tipologia de análise dos erros encontrados e de propormos estratégias de superação das dificuldades apresentadas nos textos dos alunos, fomos à Escola do I Ciclo do Ensino Secundário 27 de Março do Lubango – Huíla recolher as composições da Prova Trimestral para verificar as dificuldades de escrita apresentadas nos textos dos alunos. Partimos de 314 textos, dos quais foi extraída a amostra de 10%, correspondendo a 32 textos seleccionados através da tabela de números aleatórios. Os textos foram analisados com base na tipologia de erros de Sousa (1996). Desta forma, foram detectados erros de substituição, de omissão, de divisão/aglutinação, os quais foram muito significativos e ocorreram em 66,856% dos casos no total. Os erros de substituição maiúsculas/minúsculas, os de adição, de grafias homófonas constituem 30.856% dos casos. Confirmam-se as dificuldades apresentadas pelos alunos que devem merecer tratamento através das propostas de remediação apresentadas. As dificuldades encontradas nos textos destes alunos devem servir de base para a planificação da disciplina de Língua Portuguesa no Ensino Primário de forma a dotar o aluno de competências para a melhoria da comunicação escrita na sala de aula.
Resumo:
O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.
Resumo:
O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.
Resumo:
Este estudo preliminar descreve uma proposta de correção de erros nas produções escritas de doze (12) alunos de nível básico de língua inglesa da Universidade de Caxias do Sul (UCS). O objetivo é investigar a relevância da reescrita como estratégia de conscientização, de acordo com a Hipótese do Noticing de Schmidt (1990), buscando promover a correção gramatical e o aprimoramento da produção textual. Nesse contexto, a correção passa a ser uma aliada e não inimiga do aprendiz. O feedback corretivo fornecido através do uso de uma Tabela de Marcação, a conscientização dos erros através da reescrita e o envolvimento dos aprendizes no processo de auto-análise de seus textos revelaram-se condições facilitadoras na busca das formas corretas e na prevenção do erro. A análise dos dados demonstrou uma possível ruptura com a previsibilidade implícita na Hipótese do Noticing, que propõe que prestar atenção a determinados aspectos lingüísticos possibilita sua melhor assimilação e a não recorrência de erros. Os trabalhos evidenciaram uma melhoria progressiva na qualidade da produção escrita apesar do aumento do número de erros, possivelmente devido a uma desinibição por parte dos aprendizes em escrever e a sua opção em assumir riscos na produção de estruturas lingüísticas mais complexas, o que não inviabiliza a proposta da reescrita como estratégia de conscientização.
Resumo:
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
Resumo:
A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.
Resumo:
A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.
Resumo:
Trata-se de um estudo de caso (com um sujeito) sobre o processo de aquisição de inglês como língua estrangeira na fase pré-escolar. O objetivo é verificar como uma criança nessa faixa etária – ainda não alfabetizada – desenvolve sua produção oral nessa língua estrangeira, recebendo uma aula semanal de inglês em sua escola e treinando com os pais em casa. A produção oral do sujeito foi registrada em aula e em casa através de filmagens e gravações em áudio. Seus pais e professoras foram entrevistados. A maioria das informações – colhidas entre março de 1999 e dezembro de 2000 – foram analisadas qualitativamente. A pesquisa revela que, antes dos seis anos de idade, o ensino de língua estrangeira envolve riscos. Quando a professora é especialista na língua, mas não tem experiência com educação infantil, a criança pode desenvolver aversão à língua estrangeira por não gostar das aulas. Por outro lado, quando a professora proporciona aulas prazerosas e lúdicas, mas comete erros de pronúncia ou estrutura gramatical, a criança tende a valorizar o que é ensinado como verdade. Em ambos os casos, o futuro escolar da criança poderá ficar comprometido em relação à língua estrangeira. Portanto, é menos arriscado não ter aula de inglês na infância do que ter aula com um profissional que não seja qualificado em educação infantil e na língua estrangeira.
Resumo:
Resumo não disponível.
Estudo do desempenho em fadiga do componente tibial metálico de um modelo de prótese total de joelho
Resumo:
A substituição total de uma articulação de joelho é uma técnica amplamente usada para corrigir os danos irreversíveis na juntas originais, causadas por patologias como osteoartrite e artrite reumatóide. Com o aumento número de pacientes jovens e mais ativos, a evolução na técnica da substituição da articulação total de joelho visando desempenho de longo prazo passa a ser uma demanda crítica. Portanto, na tentativa de evitar as falhas prematuras e prolongar a vida em serviço como um todo, as modificações na bandeja tibial podem produzir erros fundamentais. O design da bandeja tibial é um importante fator, porque a sua fratura pode ocorrer em função de elementos geométricos da mesma, como raios de concordância e cantos vivos. A escolha do material e do processo de fabricação também são importantes. No tocante a rota de fabricação, pode ser visto que as ligas forjadas tem o maior limite de fadiga, se comparado com as obtidas pelo processo de fundição. Entretanto, a combinação das técnicas de desenho assistido por computador (CAD), engenharia assistida por computador (CAE) e manufatura assistida por computador (CAM) podem ser uma solução rápida e barata para alcançar melhores características das bandejas tibiais. Contudo, testes pré-clínicos devem ser executados para garantir que as bandejas tibiais não falharão prematuramente devido à fadiga. As técnicas de metalografia, microdureza e espectrometria foram empregadas neste trabalho com o objetivo de caracterizar metalurgicamente a liga de aço inoxidável atualmente empregada. A rugosidade superficial foi avaliada, assim como o número de ciclos para a iniciação das trincas. Com a utilização do método de elementos finitos, verificou-se o ponto de maior tensão e, aliado ao estudo de fractografia, foi determinado o modo de falha Os resultados indicaram que o material atualmente empregado não está em conformidade com todos os requisitos das normas vigentes, de forma que um material alternativo é sugerido. Com o objetivo de melhorar a resistência à fadiga sem apresentar problemas de ordem clínica, cinco geometrias foram propostas e os resultados da análise de tensões pelo método de elementos finitos indicaram um grande potencial de aumento da vida em fadiga.
Resumo:
Public administration has been labeled as inefficient for decades, with society seen it as a great waste of public money with a low generation of results. Its services are notably classified as sluggish, bureaucratic, with a low productivity level and a high incidence of mistakes. In periods of crisis, public administration must be the first to give good examples of balance and parsimony in its expenditures, or it could lead to the failure of the government, in general, causing damages to the population. To reach this goal, some corrective measures must be done, in different directions, by selecting the expenditures and fostering the maximum economy for the exchequer. This is only possible through the application of correct planning techniques, a still far way reality from the culture of our public organisms. One way to this change is the adoption of the Price Registration System, that in the Federal scope was already adopted by the Decree nº 3.931/01, and in the scope of the municipality of Manaus was ordered by the Decree nº 8.270/06. The present study verifies the influence of the use of the Price Registration System in purchases and contracts undertaken by the Local Secretariat of Construction, Basic Services and Housing, in the city of Manaus concerning the economy obtained when compared to other methods of tenders.
Resumo:
O presente estudo discute o movimento das privatizações recentemente ocorridas e seus impactos nas relações trabalhistas e sindicais brasileiras. A discussão está focada em estudo de caso de três organizações, pertencentes a ramos de negócio diferentes e busca entender os reflexos havidos nas relações entre os agentes SOCIaIS envolvidos: empregados, empregadores, gerentes, sindicatos e autoridades. O fenômeno estudado se situa a partir da década de noventa e trás conseqüências ao movimento trabalhista, ao emprego e às relações capital e trabalho pelo potencial de conflito que as privatizações apresentam. Para organizar o pensamento desenvolvemos uma abordagem histórica que mostra o desenvolvimento das relações trabalhistas, com as organizações aperfeiçoando os instrumentos de regulação de conflito e construindo, com os empregados, uma considerável experiência de convivência ainda que marcada por interesses imediatos conflitantes. Um pouco à frente observamos uma ruptura que é explicitada pela definição do modelo vigente, pela internacionalização da economia que é imposta como um determinismo histórico e pela necessidade de sobrevivência das empresas submetidas à globalização e competição sem fronteiras. Ainda procuramos entender o movimento de flexibilização dos direitos trabalhistas que de algum modo se constituem em obstáculo à equalização competitiva dos custos das empresas e estão a sofrer forte pressão para que possam se adequar às novas realidades econômicas e necessidades empresariais. Na narrativa dos fatos apontamos erros e acertos observados e, de forma crítica, sugerimos alternativas aos modelos políticos e gerenciais adotados.
Resumo:
O Brasil é um país grande, com poucos laboratórios dedicados ao diagnóstico de Erros Inatos do Metabolismo (EIM), e com escassos centros que se dedicam ao manejo dessas doenças. A área de doenças genético-metabólicas é ainda nova no país, e poucos profissionais da área médica estão familiarizados com essas doenças. Os EIM incluem cerca de 500 doenças causadas por distúrbios que envolvem o acúmulo de substratos tóxicos ou a falta de produtos vitais para o funcionamento adequado do organismo. Por serem patologias raras e pouco conhecidas em nosso meio, o diagnóstico correto é tardio e, na maioria das vezes, compromet a eficácia das medidas de manejo dos afetados. Para tentar melhorar essa situação, foi criado o Serviço de Informações sobre Erros Inatos do Metabolismo (SIEM) um serviço com acesso gratuito, pioneiro no Brasil e na América Latina. Implantado em outubro de 2001, em Porto Alegre, no sul do Brasil, o serviço tem o objetivo de fornecer suporte aos profissionais da área da saúde envolvidos com o diagnóstico e manejo de pacientes com suspeita de uma doença metabólica. O SIEM é dirigido por uma equipe especializada, constituída por geneticistas, nutricionistas e biólogos treinados para prestar o serviço proposto. O objetivo principal do presente estudo foi analisar as características demográficas e clínicas das consultas dirigidas a este serviço em seus primeiros dois anos e meio de funcionamento, para identificar o perfil dos profissionais que buscam esse tipo de serviço e dos casos que são objeto de consulta. Foram analisadas 376 consultas feitas nesse período. Verificamos que, na maior parte das vezes, a suspeita de uma doença metabólica esteve associada à presença da sintomatologia neurológica, a um início precoce dos sintomas e a uma tendência à presença de consangüinidade entre os pais. Nessa amostra tivemos 47 (24,4%) casos com diagnóstico de EIM, com predomínio de acidúrias orgânicas e aminoacidopatias. Acreditamos que serviços como este podem prestar apoio a profissionais da área da saúde, incluindo aqueles que estão distantes de centros de referência, podendo contribuir para o melhor diagnóstico e manejo de EIM, mudando para melhor o desfecho clínico dos pacientes em muitas situações.
Resumo:
Esta tese propõe-se a analisar os analistas de mercado de capitais de empresas brasileiras. Coletando informações do mercado e analisando o desempenho corrente das empresas, estes profissionais realizam projeções de resultados e fazem recomendações. Usando dados extraídos do sistema I/B/E/S, realiza-se uma abrangente pesquisa empírica das previsões e recomendações dos analistas, bem como de seu conteúdo informativo para o mercado brasileiro. O período de estudo foi entre janeiro 1995 a junho 2003. Inicialmente são discutidos conceitos e particularidades do modus operandi dos analistas de empresas brasileiras. A seguir, depois de uma revisão da literatura onde se documentam as principais contribuições e descobertas, procede-se a uma investigação da natureza dos erros de previsão dos analistas de empresas brasileiras. Características como a acurácia, viés e precisão das previsões dos analistas são apreciadas e contextualizadas em diferentes situações. Efetua-se um detalhamento analítico do conteúdo informativo dos diferentes tipos de revisões de previsões dos analistas e das surpresas provocadas pelo anúncio de resultados em desacordo com as expectativas. De modo geral, as revisões e as surpresas, na medida em que informarem o mercado, provocam variações de retornos. Encerra-se a tese com uma análise das recomendações dos analistas. Apura-se a distribuição percentual das recomendações, assim como os efeitos sobre os preços de recomendações de compra (buy) e de venda(sell). O desempenho das recomendações de consenso e o efeito das revisões de recomendações para cima (upgrade) e para baixo (downgrade) são exemplos de outros pontos analisados.