989 resultados para Dados bibliograficos legiveis por computador


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima o efeito das Interações Sociais no desempenho dos estudantes no Brasil, a partir dos dados do SAEB 2005. Os resultados apontam que Peer Effects explicam uma parte importante da proficiência observada no exame de Matemática. Além disto, encontramos evidências de que este efeito é concentrado nos alunos no topo da distribuição de habilidade, o que sugere que políticas de ability tracking podem ser ótimas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O computador atualmente está presente no dia a dia das pessoas e no trabalho. É praticamente impossível conceber a vida moderna sem a interface com computadores. Cuidados devem ser observados quando se está diante de um terminal de microcomputador, evitando uma série de doenças decorrentes de seu mau uso. O objetivo deste estudo é definir parâmetros ergonômicos para a indicação de uma mesa de trabalho informatizado para os taquígrafos do Tribunal de Justiça do Rio Grande do Sul, que dentre uma das tarefas realizadas na função de taquígrafo é a de entrada de dados. O estudo foi baseado no método de Guimarães et al (2001) para avaliação de assentos, para tanto, realizou-se um experimento comparativo de mesas de trabalho informatizado durante o trabalho. Inicialmente os taquígrafos responderam um questionário relativo à demanda das mesas de trabalho, logo após, verbalizaram sobre a percepção de alguns critérios de importantes em uma mesa de trabalho e com a mesa definida verificou-se a ordem de preferência das mesas, antes do experimento. Posteriormente um grupo de voluntários testou a mesa proposta, comparando-a a mesa existente, para tanto foram preenchidos um conjunto de questionários nos quais mediu-se a satisfação com relação aos critérios estabelecidos, a importância atribuída a cada um destes critérios e a ocorrência de desconforto/dor. Os resultados submetidos à validação estatística. A análise dos resultados demonstrou a preferência dos taquígrafos pela mesa proposta, devido ao espaço por ela oferecido, a existência de apoio para braços e regulagem na altura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aplicações recentes no setor de automação industrial utilizam barramentos de campo para prover comunicação entre dispositivos. Estas aplicações normalmente exigem que os barramentos apresentem suporte tempo real. A garantia do adequado atendimento a requisitos temporais restritos é de fundamental importância para o correto funcionamento do sistema. Este documento apresenta um sistema de validação temporal para aplicações desenvolvidas utilizando tecnologias de barramentos de campo. O sistema desenvolvido, chamado BR-Tool, permite monitoração em tempo de execução de uma rede de barramento de campo, confrontando os dados obtidos com requisitos temporais previamente definidos pelo operador. O sistema BR-Tool é composto por dois elementos: um sub-sistema de aquisição de mensagens (placa de aquisição) e um sub-sistema de validação (ferramenta computacional). A placa de aquisição foi especialmente projetada para operar com diferentes interfaces de barramentos de campo, realizando as tarefas de captura de eventos, marcação temporal e salvamento de um histórico de eventos. A ferramenta de validação, que roda no computador, realiza as tarefas de filtragem de eventos, especificação de requisitos e validação temporal, permitindo diversos modos de visualização dos resultados. A comunicação entre a placa de aquisição e a ferramenta de validação é implementada por uma interface PCI, permitindo operar com velocidades de até 12Mbps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avaliar uma empresa nos dias de hoje é algo corriqueiro e relativamente fácil de ser feito, na maioria dos casos, quando a empresa se adequa as metodologias disponíveis. Este trabalho se propõe a avaliar uma empresa que possui características impares, dificultando o uso dos métodos mais tradicionais hoje em uso. A empresa Dreamworks Animation SKG, estúdio norte-americano especializado me produções áudio visuais em computação gráfica para o cinema, possui é caracterizada por possuir em sua maioria ativos intangíveis, tanto como matéria prima quanto produto final, são historias que se convertem em filmes animados por computador. Este cenário propicia algumas peculiaridades, como por exemplo, a dificuldade de previsão dados financeiros futuros, devido às receitas da empresa estarem fortemente ligadas ao sucesso e/ou fracasso das produções lançadas. Como se trata de conteúdo muito subjetivo, como tudo que é relativo à arte. O trabalho apontou a proposta de uma solução que permite certa confiabilidade na previsão de receitas geradas pelo lançamento de uma produção. Há uma forte relação entre a receptividade do lançamento em seus dias de estréia e o alto retorno gerado pelo mesmo, o que não acontece com a relação entre o custo da produção e seu sucesso nas bilheterias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.