983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa teve como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica sugerida por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado à análise tradicional de Johansen (1988).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ERRO, fenômeno sempre presente nas nossas vidas, e a LIDERANÇA, tópico mais estudado em Ciências Sociais, são o foco e os temas desta dissertação. Com uma abordagem moderadamente positivista, dois questionários (EOQ e MLQ) foram aplicados a 125 líderes em 27 organizações no Brasil. A partir dos dados coletados, buscou-se avaliar exploratoriamente as correlações entre os fatores de tratamento do erro e os fatores que medem os estilos de liderança, segundo um dos modelos da Escola Transformacional. Também foram realizadas múltiplas regressões para se verificar de que forma os fatores de liderança poderiam predizer os de tratamento do erro. A pesquisa exploratória produzida neste trabalho traz importantes relações entre os fatores que compõem os dois construtos: por exemplo, Consideração Individual é significativo ao estimular o Aprendendo com os Erros, este achado pode ser facilmente aplicado em diferentes organizações e de forma independente de grupos. O receio e o medo, causados pelo erro, crescem com uma Gestão por Exceção (passiva) e, diminuem, caso haja o compartilhamento dos objetivos e da visão de longo prazo pelo líder. A Antecipação ao Erro também apresenta diferenças entre fatores característicos da Liderança Transformacional e do estilo Laissez-Faire. Enquanto o desafio das idéias, valores e crenças pelo líder eleva a Antecipação ao Erro, uma Gestão por Exceção (passiva) reduz a mesma. Pensando sobre Erros também apresenta relações inversas para os estilos de Liderança Transacional e Laissez-Faire. O tempo como gestor e o tempo na posição também apareceram como significativos para Tensão Causada pelo Erro, Antecipação ao Erro e Pensando sobre os Erros, todos eles fatores do Questionário de Orientação para o Erro (EOQ). Os resultados encontrados são muito úteis, por terem aplicação para as organizações e para os indivíduos, e podem ser usados em processos de seleção, treinamento e na avaliação da adequação do estilo dos líderes para o ambiente da organização. O estudo conclui com argumentos que é fundamental que o ERRO faça parte da agenda das organizações, bem como que os líderes o assumam no seu dia a dia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise cefalométrica é utilizada pelos cirurgiões-dentistas como auxiliar no diagnóstico, planejamento e acompanhamento do tratamento de seus pacientes ortodônticos, cirúrgicos e ortopédicos. No entanto, não é uma ferramenta tão precisa, pois erros significantes estão presentes nas medidas obtidas pelo mesmo ou diferentes examinadores. Assim, faz-se necessário um maior controle dos erros implicados na identificação dos pontos cefalométricos. O objetivo deste estudo foi avaliar a reprodutibilidade de medidas cefalométricas obtidas de cefalogramas realizados por três especialistas em radiologia e compará-la aos resultados obtidos por três clínicas de radiologia odontológica. Para tanto, os examinadores realizaram cefalogramas de 39 telerradiografias pertencentes à amostra de Silveira, 2003. Através do teste ANOVA, verificou-se reprodutibilidade para 17 dos 32 valores dos fatores cefalométricos analisados, o que corresponde a uma concordância em 53,1% dos fatores, enquanto as clínicas de radiologia concordaram em apenas 12,5% destes. A partir dos resultados encontrados, concluiu-se que os três especialistas em radiologia apresentaram maior reprodutibilidade nos traçados cefalométricos do que as clínicas de radiologia estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho consiste em estudar modelos incluindo agentes com informação completa e incompleta sobre o ambiente econômico. Prova-se a existência de equilíbrio em que esses dois agentes coexistem e sob, algumas condições, obtêm-se que esse equilíbrio é recursivo e contínuo, ou seja, pode ser implementado por uma função contínua de transição que relaciona as variáveis de equilíbrio entre dois períodos consecutivos. Mostra-se, sob algumas hipóteses, que em equilíbrios recursivos contínuos, os agentes que cometem erros persistentes nas antecipações dos preços de equilíbrio são eliminados do mercado. Finalmente, exibimos diversos exemplos numéricos, no caso de mercados incompletos e informação completa, em que os agentes com expectativas racionais são eliminados do mercado. Usam-se métodos numéricos alternativos que possibilitam computar um equilíbrio em modelos com agentes heterogêneos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, com base na literatura teórica e empírica que trata da taxa de câmbio real, tem como objetivo investigar, por meio da estimação de um modelo de correção de erros, as principais variáveis que afetaram a taxa de câmbio real no período 1999/2010. A amostra utilizada começa com a implementação do regime de metas de inflação pelo Banco Central do Brasil (BCB) e pela adoção do câmbio flexível. O modelo de correção dos erros (VECM) foi estimado para duas taxas de câmbio reais efetivas, uma deflacionada pelo IPCA (Índice de Preço ao Consumidor Amplo) e outra pelo IPA (Índice de Preço no Atacado). Os resultados apontam que as principais variáveis que afetaram a taxa de câmbio real de equilíbrio no longo prazo foram: diferencial de juros, gastos do governo, produtividade, termos de troca, transações correntes e dívida externa total.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo de uma avaliação sobre o contexto mundial de descentralização fiscal e de democratização em que o Brasil se encontrava no final do século XX, essa tese apresenta na primeira parte uma análise empírica para países em desenvolvimento evidenciando o condicionamento do tipo de regime de governo na relação entre descentralização fiscal e tamanho de governo. Estimações por system-GMM para países em desenvolvimento mostram que existe um nível de descentralização fiscal, entre 20% e 30%, que uma vez superado, resulta em democracias com tamanhos de governos menores do que as ditaduras. Esses resultado, que chama a atenção tanto para os governos locais, como para a influência da democracia no gasto público, estimulou a continuação da pesquisa na avaliação da eficiência dos gastos municipais no Brasil e sua relação com o voto. Assim, no segundo ensaio, são calculados indicadores de evolução da eficiência e da produtividade do gasto municipal (fatores de Malmquist) entre 2004 e 2008, para as áreas da saúde e educação. Os resultados da análise por fronteira estocástica mostram que tanto na educação, como na saúde, houve avanços na fronteira de produção (TFPC, em média, de 18.7%, na educação e de 14.2% na saúde) por avanços de mudança técnica (Technical Change - TC), ao invés de elevação da eficiência (Technical Efficiency Change – TEC). No último ensaio, os indicadores de eficiência e de produtividade são usados para testar a hipótese de que o eleitor municipal premia com o voto os prefeitos que melhoraram a eficiência do gasto da educação e/ou saúde em sua gestão. Os resultados não rejeitam a hipótese para a educação, mas rejeitam para a saúde. A fim de tratar prováveis erros de medida das variáveis de produtividade, as estimações são instrumentalizadas em regressões por dois estágios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O preço de fechamento de uma ação é a referência mais importante de seu valor. Dada sua ampla utilização em diversos contratos e em problemas de assimetria de informação, corretores, traders e gestores de fundos têm incentivos a interferir em sua formação. Este estudo analisa o registro intradiário de todas as transações de ações na BMF&BOVESPA entre 03 de abril de 2006 e 31 de março 2011, e econtra no fechamento um volume atípicamente alto, acompanhado de retornos muito voláteis que são em grande parte revertidos no dia seguinte. Adicionalmente, mostra-se que a magnitude destes fenômenos estão em linha com os incentivos para a distorção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os investimentos com publicidade na Internet como uma percentagem das despesas totais de publicidade variam significativamente de um país para outro. O número é tão baixo quanto 4,7% no mercado brasileiro e tão alto como 28,5% no mercado britânico (ZenithOptimedia, 2011b). Algumas razões explicam tal disparidade. No nível macro, a participação dos gastos com publicidade na Internet está fortemente ligada a variáveis como o produto interno bruto per capita e à penetração da Internet na população. No nível micro, uma pesquisa qualitativa foi feita para identificar os fatores que contribuem e inibem o crescimento da participação da publicidade online no mercado brasileiro. A vasta lista de inibidores parece ter profundo impacto sobre como os profissionais de mercado tomar decisões de alocação de investimento em publicidade por tipo de mídia. Devido à legislação, à auto-regulamentação e às dinâmicas da indústria, grande parte da tomada de decisão é realizada por agências de publicidade. Estas parecem ter fortes incentivos econômicos para selecionar outros tipos de mídia e não a Internet ao definir planos de mídia. Ao mesmo tempo, a legislação e a auto-regulamentação fornecem desincentivos para corretores de mídia a operar no mercado local. A falta de profissionais qualificados e a padronização limitada também desempenham papéis importante para inibir uma maior participação da Internet nos gastos com publicidade no Brasil. A convergência dos resultados quantitativos com os qualitativos indica possíveis motivos pelos quais a participação da publicidade online no Brasil é tão baixa. Em primeiro lugar, a participação é explicada pelo estágio de desenvolvimento dos países. Quanto mais rico e mais desenvolvido um país, maior a proporção de gastos com publicidade online tende a ser. Em segundo lugar, o estágio econômico emergente do Brasil potencialmente dá espaço para o aumento do ineficiências do mercado, tais como programas de descontos oferecidos de forma desproporcional para os principais decisores de alocação de investimentos de mídia. Este fato aparentemente produz um feedback negativo, contribuindo para manter a baixa participação da publicidade online no total dos investimentos publicitários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A homocistinúria é um erro inato do metabolismo caracterizado, bioquimicamente, pela deficiência da enzima cistationina-β-sintase, resultando no acúmulo tecidual de homocisteína. Os pacientes afetados apresentam sintomas neurológicos e vasculares característicos, como retardo mental e arteriosclerose, cuja fisiopatologia é desconhecida. No presente trabalho, avaliamos os efeitos in vitro e in vivo da homocisteína sobre alguns parâmetros bioquímicos. Primeiramente, observamos o efeito in vitro da exposição de homogeneizados de córtex parietal de ratos ao ácido fólico, avaliando a inibição causada pela homocisteína sobre a atividade da Na+,K+-ATPase de membranas plasmáticas. Nos estudos in vivo, investigamos o efeito do pré-tratamento com ácido fólico sobre a inibição das enzimas Na+,K+-ATPase e butirilcolinesterase em córtex parietal e em soro de ratos submetidos à hiperhomocisteinemia aguda, respectivamente. Considerando que a Na+,K+-ATPase é suscetível ao ataque de radicais livres, nós determinamos o efeito da hiperhomocisteinemia aguda sobre alguns parâmetros de estresse oxidativo, como a formação de substâncias reativas ao ácido tiobarbitúrico e o conteúdo total de grupos tióis em córtex parietal de ratos. Finalmente, investigamos o efeito do ácido fólico sobre a redução da atividade da Na+,K+-ATPase em córtex parietal e sobre o aumento do índice de dano ao DNA em sangue total de ratos submetidos à hiperhomocisteinemia crônica. Nossos resultados mostraram que a homocisteína in vitro reduz, significativamente, a atividade da Na+,K+-ATPase e que o ácido fólico previne esse efeito. Estudos cinéticos com o substrato ATP revelaram que a homocisteína inibe de forma não-competitiva a enzima Na+,K+-ATPase. Os estudos in vivo confirmaram que a hiperhomocisteinemia aguda diminui as atividades das enzimas Na+,K+-ATPase e butirilcolinesterase e que o pré-tratamento com ácido fólico também previne os efeitos causados pela homocisteína. Por outro lado, a hiperhomocisteinemia aguda não alterou os parâmetros de estresse oxidativo analisados. A hiperhomocisteinemia crônica inibiu a Na+,K+-ATPase em córtex parietal e aumentou o índice de dano ao DNA em sangue total de ratos e, novamente, o tratamento com ácido fólico previne tais efeitos. Esses resultados, em conjunto, revelam os efeitos da homocisteína sobre alguns parâmetros bioquímicos e colaboram com o entendimento da fisiopatologia da homocistinúria. Além disso, os resultados sugerem que o ácido fólico, já utilizado por alguns pacientes homocistinúricos, poderá ser uma importante ferramenta terapêutica utilizada na prevenção dos efeitos neurológicos e vasculares da homocisteína.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese visa estudar um procedimento obstétrico clínico rotineiro, recomendado por várias sociedades obstétricas no mundo, inclusive a Federação Brasileira das Sociedades de Ginecologia e Obstetrícia e o Ministério da Saúde do Brasil, a medida de altura uterina. A recomendação é medir a distância entre o bordo superior da sínfise púbica e o fundo do útero (com fita inextensível, marcada em centímetros) a cada consulta pré-natal, e cotejar o valor obtido a valores de referência, determinados por uma curva padrão definida por percentis de altura uterina obtidos ao longo da gravidez. O objetivo desse procedimento é detectar anormalidades no crescimento fetal, seja crescimento excessivo ou insuficiente. O crescimento fetal excessivo está associado a aumento na morbidade perinatal, por aumento dos casos de hipóxia e de traumatismo secundários a parto distócico, além de maior risco de obesidade e diabetes tipo 2 na vida adulta. Também eleva a morbidade materna, por aumento no número de cesáreas e partos instrumentados. A importância da detecção de gestações com crescimento fetal insuficiente reside nos índices aumentados de mortalidade e de morbidade nesses recém-nascidos, no período perinatal, neonatal e pós-natal, até à vida adulta. Método de baixos custo e complexidade, não invasivo e aplicável durante a consulta pré-natal usual, a medida da altura uterina ao longo da gestação tem algumas das características desejáveis em um teste de rastreamento. Entretanto, seu desempenho na identificação das anormalidades do crescimento fetal intra-uterino tem achados bastante desiguais na literatura. Assim como grande parte das características fetais, a altura uterina é diretamente dependente do tempo de gestação e, portanto, erros na datação da gestação podem interferir no desempenho do método como indicador de anormalidade de crescimento intra-uterino Esta tese, baseada em dados do Estudo Brasileiro do Diabetes Gestacional (EBDG), avalia o impacto clínico da medição rotineira da altura uterina em gestantes que fazem acompanhamento pré-natal no Sistema Único de Saúde (SUS). No primeiro artigo, descrevemos a distribuição das medidas de altura uterina a cada semana de gestação obtidas no EBDG e a confrontamos com a distribuição descrita no estudo do Centro Latino-Americano de Perinatologia (CLAP). Determinamos também o desempenho diagnóstico das duas distribuições na identificação de recém-nascidos pequenos e grandes para a idade da gestação nas gestantes do estudo brasileiro. No segundo artigo, derivam-se e testam-se regras clínicas para a detecção pré-natal de recém-nascidos pequenos para a idade gestacional, agregando à medida da altura uterina outras características clínicas associadas a esse desfecho da gravidez. Utiliza-se a divisão randômica da população estudada em duas coortes, uma para derivação das regras clínicas de predição e a outra para a testagem e validação dessas regras.