999 resultados para Códigos de controle de erros (Teoria da informação)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesta comunicação apresentamos os três momentos epistemológicos mais pertinentes na história da Biologia no séc. XX. Começamos por enunciar o papel da Embriologia no início daquele século, com teorias vinculadas ao paradigma mecanicista-newtoniano (darwinismo) e ao aristotélico - ptolemaico (criacionismos).Este momento manifesta a passagem de um paradigma a um outro dentro da Biologia, e daí a sua importância.O segundo momento por nós escolhido situa-se inevitavelmente nos anos 60, com o surgimento do DNA. A capacidade, fornecida pela tecnologia, de visualizar o interior da célula criou a necessidade de recorrer à teoria da informação para descrição dos fenómenos observados. Tal marcará para sempre o desenvolvimento da biologia molecular, a sua instauração como teoria predominante, e quase exclusiva, da Biologia contemporânea, enquadrada no paradigma mecanicista newtoniano. O terceiro e último momento por nós salientado vincula-se a uma eventual transição dentro da Biologia, com teorias a emergirem alicerçadas no holismo epistemológico do pretenso paradigma da complexidade. Eventual transição e pretenso paradigma pois na história da ciência precisamos que passem mais uns três decénios para sabermos se as teorias biológicas que nos anos 80 surgiram conotados com o movimento da auto-organização se podem considerar como tendo constituído como novo paradigma; para tal, terá que se tornar o predominante na cultura ocidental, como nos lembra Kuhn. Algumas das teorias biológicas vinculadas a esse eventual paradigma, que caracterizamos, surgiram antes dos anos 80 mas a sua dimensão extremamente minoritária em biologia quase as eclipsaram; sobreviveram curiosamente graças às ciências sociais e humanas, sendo que actualmente possuem um estatuto de legitimidade dentro de alguma linhagem científica em Biologia. Os seus autores principais são G.Bateson, H. Maturana, F. Varela, S. Kauffman e H. Atlan

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A agilidade e eficiência de um bando de informação de um jornal são fundamentais para assegurar a atualidade e credibilidade do próprio jornal. Este artigo tem a finalidade de apresentar e descrever o funcionamento do Banco de Dados do jornal Zero Hora. Usando tecnologia avançada, seus sistemas de processamento, armazenamento, controle, recuperação e disseminação da informação permitem gerenciar as bases de dados e material informacional em texto e imagem

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJETIVO: Investigação do uso da técnica de mineração de texto como forma de avaliar a qualidade informacional de laudos eletrônicos de mamografia, tendo como parâmetro de qualidade a adesão ao léxico BI-RADS®. MATERIAIS E MÉTODOS: Foram extraídos 22.247 laudos de mamografia do banco de dados do sistema de informação em radiologia do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto, no período de janeiro de 2000 até junho de 2006. Foram realizados dois experimentos, um buscando-se verificar a utilização mais correta dos termos do léxico - experimento 1 (especificidade do método de mineração), e outro buscando-se verificar toda e qualquer tentativa de uso ou alusão ao léxico - experimento 2 (sensibilidade do método de mineração). RESULTADOS: Experimento 1: variação entre 11% e 61% de laudos contendo termos do léxico em sua conclusão, distribuída de forma aleatória ao longo do tempo, a partir do ano de 2001. Experimento 2: variação entre 44% e 100% de laudos que se referem de alguma forma ao léxico em sua conclusão. CONCLUSÃO: Os resultados indicam um bom potencial da aplicação da ferramenta de mineração de texto para a avaliação da qualidade das informações contidas em laudos eletrônicos de mamografia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Na utilização de variados tipos de financiamento, a empresa necessita, primariamente, da análise do custo do capital - custo básico para remuneração dos recursos próprios e de terceiros que compõem a estrutura de capital - o qual deve ser a taxa referencial para haver retorno do investimento e geração_ de valor, emergindo, por conseguinte, a discussão acerca da repercussão do nível de endividamento, e, conseqüentemente, do custo de capital sobre o valor da empresa. Nesse contexto, existem modelos que consideram o endividamento irrelevante no valor da empresa, como: análise pelo Lucro Operacional ou de Modiglianni e Miller sem Imposto de Renda. Em outro extremo, há abordagens que o têm como função direta para o valor, como a do Lucro Líquido e de Modigliani e Miller com imposto de renda. Entre essas posições antagônicas podem ser citadas a posição Tradicional e do Custo de Dificuldades Financeiras, que admitem a influência do endividamento após determinado nível de alavancagem. A Teoria da Informação Assimétrica, por sua vez, sustenta ser a sinalização enviada com mudanças na estrutura de capital fator de influência no valor da empresa. No modelo de avaliação por Opções, argumenta-se que, dentro de determinadas hipóteses, a riqueza dos acionistas é incrementada por uma alavancagem financeira mais elevada. A avaliação em situação de incerteza para a empresa é refletida no modelo que utiliza o Capital Asset Price Model, onde argumenta-se que um aumento no endividamento eleva o beta e, conseqüentemente, o retorno esperado. Por último, há a análise baseada em fluxos de caixa onde o valor presente da empresa é adicionado ao valor presente líquido dos efeitos intrínsecos ao financiamento. O cálculo do valor da empresa também pode ser feito através do fluxo de caixa do acionista descontado pela taxa de remuneração do capital próprio ou fluxo operacional descontado pelo custo médio ponderado do capital, subtraindo o valor do endividamento. Este trabalho se propôs a analisar, durante o período 1994-1998, a relação do endividamento com o custo médio ponderado do capital e com valor de mercado de oito empresas, componentes de amostra representativa do setor siderúrgico brasileiro, e também a estimar o valor do capital próprio, através do modelo de desconto do fluxo de caixa operacional pelo custo médio ponderado do capital, verificando a aderência dessa avaliação, através de comparação com o valor de mercado observado. Pela análise dos resultados observamos, uma relação inversa entre custo médio do capital e endividamento. No que se refere à avaliação da empresa, o modelo apresentado de desconto pelo custo médio ponderado do capital, revelou-se de modo geral, satisfatório, com o valor estimado explicando 68% do valor de mercado, na análise da regressão; sendo que as maiores distorções foram verificadas nas empresas que tiveram grau de alavancagem elevado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo propõe, a partir das informações levantadas sobre as principais intoxicações e envenenamentos no país e, em particular, da análise do Sistema Nacional de Informações Tóxico Farmacológicas - como uma fonte de dados de morbidade - a adoção pelos Sistemas de Informações de um enfoque conceitual ampliado do objeto "Intoxicações e Envenenamentos", que englobe as questões Iigadas a contaminações ambiental nas suas diferentes formas, o consumo voluntário de tóxicos, compreendendo tabagismo, alcoolismo e drogas ilícitas, em seu campo de abrangência. Mostra a importância que vem ganhando, na atualidade, o conjunto destes eventos pelos impactos que acarretam sobre o meio ambiente, a saúde humana e aos demais seres vivos, em nível nacional e internacional. Destaca o papel relevante da informação como ferramenta essencial para subsidiar a formulação de políticas, para o gerenciamento dos serviços de saúde e para a administração cotidiana das atividades de atenção à saúde. Como conclusão sugere, para a superação das atuais limitações dos Sistemas de Informações Tóxico-Farmacológicas existentes, a adoção de uma visão compreensiva e integradora das diversas areas do conhecimento e especialidades que oriente a constituição de Sistemas de Informações diversificados e interativos e estruturados de acordo com a concepção sistêmica da teoria da informação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A análise cefalométrica é utilizada pelos cirurgiões-dentistas como auxiliar no diagnóstico, planejamento e acompanhamento do tratamento de seus pacientes ortodônticos, cirúrgicos e ortopédicos. No entanto, não é uma ferramenta tão precisa, pois erros significantes estão presentes nas medidas obtidas pelo mesmo ou diferentes examinadores. Assim, faz-se necessário um maior controle dos erros implicados na identificação dos pontos cefalométricos. O objetivo deste estudo foi avaliar a reprodutibilidade de medidas cefalométricas obtidas de cefalogramas realizados por três especialistas em radiologia e compará-la aos resultados obtidos por três clínicas de radiologia odontológica. Para tanto, os examinadores realizaram cefalogramas de 39 telerradiografias pertencentes à amostra de Silveira, 2003. Através do teste ANOVA, verificou-se reprodutibilidade para 17 dos 32 valores dos fatores cefalométricos analisados, o que corresponde a uma concordância em 53,1% dos fatores, enquanto as clínicas de radiologia concordaram em apenas 12,5% destes. A partir dos resultados encontrados, concluiu-se que os três especialistas em radiologia apresentaram maior reprodutibilidade nos traçados cefalométricos do que as clínicas de radiologia estudadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo investigar se a adoção de documentos eletrônicos, uma realidade cuja obrigatoriedade é crescente no Brasil, é acompanhada por uma redução nos custos de conformidade das empresas. O autor buscou o referencial teórico em várias áreas do conhecimento: no Direito Tributário e no Direito Civil, na Matemática Aplicada, na Tecnologia da Informação e, por fim, na Contabilidade. Do Direito Civil vieram os conceitos de documento, que juntamente com conceitos de Matemática e de Teoria da Informação permitem construir a noção de Documento Eletrônico. Do Direito Tributário vieram as noções relativas aos tributos no ordenamento brasileiro, e as suas obrigações associadas (principal e acessórias). Da Contabilidade buscaram-se as definições de custos de conformidade e de transação, de forma que se pudesse avaliar quanto custa para uma empresa ser conforme com as obrigações tributárias acessórias brasileiras, especialmente no que tange ao uso de documentos fiscais eletrônicos. O estudo foi circunscrito na Nota Fiscal Eletrônica, que no Brasil deve ser utilizada em operações de circulação de mercadorias em substituição à Nota Fiscal Modelo 1 ou 1-A, documento tradicional que existe há décadas no Brasil. Buscaram-se informações quantitativas com empresas brasileiras, e a conclusão final é que existem evidências que justificam a afirmação de que o uso de documentos eletrônicos é mais barato que o uso de documentos em papel, mediante a comparação entre os custos de transação associados com a Nota Fiscal Modelo 1 ou 1-A e com a Nota Fiscal Eletrônica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho investiga basicamente a validade do Teste Illinois de Habilidades Psicolinguísticas -ITPA -instrumento de avaliação do desenvolvimento da linguagem infantil. Seus autores, S. Kirk e J.J. McCarthy (1961), utilizam o referencial teórico proposto por C. Osgood (1957), a ele incorporando o modelo derivado da Teoria da Informação, o que permite que, na prática clínica, o ITPA possa ser incluído no processo psicodiagnóstico como instrumento de avaliação dos problemas da comunicação em crianças entre três e dez anos. Os objetivos que conduzem e orientam o trabalho apresentado podem ser definidos em três níveis: 1) O que trata dos constructos e suas interrelaç6es -análise crítica da validade teóricado ITPA; 2) O que avalia sua condição de instrumento diagnóstico do desempenho escolar -sensibilidade discriminante do rendimento acadêmico; 3) O que trata da eficácia da prática psicopedagógica proposta pelo mesmo instrumento. O estudo sobre a validade teórica foi realizado com 931 crianças entre três e dez anos de idade, em processo de escolarização, frequentando creches, jardins de infância ou classes regulares da Rede de Ensino do Primeiro Grau no Município do Rio de Janeiro. Utilizou-se a técnica da Análise Fatorial, complementada por uma abordagem lógica que comprovaram algumas das dimensões propostas pelo referencial teórico de Kirk e McCarthy. Para a validade diagnóstica foram avaliadas 71 crianças com dificuldades no desempenho acadêmico, expressas através de conceitos de insuficiência ou deficiência de rendimento e seus resultados foram comparados com os de um subgrupo, aleatoriamente constituído de crianças que participaram do estudo anterior. Utilizou-se a técnica da Análise Discriminante chegando-se à seguinte conclusão: embora a validade de constructo do IIPA não tenha sido completamente confirmada num nível diagnóstico os resultados permitem identificar, com baixa margem de erro, as crianças que pertencem a um ou outro dos grupos de contraste. Quanto ao terceiro nível, foi feita ampla-revelação bibliográfica sobre investigações efetuadas com este instrumento no Brasil e no Exterior. Visou-se avaliar a eficácia da prática psicopedagógica utilizada quando desenvolvida à luz dos recursos de intervenção que o IIPA propõe. Concluiu-se que as pesquisas, até o presente momento efetuadas, não são suficientes para formar um juízo mais seguro da praxis educativa destinada à reabilitação das crianças com problemas da comunicação - o que constitui impedimento a seu desempenho acadêmico - em função das controvérsias que tais pesquisas apresentam.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Cue Utilization Theory establishes that all products are made of multiples cues that may be seen as surrogates for the intangible attributes that make up any given product. However, the results of many years of research have yet yielded little consensus as to the impact generated by the use of such cues. This research aims to contribute to the discussion about the importance of intrinsic cues by investigating the effects that the use of product cues that confirm the product claim may have on Claim Credibility (measured through Ad Credibility), and also on consumers’ Purchase Intention and Perceived Risk toward the product. An experiment was designed to test such effects and the results suggest the effects of the use of Claim Confirming Product Cues depend on consumer’s level of awareness about such cue, and that when consumers are aware of it, Ad Credibility and Purchase Intention increase, as Perceived Risk decreases. Such results may have implications to academicians and practitioners, as well as may provide insights for future research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

When disagreement in economic models occurs due to different interpretations of public signals, the level of ``marketwide disagreement'' not necessarily decreases upon the arrival of a public signal. We propose an empirical assessment of this phenomenon. By using a measure of attention based on Google Trends, we show that an increase in the attention allocated by the market to a company is associated to a significant increase in disagreement about it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Disagreement between economists is a well know fact. However, it took a long time for this concept to be incorporated in economic models. In this survey, we review the consequences and insights provided by recent models. Since disagreement between market agents can be generated through different hypotheses, the main differences between them are highlighted. Finally, this work concludes with a short review of nowcasting using google trends, emphasizing advances connecting both literatures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper investigates the expectations formation process of economic agents about infl ation rate. Using the Market Expectations System of Central Bank of Brazil, we perceive that agents do not update their forecasts every period and that even agents who update disagree in their predictions. We then focus on the two most popular types of inattention models that have been discussed in the recent literature: sticky-information and noisy-information models. Estimating a hybrid model we fi nd that, although formally fi tting the Brazilian data, it happens at the cost of a much higher degree of information rigidity than observed.