983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A prática do jornalismo é afetada, desde o início, pelo aumento da velocidade de produção e veiculação das informações. O fenômeno se aprofunda com a introdução da Internet em escala comercial e a implantação dos webjornais no final do século XX. Esta pesquisa observa a relação entre velocidade e precisão no webjornalismo, tomando como objeto empírico o site UOL Eleições 2002. Fazemos o mapeamento dos erros cometidos entre 02 e 07 de outubro de 2002, período de grande relevância por ser o final do primeiro turno das eleições presidenciais no Brasil. Os erros, classificados como ruídos de linguagem e imprecisão jornalística, embora variáveis na escala de gravidade, comprometem a qualidade da informação e, conseqüentemente, o eixo de sustentação da credibilidade do jornalismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo avaliar se as variáveis biomassa (BM) e respiração (RM) microbianas e as atividades de β -glucosidase, urease, amidase, fosfatase ácida e aril-sulfatase podem servir como indicadores biológicos de qualidade do solo. Foram realizados três estudos, utilizando um experimento de longa duração que avalia diferentes sistemas de culturas na recuperação do solo. No primeiro, as variáveis acima foram avaliadas durante um ano, e os resultados foram correlacionados com indicadores físicos, químicos e de produtividade dos tratamentos solo descobertoc (SD), pousio/milho, aveia/milho, pousio/milho+lablab, aveia+vica/milho+caupi, guandu/milho+guandu e campo nativo (CN), buscando demonstrar a adequação de seu uso como indicadores biológicos de qualidade, além de observar seus comportamentos quanto a variações sazonais. No segundo, foi avaliada a influência da presença de raízes e da cobertura constante e integral do solo sobre a qualidade biológica, utilizando-se as variáveis acima para comparar o solo quando sob gramínea perene, sob dois sistemas de cultura de milho (com e sem leguminosa em consórcio) ou sob CN e SD. O terceiro estudo avaliou a qualidade do solo, segundo estas variáveis, em função da adição de N em cobertura no milho, em dois sistemas de cultura de milho (com e sem leguminosa em consórcio). Foram verificadas altas correlações entre as variáveis analisadas e teores de C orgânico e N total, além de outros indicadores de qualidade física e de produtividade do solo, confirmando a adequação de seu uso como indicadores biológicos de qualidade. Porém, como seu uso individual pode induzir a erros, foi proposta sua avaliação conjunta, em forma gráfica ou de índice, o que garante resultados mais abrangentes e integrados sobre a qualidade do solo. No segundo estudo, a elevada presença de raízes no tratamento com gramínea perene não garantiu a elevação dos valores das variáveis analisadas aos níveis do solo sob CN, indicando que estes possam estar relacionados à complexidade da comunidade vegetal presente sobre o mesmo e à diversidade microbiana dela resultante. No terceiro estudo, a adição de N em cobertura no milho, consorciado ou não com leguminosa, agiu seletivamente sobre a vida microbiana e sua atividade no solo, não alterando significativamente sua qualidade em termos biológicos. As variáveis avaliadas mostraram-se adequadas para a quantificação da qualidade biológica do solo, e seus resultados sugerem que a rotação e a consorciação de culturas são práticas recomendáveis para a recuperação e a manutenção da mesma em solos cultivados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tradicionalmente, pesquisa na área de metodologia da Ciência Econômica consiste em estudar as implicações de teorias epistemológicas para Economia, sem se preocupar muito com que os economistas realmente fazem. Uma abordagem mais moderna procura lançar um olhar mais reflexivo sobre atividade dos economistas. Isto é, parte-se do que os economistas realmente fazem e, depois, empreende-se uma análise filosófica. Neste contexto, formação filosófica conhecimento teórico possuem mesma importância para produção científica em Metodologia. Adicionalmente, cumpre notar que são poucos os trabalhos que procuram analisar as contribuições mais recentes Teoria Econômica, lançando olhar da Metodologia para fronteira da ciência. Assim, novas correntes novas áreas da Economia carecem de uma avaliação epistemológica, ainda que vaga preliminar. escolha de temas já consagrados pode ser explicada pela segurança de explorar, sob um ponto de vista metodológico, um corpo de conhecimento científico coeso pouco mutável. Desse modo, análise não corre grande risco de se tornar anacrônica ou de ser parcial. Por outro lado, esquecimento da fronteira do conhecimento desvia atenção da relação entre processo de construção da teoria e a comunidade científica. risco da escolha de um tema mais de vanguarda é a superação da análise rapidamente pelo tempo, superfícialidade por falta de elementos mais sedimentados os erros de julgamento a respeito do que relevante. Apesar disso, os frutos de uma aventura no terreno movediço do saber econômico parecem mais que compensar eventuais pecados na análise metodológica dos temas considerados. Um outro ponto importante forma com que os temas vinculados tradição Neoclássica são tratados, no Brasil, pelos metodologistas da ciência econômica. Com efeito, existem trabalhos sobre Equilíbrio Geral Arrow-Debreu, todavia muito poucos procuram incorporar elementos tais como incerteza, dinâmica, formação de expectativas, os quais robustecem aproximam Modelo tradicional Arrow-Debreu da realidade. Assim, ao considerar apenas Teoria de Equilíbrio Geral Estática já consagrada, muitas críticas metodológicas perdem sua força quando observação feita um nível mais abrangente, considerando as contribuições mais modernas. presente trabalho uma contribuição Metodologia, todavia procura responder às críticas esboçadas nos parágrafos precedentes. De fato, trata-se de uma análise metodológica que toma como ponto de partida contribuições próximas fronteira do conhecimento, que estão vinculadas tradição Neoclássica, sem contudo constituir uma Teoria de Equilíbrio de Mercados. De resto, trabalho faz um pouco de História do Pensamento recente ao escolher Ronald Coase como fio condutor da exposição, além de conter algumas resenhas dos temas considerados. trabalho toma forma de três ensaios. primeiro se concentra na obra de Ronald Coase,e usa arcabouço da Indeterminação de Sênior para avaliar contribuição deste pensador para Economia. segundo consiste numa resenha seletiva das modernas contribuições Teoria da Firma, qual usada como elemento para construção de uma análise metodológica, que busca estabelecer as conexões entre trabalho pioneiro de Coase sobre natureza da firma, e as contribuições posteriores esse tema. questão saber qual influência das concepções de Ronald Coase sobre trabalhos posteriores que buscam explicar que firma. possível estabelecer uma relação de continuidade entre as idéias originais de Coase esses desdobramentos posteriores? Quais os limites dessa relação? Até que ponto as contribuições mais novas sobre teoria da firma descendem de Coase terceiro ensaio realiza uma exposição sumária de três Modelos na área da Economia das Instituições Jurídicas ("Law and Economics"), onde Coase também foi um pioneiro, em seguida, usando os modelos como exemplos estilizados, procura discutir forma como as instituições estão sendo incorporadas Teoria Econômica, suas implicações para relação entre Economia outras Ciências Sociais. guisa de conclusão, vale enfatizar convicção de que pesquisa em Metodologia da Ciência um terreno rico, desde que foco de análise fique mais abrangente procure avaliar não só os fundamentos as Teorias já consagradas como também novas áreas, novas abordagens contribuições de ponta, as quais, efetivamente movimentam Pesquisa em Economia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos primeiros papers a encontrar uma tendência clara de reversão no retorno das ações no longo prazo, De Bondt e Thaler (1985) identificaram o padrão encontrado como fruto de um comportamento irracional dos investidores que eles denominaram de “overreaction”. Seus resultados foram interpretados como evidência de que existem erros sistemáticos de avaliação no mercado de ações causada pelo excessivo pessimismo/otimismo dos agentes. Neste caso uma estratégia contrária baseada na compra dos portfólios perdedores e venda dos portfólios vencedores deveria gerar retornos extraordinários. A evidência encontrada para uma amostra de ações negociadas na Bovespa e na Soma durante o período de janeiro de 1986 a julho de 2000 corrobora esta hipótese tanto no longo prazo quanto no curto prazo, mesmo depois de se controlar para diferenças de tamanho, risco e liquidez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda pela responsabilidade corporativa nunca foi tão grande. A necessidade de aliar a governança corporativa a atividades de controle eficientes nunca foi tão clara. Essa dissertação tem como objetivo responder a questão sobre se a abordagem Top Down do Earnings at Risk pode ser considerada como compatível às demandas da Sarbanes Oxley, e adicionalmente, um método eficiente de gerenciamento de riscos para as empresas não financeiras. Baseado nos resultados que encontramos a abordagem Top Down do Earnings at Risk não atende às demandas impostas pela Sarbanes-Oxley. Embora a SOX atente para a eficácia e não para eficiência dos controles utilizados pelas empresas, decisões gerenciais baseadas neste método podem conduzir a empresa a possíveis erros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projeto de edificações é um dos processos mais importantes em empreendimentos de construção pelo seu impacto em termos de custo e qualidade do produto final. Entretanto, observam-se muitos problemas relacionados ao gerenciamento inadequado do mesmo, tais como ineficiente comunicação entre os intervenientes, indefinição de responsabilidades e ocorrência de erros em projetos. Muitos destes problemas dizem respeito à sub utilização dos sistemas CAD e tecnologias da informação. O presente trabalho tem como objetivo propor diretrizes e padrões para gestão do fluxo de informações e para produção de desenhos no processo de projeto utilizando recursos computacionais. Busca-se, assim, o aumento da eficiência do uso dos sistemas CAD e tecnologias da informação e também uma maior eficiência nas trocas de informações entre os intervenientes. Para tal, foram realizados dois estudos de caso em empresas construtoras incorporadoras de pequeno porte situadas na Região Metropolitana de Porto Alegre - RS. A partir dos estudos de caso, foram desenvolvidos os seguintes padrões: estrutura de diretórios, back up de arquivos de desenho, nomenclatura de arquivos de desenho, protocolos de envio e recebimento de arquivos ou plantas, controle de versões de plantas ou memoriais descritivos enviados à obra, nomenclatura de layers, layers para integração, diretrizes para produção de desenhos no computador e diretrizes para apresentação de plantas. Além disso, foram identificadas e discutidas novas tendências em termos de aplicação das tecnologias da informação no processo de projeto. No entanto, salienta-se que este trabalho não tem a intenção de quebrar o paradigma atual do processo de projeto, mas sim, contribuir para preparar as empresas construtoras incorporadoras e escritórios de projeto para as tendências futuras de informatização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os modelos não lineares de séries de tempo são aqui utilizados para verificar diferentes problemas de natureza macroeconômica nas variáveis brasileiras. Em relação ao comércio exterior, é estimado um mecanismo de correção de erros para a demanda de importações e os regimes caracterizados pelo modelo coincidem com os movimentos históricos. Para ajustes estruturais nas contas externas são utilizados dados anuais que caracterizam três regimes, identificados como períodos em que a economia brasileira estava sob um regime de fechamento, abertura moderada ou de abertura consistente. Já no caso da análise conjuntural, feita a partir de dados trimestrais, os períodos foram caracterizados como sendo de queda e de crescimento das importações. A metodologia de mudança de regime markoviano também é utilizada para verificar o ciclo dos negócios na produção industrial de seis estados brasileiros. Neste caso, são estimados modelos univariados e multivariados, formulados a partir de um vetor autoregressivo com mudança de regime. As estimativas mostram que existe uma diferença de comportamento na taxa de crescimento e de queda na produção entre os estados do Sul comparativamente aos três maiores do Sudeste. Vale ressaltar que este resultado significa que existe uma duração dos ciclos que também difere entre estas duas regiões Por fim, a metodologia de mudança de regime é utilizada em um modelo de fator dinâmico com o intuito de construir um indicador coincidente para a produção industrial no Rio Grande do Sul. O índice estimado assemelha-se ao calculado pela Federação das Indústrias do Estado do Rio Grande do Sul a partir de uma média ponderada de cinco variáveis pesquisadas pela instituição. Os resultados mostram que existe uma assimetria no ciclo dos negócios na indústria de transformação do estado, com uma duração maior para períodos de queda da atividade no setor.