983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um método espectronodal é desenvolvido para problemas de transporte de partículas neutras de fonte fixa, multigrupo de energia em geometria cartesiana na formulação de ordenadas discretas (SN). Para geometria unidimensional o método espectronodal multigrupo denomina-se método spectral Greens function (SGF) com o esquema de inversão nodal (NBI) que converge solução numérica para problemas SN multigrupo em geometria unidimensional, que são completamente livre de erros de truncamento espacial para ordem L de anisotropia de espalhamento desde que L < N. Para geometria X; Y o método espectronodal multigrupo baseia-se em integrações transversais das equações SN no interior dos nodos de discretização espacial, separadamente nas direções coordenadas x e y. Já que os termos de fuga transversal são aproximados por constantes, o método nodal resultante denomina-se SGF-constant nodal (SGF-CN), que é aplicado a problemas SN multigrupo de fonte fixa em geometria X; Y com espalhamento isotrópico. Resultados numéricos são apresentados para ilustrar a eficiência dos códigos SGF e SGF-CN e a precisão das soluções numéricas convergidas em cálculos de malha grossa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A introdução das tecnologias duras no setor saúde transformou o processo de trabalho, e, apesar dos inestimáveis benefícios, deve ser vista com cautela pelos trabalhadores devido a problemas relativos à confiabilidade, à fidedignidade dos dados e à necessidade de manutenção preventiva e corretiva de aparelhos por especialistas. Por outro lado, há exigências impostas em termos de conhecimentos e habilidades para a sua utilização, pois há riscos de erros e iatrogenias que devem ser identificados e trabalhados pela organização com vistas à segurança no desempenho, satisfação e bem estar do trabalhador. Nesse sentido, a sua utilização acarreta o aumento do número de tarefas, a intensificação do ritmo de trabalho, devido à necessidade de controle extenuante por parte do trabalhador no intuito de manter o equilíbrio das demandas advindas da máquina e do paciente. Tais exigências repercutem na saúde do trabalhador e acarreta problemas de ordem física e psíquica. Objetivou-se neste estudo: identificar a percepção do trabalhador de enfermagem sobre a utilização da tecnologia dura em Unidade de Terapia Intensiva (UTI); descrever os fatores intervenientes em relação ao uso da tecnologia dura pelo trabalhador de enfermagem em UTI e analisar as repercussões da utilização da tecnologia dura para o processo de trabalho e a saúde do trabalhador de enfermagem em UTI. Estudo qualitativo descritivo, cujos dados foram obtidos em uma UTI de um hospital público situado no município de Niterói-RJ no período de dezembro 2011 a fevereiro 2012 com 25 trabalhadores (11 enfermeiros e 14 técnicos de enfermagem), a partir dos critérios de inclusão adotados. Trabalhou-se com a técnica de entrevista semiestruturada, mediante um roteiro contendo questões sobre a problemática do estudo. O projeto atendeu as exigências presentes na Resolução 196/96, do Ministério da Saúde (MS), tendo sido aprovado pelo Comitê de Ética em Pesquisa (CEP) sob n CAAE: 2063000025811. Na categorização dos depoimentos utilizou-se a técnica de análise do conteúdo de Bardin e os resultados discutidos a luz da Psicodinâmica do Trabalho. Identificou-se que a incorporação da tecnologia dura em UTI, na visão dos trabalhadores de enfermagem é um instrumento de trabalho por proporcionar maior segurança, rapidez na execução das tarefas, confiabilidade e controle em relação ao estado clínico do paciente e minimizar atividades repetitivas. Por outro lado há problemas relativos à manutenção preventiva e corretiva dos aparelhos que acarretam incômodo, interrupções e sobrecarga mental e física devido à necessidade de ajustes frequentes dos alarmes e parâmetros estabelecidos, troca de aparelhos e reposição de peças; fatores limitantes e que exigem a intervenção de especialistas. Diante desta situação de trabalho, as tecnologias duras utilizadas em UTI configuraram-se como fatores de risco psicossocial por acarretarem estresse ocupacional e cujos recursos internos e externos utilizados pelos trabalhadores mostraram-se insuficientes para o seu enfrentamento. Cabe a organização do trabalho, juntamente com os trabalhadores realizar ações que minimizem os fatores de riscos apontados com vistas à satisfação, a motivação e a saúde dos trabalhadores de enfermagem e demais membros da equipe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa compreender a relação que a psicologia social estabelece com a noção de verdade e de que modo este conceito foi fundamental na aquisição de seu estatuto científico. Tomando como ponto de partida a análise semântica do termo, principalmente a partir do seu paradigma grego (alétheia), a análise teórica se subdivide em três eixos principais. O primeiro deles irá abordar a tensão que se estabelece acerca das exigências do conhecimento entre o movimento sofístico e o modelo platônico. Num segundo momento, serão analisadas as torções promovidas pelas ciências modernas, transformando o método científico e racional num instrumento de classificação de todos os erros. Na parte final, o foco se desloca para as especificidades da psicologia social, buscando apontar um contraste entre as pesquisas de W. Wundt (1832-1920) e sua influência nas experiências clássicas da psicologia experimental e no empirismo radical de W. James (1842-1910). O pensamento de James será analisado dando ênfase à influência indeterminista presente nas suas propostas filosóficas e psicológicas e à análise de uma de suas principais contribuições: a teoria da verdade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Assim como na população geral, as necessidades energéticas diárias dos pacientes em tratamento crônico de hemodiálise (HD) podem ser calculadas multiplicando-se o gasto energético de repouso (GER) pelo nível de atividade física. Até o momento, não há estudos que avaliaram se as equações de predição são precisas para se estimar o GER de idosos em HD. O objetivo do presente estudo foi avaliar a concordância entre o GER obtido pela calorimetria indireta e as equações de predição de Harris&Benedict, Schofield e a proposta pelo documento da Organização Mundial de Saúde de 1985 (FAO 1985) nos pacientes idosos em HD. Tratou-se de um estudo transversal, onde foi avaliado o GER de 57 pacientes idosos não institucionalizados (> 60anos) em tratamento crônico de HD mensurado pela calorimetria indireta e comparado com as equações de predição de Harris&Benedict, Schofield e FAO 1985.A concordância entre o GER medido e as equações foi realizada pelo coeficiente de correlação intraclasse e pela análise de Bland-Altman. Neste estudo pode-se observar que o GER estimado pelas 3 equações foi significantemente maior do que o obtido pela calorimetria indireta. Um grau de reprodutibilidade moderado foi observado entre a calorimetria indireta e as equações. A superestimação foi o principal erro observado, sendo presente na metade dos pacientes. A subestimação foi vista em aproximadamente em 10 % dos pacientes. Com base nesses achados podemos concluir que as 3 equações tiveram uma performance similar ao estimar o GER. E estas podem ser utilizadas para calcular o GER de idosos em HD, na medida em que os nutricionistas reconheçam seus possíveis erros, principalmente quando as equações de predição subestimam o GER medido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo piloto para a avaliação da aplicabilidade de instrumento de pesquisa nas versões impressa e eletrônica sobre riscos e agravos à saúde do trabalhador. Objetiva avaliar comparativamente a aplicação do instrumento sobre riscos e danos no formato eletrônico e formato impresso em trabalhadores de enfermagem. O local do estudo foi o Centro de Material e Esterilização (CME) e a população os profissionais da unidade. Os participantes foram divididos através de sorteio em dois grupos de vinte e oito trabalhadores nomeados grupo impresso e grupo eletrônico. O primeiro grupo respondeu o questionário em formato impresso e o segundo o mesmo questionário no formato eletrônico através de uma home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 27 trabalhadores, sendo 20 (71,4%) do grupo impresso e 7 (36,4%) do grupo eletrônico. A aplicação do questionário revelou que no formato eletrônico não há possibilidade de item sem resposta e a análise dos dados pode ser imediata; é uma metodologia limpa e possui menor custo direto de aplicação. Entretanto houve uma taxa de resposta menor que no questionário no formato impresso. Na forma impressa, os pontos negativos foram o custo direto de aplicação mais elevado, possibilidade maior de erros, maior tempo gasto para a coleta e criação de banco de dados. Como pontos positivos tem-se a possibilidade de aplicação a trabalhadores sem experiência em informática, consequentemente apresenta maior taxa de respostas. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores observaram a existência de riscos físicos, ergonômicos, químicos, biológicos e de acidentes. As varizes, problemas osteomusculares e problemas oculares foram os mais relatados pelos profissionais como agravos à saúde relacionada ao trabalho. Concluiu-se que este grupo de trabalhadores ainda não está preparado para a realização de pesquisas no formato eletrônico e que a forma impressa ainda tem melhor aceitabilidade. A diferença de respostas nos grupos deveu-se a características pessoais dos respondentes e não a forma de coleta de dados. Ambas as metodologias identificaram fatores de riscos e agravos à saúde dos trabalhadores. Conclui-se que deve ser indicada a aplicação do questionário eletrônico em trabalhadores capacitados no uso da tecnologia computacional. Quanto à evidência da análise dos dados coletados, sugere-se a melhoria da planta física; contratação de profissionais capacitados; treinamento em equipe relacionado aos riscos e medidas de proteção a saúde do trabalhador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação, são apresentados os seguintes modelos matemáticos de transporte de nêutrons: a equação linearizada de Boltzmann e a equação da difusão de nêutrons monoenergéticos em meios não-multiplicativos. Com o objetivo de determinar o período fluxo escalar de nêutrons, é descrito um método espectronodal que gera soluções numéricas para o problema de difusão em geometria planar de fonte fixa, que são livres de erros de truncamento espacial, e que conjugado com uma técnica de reconstrução espacial intranodal gera o perfil detalhado da solução. A fim de obter o valor aproximado do fluxo angular de nêutrons em um determinado ponto do domínio e em uma determinada direção de migração, descreve-se também um método de reconstrução angular baseado na solução analítica da equação unidimensional de transporte de nêutrons monoenergéticos com espalhamento linearmente anisotrópico com aproximação sintética de difusão nos termos de fonte por espalhamento. O código computacional desenvolvido nesta dissertação foi implementado na plataforma livre Scilab, e para ilustrar a eficiência do código criado,resultados numéricos obtidos para três problemas-modelos são apresentados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo específico da presente dissertação é estimar a elasticidade-PIB do Imposto de Renda Pessoa Física (IRPF) e Imposto Renda Pessoa Jurídica (IRPJ) no Brasil entre 1986 e 2012. A pesquisa também incorpora em seus objetivos uma análise técnica a respeito da tributação e seus impactos sobre o sistema econômico, tanto a nível microeconômico e macroeconômico, além de abordar o IRPF e IRPJ em seu aspecto econômico e jurídico. No tratamento metodológico são utilizados modelos de Vetor de Correção de erros (VEC) para estimar as elasticidades-PIB do IRPF e IRPJ. Os resultados apontam uma elasticidade-PIB, tanto para IRPF quanto IRPJ, acima da unidade, na maioria dos modelos estimados, e existem períodos determinados que impactam consideravelmente sobre à arrecadação desses tributos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é fruto de pesquisas sobre as relações entre Igreja e Estado no Brasil do século XIX. O objetivo é apresentar um panorama dos debates políticos em torno da Questão Religiosa - principal evento no Segundo Reinado (1842-1889) envolvendo, o clero e a política imperial -, cujas discussões percorreram o Senado, a Câmara dos Deputados, o Conselho de Estado, o poder judiciário, e a sociedade como um todo, sobretudo nos jornais, entre 1872 e 1875. O conflito aconteceu a partir da tentativa de dois Bispos de separar o culto católico das práticas maçônicas. A Questão Religiosa revela-se no Brasil como um verdadeiro embate, entre a defesa e o prolongamento dos princípios liberais da Constituição Imperial de 1824, e, o movimento mundial da Igreja católica de reação ao liberalismo, emplacado no Syllabus um documento lançado em 1864 pelo Papa Pio IX listando os 80 erros da sociedade moderna. Nessa perspectiva a dissertação divide-se em duas partes. A primeira trata do conceito de secularização e o quadro político frente à religião católica na Europa. E a segunda lida com a Questão Religiosa no Brasil e com quatro posicionamentos diferentes, sobre as relações entre os poderes político e religioso, que foram expressos na década de 1870.