197 resultados para Analise de erros (Matematica)
Resumo:
Os pacientes idosos em hemodiálise (HD) são altamente suscetíveis ao desenvolvimento de sarcopenia, devido ao processo natural de envelhecimento e ao catabolismo induzido pelo procedimento de HD. O objetivo deste estudo foi primeiro, avaliar a prevalência de sarcopenia, dinapenia e atrofia muscular em um grupo de pacientes idosos em HD; o segundo, avaliar se os critérios aplicados para o diagnóstico de sarcopenia, propostos por sociedades internacionais, são capazes de distinguir os pacientes com pior condição clínica, estado nutricional e qualidade de vida. Este estudo multicêntrico e transversal incluiu 94 pacientes idosos em HD (> 60 anos) de cinco centros de diálise. Todos os participantes foram submetidos à avaliação antropométrica, de composição corporal, força de preensão manual (FPM), laboratorial e avaliação da condição nutricional através da avaliação subjetiva global de 7 pontos (AGS-7p). Adicionalmente, os participantes responderam um questionário de qualidade de vida. Para o diagnóstico de sarcopenia, foram adotados os critérios propostos por sociedades internacionais, que englobam os parâmetros indicativos de baixa massa muscular e baixa função muscular. Para a massa muscular adotou-se o índice de massa magra (IMM) < percentil 20 para o gênero e faixa etária de uma população de referência, avaliado a partir da massa magra obtida pelo somatório de dobras cutâneas. Para o critério de baixa função muscular, adotou-se a FPM < percentil 10 para o gênero, faixa etária e o braço utilizado de uma população de referência. Os pacientes foram classificados como Sarcopênicos (baixo IMM associado à baixa FPM); Dinapênicos (baixa FPM) e Atrofia muscular (baixo IMM). A sarcopenia estava presente em 13.8% dos pacientes, enquanto a dinapenia foi observada em 37.2% e a atrofia muscular em 35.1%. A sarcopenia foi capaz de distinguir os pacientes que possuíam maior comprometimento do estado nutricional e da composição corporal. O critério de função muscular (isoladamente ou em combinação com a massa muscular) também identificou os pacientes com pior qualidade de vida. Em conclusão, a prevalência de sarcopenia foi observada em 13,8% do grupo. Entretanto, ao usar apenas critérios que indicam redução da força ou massa muscular, esta prevalência aumentou para 30%. A condição de sarcopenia distinguiu pacientes com pior estado nutricional e qualidade de vida.
Resumo:
O perfeito entendimento de deslizamentos de terra tem sido objeto de grande interesse na engenharia geotécnica há muitos anos. Encostas naturais representam um desafio constante para os engenheiros, mais do que os taludes artificiais. Não é incomum que os escorregamentos causam perdas de vidas humanas e também danos materiais. As informações obtidas a partir de retro-análise de casos históricos, têm servido como uma ferramenta valiosa para a compreensão da estabilidade de taludes. Vale a pena notar que o primeiro método de cálculo de estabilidade de taludes, usando divisão de fatia, foi desenvolvido após um acidente na Noruega. Métodos de estabilidade por Equilíbrio Limite, desenvolvidos no século passado são atualmente utilizados na prática da engenharia. Apesar de suas deficiências, eles provaram ser confiáveis na determinação do Fator de Segurança. A geometria 2D e a abordagem completa da condição saturada são provavelmente as questões mais relevantes dos métodos atuais. A condição do solo não saturado está geralmente presente em taludes naturais e os métodos ignoram a influência da sucção do solo sobre a estabilidade do talude. O desenvolvimento de computadores no meio do século passado, tornaram os cálculos Equilíbrio Limite fáceis de serem executados. Por outro lado, eles não podem explicar a natureza do problema ou prever o comportamento do solo antes da ruptura. A década de 1960 marcou o início do desenvolvimento de programas de computador baseados em métodos numéricos que, entre outros, destaca-se, em geotecnia, a aplicação dos métodos de Elementos Finitos (FEM). Este método é ideal para muitos fins, uma vez que permite a simulação da sequência de construção e também a incorporação de diferentes modelos constitutivos. Este trabalho mostra a influência da sucção sobre a estabilidade de encostas naturais. Uma retroanálise de um escorregamento no Morro dos Cabritos, no Rio de Janeiro, foi feita através de um programa de análise de tensão (Plaxis 2D). Os resultados foram comparados com o FS obtido por programa de Equilíbrio Limite (Slide v5). O efeito de sucção do solo foi incorporada nas análises, através de sua influência sobre os parâmetros de resistência do solo e por diferentes possibilidades de infiltração de água na encosta. Este caso histórico foi estudado anteriormente por Gerscovich (1994), que na época, fez analise de fluxo e estabilidade utilizando um abordagem de Equilíbrio Limite 3D. Os resultados mostraram boa concordância entre a análise de Elementos Finitos e a simulação de Equilíbrio Limite, sem a presença de nível de água. Os resultados confirmaram que foi necessário haver pressões positivas para explicar a ruptura do talude.
Resumo:
INTRODUÇÃO: A leishmaniose visceral (LV) é uma doença negligenciada de grande importância no cenário brasileiro, particularmente devido à sua gravidade, sua expansão geográfica e a associação com condições de pobreza. Nesta perspectiva, as condições nutricionais emergem como elementos a serem considerados na compreensão de sua situação epidemiológica, sejam como potenciais fatores de risco para o estabelecimento da doença após infecção ou como fatores associados ao prognóstico. OBJETIVO: Avaliar a associação entre estado nutricional e infecção por Leishmania infantum em moradores de áreas endêmicas para LV no município de Teresina, Piauí. MÉTODOS: Trata-se de um estudo seccional realizado em bairros de alta endemicidade para a doença, envolvendo 198 indivíduos com idade entre 2 e 65 anos. Peso e estatura foram aferidos no domicílio por profissionais treinados. Para a avaliação de adultos foi utilizado o índice de massa corporal (IMC). Para crianças e adolescentes foram avaliados os índices antropométricos (peso / idade, estatura / idade, peso / estatura e IMC / idade). A infecção por L. infantum foi avaliada a partir da intradermorreação de Montenegro (IDRM). Para a análise foi utilizada regressão logística multivariada, estimando-se razões de chances (OR) como medidas de associação e seus respectivos intervalos de confiança (95%). RESULTADOS: A prevalência de infecção assintomática foi de 32,6%. A prevalência de excesso de peso foi de 52% entre adultos (IMC ? 25 kg/m) e de 23,9% entre crianças e jovens (escore-z de IMC / idade > 1). Indivíduos com sobrepeso, tanto adultos como aqueles de até 19 anos, apresentaram chance de infecção cerca de 70% maior quando comparados aos eutróficos (p>0,05 para ambos). CONCLUSÃO: Ainda que não estatisticamente significante, a associação entre infecção assintomática por L. infantum e sobrepeso sugere que estes indivíduos possam estar sob maior risco de infecção por apresentarem déficits de micronutrientes relevantes para a resposta imune específica. Para investigar esta hipótese, são necessários estudos longitudinais que investiguem o papel do consumo alimentar e do perfil de micronutrientes desta população no risco de infecção por L. infantum.
Resumo:
Diversos pesquisadores têm estudado o comportamento e o emprego de aduelas de concreto, que constituem as vigas segmentadas em sistemas estruturais, de maneira especial pontes e viadutos. Por esta razão, inúmeros trabalhos têm sido publicados nos últimos anos respaldados por testes experimentais e análises numéricas. O comportamento destas vigas contrasta com as clássicas vigas monolíticas em diversos aspectos, pois, a estrutura é composta de partes de elementos de concreto pré-moldado que, após serem posicionados no local definitivo, são protendidos. A protensão pode ser aderente ou não aderente. A principal vantagem deste sistema de construção é a rapidez e o alto controle de qualidade, por isso é largamente utilizado, havendo uma demanda de estudo de previsão do seu real comportamento No presente trabalho apresenta-se uma modelagem numérica via elementos finitos, para simular o comportamento de vigas compostas por aduelas justapostas sem material ligante entre as juntas. A protensão aplicada é aderente e a análise considera a não linearidade da região da junta. Assim sendo, o objetivo desta investigação é dar uma contribuição ao estudo do comportamento estrutural estático de vigas segmentadas, atentando para o comportamento das juntas, utilizando um programa comercial. Para o modelo são empregadas técnicas usuais de discretização, via método dos elementos finitos (MEF), por meio do programa de elementos finitos SAP2000[93]. O modelo proposto é constituído de elementos de placa próprios para concreto para representar a viga, a protensão é introduzida por meio de barras bidimensionais que transferem as tensões ao longo de seu comprimento e as juntas são implementadas utilizando elementos de contato. A analise é bidimensional e considera os efeitos das perdas de protensão. Este trabalho de pesquisa objetiva também o estudo de elementos de contato especialmente as características de deformação para esta ferramenta computacional. A definição dos parâmetros para o modelo foi feita com base em dados experimentais disponíveis na literatura. O modelo numérico foi calibrado e confrontado com resultados experimentais obtidos em ensaios de laboratório.
Resumo:
Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.
Resumo:
Estudo piloto para a avaliação da aplicabilidade de instrumento de pesquisa nas versões impressa e eletrônica sobre riscos e agravos à saúde do trabalhador. Objetiva avaliar comparativamente a aplicação do instrumento sobre riscos e danos no formato eletrônico e formato impresso em trabalhadores de enfermagem. O local do estudo foi o Centro de Material e Esterilização (CME) e a população os profissionais da unidade. Os participantes foram divididos através de sorteio em dois grupos de vinte e oito trabalhadores nomeados grupo impresso e grupo eletrônico. O primeiro grupo respondeu o questionário em formato impresso e o segundo o mesmo questionário no formato eletrônico através de uma home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 27 trabalhadores, sendo 20 (71,4%) do grupo impresso e 7 (36,4%) do grupo eletrônico. A aplicação do questionário revelou que no formato eletrônico não há possibilidade de item sem resposta e a análise dos dados pode ser imediata; é uma metodologia limpa e possui menor custo direto de aplicação. Entretanto houve uma taxa de resposta menor que no questionário no formato impresso. Na forma impressa, os pontos negativos foram o custo direto de aplicação mais elevado, possibilidade maior de erros, maior tempo gasto para a coleta e criação de banco de dados. Como pontos positivos tem-se a possibilidade de aplicação a trabalhadores sem experiência em informática, consequentemente apresenta maior taxa de respostas. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores observaram a existência de riscos físicos, ergonômicos, químicos, biológicos e de acidentes. As varizes, problemas osteomusculares e problemas oculares foram os mais relatados pelos profissionais como agravos à saúde relacionada ao trabalho. Concluiu-se que este grupo de trabalhadores ainda não está preparado para a realização de pesquisas no formato eletrônico e que a forma impressa ainda tem melhor aceitabilidade. A diferença de respostas nos grupos deveu-se a características pessoais dos respondentes e não a forma de coleta de dados. Ambas as metodologias identificaram fatores de riscos e agravos à saúde dos trabalhadores. Conclui-se que deve ser indicada a aplicação do questionário eletrônico em trabalhadores capacitados no uso da tecnologia computacional. Quanto à evidência da análise dos dados coletados, sugere-se a melhoria da planta física; contratação de profissionais capacitados; treinamento em equipe relacionado aos riscos e medidas de proteção a saúde do trabalhador.
Resumo:
Nesta dissertação, são apresentados os seguintes modelos matemáticos de transporte de nêutrons: a equação linearizada de Boltzmann e a equação da difusão de nêutrons monoenergéticos em meios não-multiplicativos. Com o objetivo de determinar o período fluxo escalar de nêutrons, é descrito um método espectronodal que gera soluções numéricas para o problema de difusão em geometria planar de fonte fixa, que são livres de erros de truncamento espacial, e que conjugado com uma técnica de reconstrução espacial intranodal gera o perfil detalhado da solução. A fim de obter o valor aproximado do fluxo angular de nêutrons em um determinado ponto do domínio e em uma determinada direção de migração, descreve-se também um método de reconstrução angular baseado na solução analítica da equação unidimensional de transporte de nêutrons monoenergéticos com espalhamento linearmente anisotrópico com aproximação sintética de difusão nos termos de fonte por espalhamento. O código computacional desenvolvido nesta dissertação foi implementado na plataforma livre Scilab, e para ilustrar a eficiência do código criado,resultados numéricos obtidos para três problemas-modelos são apresentados
Resumo:
A previsão de valores futuros em séries temporais produzidas por sistemas caóticos pode ser aplicada em diversas áreas do conhecimento como Astronomia, Economia, Física, Medicina, Meteorologia e Oceanografia. O método empregado consiste na reconstrução do espaço de fase seguido de um termo de melhoria da previsão. As rotinas utilizadas para a previsão e análise nesta linha de pesquisa fazem parte do pacote TimeS, que apresenta resultados encorajadores nas suas aplicações. O aperfeiçoamento das rotinas computacionais do pacote com vistas à melhoria da acurácia obtida e à redução do tempo computacional é construído a partir da investigação criteriosa da minimização empregada na obtenção do mapa global. As bases matemáticas são estabelecidas e novas rotinas computacionais são criadas. São ampliadas as possibilidades de funções de ajuste que podem incluir termos transcendentais nos componentes dos vetores reconstruídos e também possuir termos lineares ou não lineares nos parâmetros de ajuste. O ganho de eficiência atingido permite a realização de previsões e análises que respondem a perguntas importantes relacionadas ao método de previsão e ampliam a possibilidade de aplicações a séries reais.
Resumo:
O objetivo específico da presente dissertação é estimar a elasticidade-PIB do Imposto de Renda Pessoa Física (IRPF) e Imposto Renda Pessoa Jurídica (IRPJ) no Brasil entre 1986 e 2012. A pesquisa também incorpora em seus objetivos uma análise técnica a respeito da tributação e seus impactos sobre o sistema econômico, tanto a nível microeconômico e macroeconômico, além de abordar o IRPF e IRPJ em seu aspecto econômico e jurídico. No tratamento metodológico são utilizados modelos de Vetor de Correção de erros (VEC) para estimar as elasticidades-PIB do IRPF e IRPJ. Os resultados apontam uma elasticidade-PIB, tanto para IRPF quanto IRPJ, acima da unidade, na maioria dos modelos estimados, e existem períodos determinados que impactam consideravelmente sobre à arrecadação desses tributos.
Resumo:
Adissertação explora a relação entre a Contracultura, de modo génerico, e a obra de Caio Fernando Abreu, de modo mais detalhado e sistemático. Previlegiando os livros "O ovo apunhalado", "Pedras de Calcutá" e Morangos Mofados"; escritos entre fins da década de 1960 e o começo da década de 1980. O tema é abordado a partir do levantamento de questões centrais do imaginario contracultural (a saber: sexualidade, razão, engajamento politico e revolução) e da analise de como esse imaginario se apresenta no texto de Caio Fernando Abreu. Aborda-se ainda, como se processa o trânsito entre biografia e obra
Resumo:
Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.
Resumo:
A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.
Resumo:
As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.
Resumo:
Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.
Resumo:
Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.