8 resultados para consistência na indexação

em Biblioteca de Teses e Dissertações da USP


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O número de acidentes de trânsito é crescente nas últimas décadas no Brasil. Uma das principais causas de acidentes em rodovias brasileiras é o excesso de velocidade, que contribui para a possibilidade de ocorrência de acidentes. As velocidades praticadas pelos motoristas são também função dos elementos geométricos que compõem a via (raio, rampa, largura da faixa, etc). A consistência de traçado não afeta a expectativa dos motoristas e garante uma operação segura. A maioria dos motoristas consegue perceber as falhas de coordenação, mas tecnicamente, por exemplo, desconhecem a origem das mesmas. Esta pesquisa apresenta como objetivo a análise de consistência de um trecho de uma determinada rodovia do país de múltiplas faixas, com elevado índice de acidentes e alto fluxo de veículos comerciais. Os pontos com maior ocorrência de acidentes foram identificados e realizaram-se medições de velocidade para elaboração de um modelo de previsão de velocidade operacional (V85) do trecho de estudo. De posse deste modelo, procedeu-se à análise de consistência através do método dos critérios de segurança, que identificou 2 seções com problemas de consistência. Por fim, verificou-se se estas seções correspondiam aos locais de maior número de acidentes: a tangente T5 precede uma curva com alto índice de acidentes (km 511+000); o local com maior concentração de acidentes (km 514) foi classificado como RAZOÁVEL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: As precauções-padrão (PP) constituem um conjunto de medidas que têm como finalidade minimizar o risco de transmissão ocupacional de patógenos, sendo indispensável sua utilização por profissionais de saúde, sobretudo pelos enfermeiros. No entanto, a não adesão às PP constitui problemática amplamente discutida em todo o mundo. Embora haja diversos estudos brasileiros que visem avaliar a adesão às PP , ainda tem-se observado grande fragilidade no processo de construção e de validação dos instrumentos utilizados para avaliação deste construto. Objetivo: Realizar a adaptação cultural e validação da Compliance with Standard Precautions Scale (CSPS) para enfermeiros brasileiros. Metodologia: Trata-se de um estudo metodológico para a adaptação e validação da CSPS. Essa escala é composta por 20 itens com quatro opções de respostas, e destina-se a avaliar a adesão às PP. O processo de adaptação consistiu em Tradução, Consenso entre Juízes, Retrotradução e Validação Semântica. A primeira etapa foi a tradução do idioma original para o português do Brasil. Após foi realizado um comitê composto por sete juízes, a versão de consenso obtida na etapa anterior foi traduzida novamente para o idioma de origem. Foram avaliadas as propriedades psicométricas do instrumento, considerando-se as validades de face e de conteúdo, a validade de construto e a confiabilidade. A versão para o Português do Brasil da CSPS (CSPS-PB) foi aplicada em uma amostra de 300 enfermeiros que atuam na assistência a pacientes em um hospital localizado na cidade de São Paulo/SP. A confiabilidade foi avaliada por meio da consistência interna (alfa de Cronbach) e teste reteste (coeficiente de correlação intraclasse - ICC). Para a validação de construto, foi utilizada a comparação entre grupos diferentes, análise fatorial exploratória e análise fatorial confirmatória, segundo o Modelo de Equações Estruturais (SEM). Utilizou-se o software IBM® SPSS, 19.0. Para a análise fatorial confirmatória foi utilizado o módulo específico Analysis of Moment Structures (IBM® SPSS AMOS). Para a análise paralela utilizou-se o programa RanEigen Syntax. O nível de significância adotado foi ? = 0,05. Todos os aspectos éticos foram contemplados. Resultados: A tradução realizada por tradutores juramentados garantiu qualidade a esse processo. A validação de face e de conteúdo possibilitou a realização de modificações pertinentes e imperativas a fim de atender aos critérios de equivalências conceituais, idiomáticas, culturais e semânticas. Obteve-se ?=0,61 na avaliação da consistência interna, indicando confiabilidade satisfatória. O ICC indicou uma correlação de 0,87 quase perfeita para o teste reteste duas semanas após a primeira abordagem, conferindo estabilidade satisfatória. A validade de construto mostrou que a CSPS-PB foi capaz de discriminar as médias de adesão às PP entre grupos distintos referente à idade (F=5,15 p<=0,01), ao tempo de experiência clínica (F = 8,9 p<= 0,000) e a ter recebido treinamento (t = 2,48 p<=0,01). Na análise fatorial confirmatória, o modelo foi subidentificado. A análise fatorial exploratória indicou que todos os itens apresentaram cargas fatoriais adequadas (>=0,30), sendo identificados quatro fatores pela análise paralela. O total de variância explicada foi de 35,48%. Conclusão: A CSPS-PB, trata-se de um instrumento adequado, confiável e válido para medir a adesão às PP entre enfermeiros brasileiros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Grande parte das ações para promover a atividade física no lazer em populações tem apresentado tamanhos de efeito pequenos ou inexistentes, ou resultados inconsistentes. Abordar o problema a partir da perspectiva sistêmica pode ser uma das formas de superar esse descompasso. Objetivo: Desenvolver um modelo baseado em agentes para investigar a conformação e evolução de padrões populacionais de atividade física no lazer em adultos a partir da interação entre atributos psicológicos dos indivíduos e atributos dos ambientes físico construído e social em que vivem. Métodos: O processo de modelagem foi composto por três etapas: elaboração de um mapa conceitual, com base em revisão da literatura e consulta com especialistas; criação e verificação do algoritmo do modelo; e parametrização e análise de consistência e sensibilidade. Os resultados da revisão da literatura foram consolidados e relatados de acordo com os domínios da busca (aspectos psicológicos, ambiente social e ambiente físico construído). Os resultados quantitativos da consulta com os especialistas foram descritos por meio de frequências e o conteúdo das respostas questões abertas foi analisado e compilado pelo autor desta tese. O algoritmo do modelo foi criado no software NetLogo, versão 5.2.1., seguindo-se um protocolo de verificação para garantir que o algoritmo fosse implementado acuradamente. Nas análises de consistência e sensibilidade, utilizaram-se o Teste A de Vargha-Delaney, coeficiente de correlação de postos parcial, boxplots e gráficos de linha e de dispersão. Resultados: Definiram-se como elementos do mapa conceitual a intenção da pessoa, o comportamento de pessoas próximas e da comunidade, e a percepção da qualidade, do acesso e das atividades disponíveis nos locais em que atividade física no lazer pode ser praticada. O modelo representa uma comunidade hipotética contendo dois tipos de agentes: pessoas e locais em que atividade física no lazer pode ser praticada. As pessoas interagem entre si e com o ambiente construído, gerando tendências temporais populacionais de prática de atividade física no lazer e de intenção. As análises de sensibilidade indicaram que as tendências temporais de atividade física no lazer e de intenção são altamente sensíveis à influência do comportamento atual da pessoa sobre a sua intenção futura, ao tamanho do raio de percepção da pessoa e à proporção de locais em que a atividade física no lazer pode ser praticada. Considerações finais: O mapa conceitual e o modelo baseado em agentes se mostraram adequados para investigar a conformação e evolução de padrões populacionais de atividade física no lazer em adultos. A influência do comportamento da pessoa sobre a sua intenção, o tamanho do raio de percepção da pessoa e a proporção de locais em que a atividade física no lazer pode ser praticada são importantes determinantes da conformação e evolução dos padrões populacionais de atividade física no lazer entre adultos no modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As informações de mortalidade são úteis para avaliar a situação de saúde de uma população. Dados de mortalidade confiáveis produzidos por um sistema de informação de saúde nacional constituem uma ferramenta importante para o planejamento de saúde. Em muitos países, sobretudo em desenvolvimento, o sistema de informação de mortalidade continua precário. Apesar dos esforços feitos em Moçambique para melhoria das estatísticas de mortalidade, os desafios ainda prevalecem em termos de tecnologias de informação, capacidade técnica de recursos humanos e em termos de produção estatística. O SIS-ROH é um sistema eletrônico de registro de óbitos hospitalares de nível nacional, implementado em 2008 e tem uma cobertura de apenas 4% de todos os óbitos anuais do país. Apesar de ser um sistema de nível nacional, ele presentemente funciona em algumas Unidades Sanitárias (US), incluindo o Hospital Central da Beira (HCB). Dada a importância deste sistema para monitorar o padrão de mortalidade do HCB e, no geral, da cidade da Beira, este estudo avalia a qualidade do SIS-ROH do HCB. É um estudo descritivo sobre a completitude, cobertura, concordância e consistência dos dados do SIS-ROH. Foram analisados 3.009 óbitos de menores de 5 anos ocorridos entre 2010 e 2013 e regsitrados no SIS-ROH e uma amostra de 822 Certificados de Óbitos (COs) fetais e de menores de 5 anos do HCB. O SIS-ROH apresentou uma cobertura inferior a 50% calculados com os dados de mortalidade estimados pelo Inquérito Nacional de Causas de Morte (INCAM). Verificamos a utilização de dois modelos diferentes de CO (modelo antigo e atual) para o registro de óbitos referentes ao ano de 2013. Observou-se completitude excelente para a maioria das variáveis do SISROH. Das 25 variáveis analisadas dos COs observou-se a seguinte situação: 9 apresentaram completitude muito ruim, sendo elas relativas à identificação do falecido (tipo de óbito e idade), relativas ao bloco V em que dados da mãe devem ser obrigatoriamente preenchidos em caso de óbitos fetais e de menores de 1 ano (escolaridade, ocupação habitual, número de filhos tidos vivos e mortos, duração da gestação) e relativas às condições e às causas de óbito (autópsia e causa intermédiacódigo); 3 variáveis apresentaram completitude ruim relativas à identificação do falecido (NID) e relativas às condições e causas de morte (causa intermédia - descrição e causa básica - código); 9 apresentaram completitude regular relativas à identificação do falecido (data de nascimento e idade), relativas ao bloco V (idade da mãe, tipo de gravidez, tipo de parto, peso do feto/bebé ao nascer, morte do feto/bebé em relação ao parto) e relativas às condições e causa de óbito (causa direta- código, causa básica descrição); 2 apresentaram completitude bom relativas à identificação do falecido (sexo e raça/cor) e, por último, 2 apresentaram completitude excelente relativas ao local de ocorrência de óbito (data de internamento e data de óbito ou desaparecimento do cadáver). Algumas variáveis do SIS-ROH e dos COS apresentaram inconsistências. Observou-se falta de concordância para causa direta entre o SIS-ROH e os COs. Conclusão: Moçambique tem feito esforços para aprimorar as estatísticas de mortalidade, porém há lacunas na qualidade; a análise rotineria dos dados pode identificar essas lacunas e subsidiar seu aprimoramento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente estudo foi verificação da viabilidade da aplicação de gelatina de pés de frango em spread de chocolate como substituto parcial de gordura. Inicialmente apresentou-se uma revisão de literatura sobre os principais aspectos que envolvem a pesquisa. Após relatou-se a metodologia de extração e caracterização físico-química da gelatina obtida de pés de frango por meio de análises de composição centesimal, de cor, força de gel e análise de perfil de textura (TPA). Posteriormente abordou-se os efeitos da aplicação de gelatina como substituto de gordura nas propriedades físico-químicas e reológicas de spread de chocolate. Por último investigou-se a influência da concentração de gelatina e substituição de gordura na espalhabilidade, estabilidade (shelf life), custos e propriedades sensoriais dos spreads de chocolate. Para tanto, foi utilizado planejamento experimental Central Composto Rotacional e metodologia de superfície de resposta. Os resultados da extração de gelatina de subproduto de frango indicaram que as peles e tendões dos pés de frango possuem rendimento (7,83 %) e conteúdo mineral (1,92 %), apresentando alto teor proteico (84,96 %) próximo das gelatinas comerciais. Em concentração de 6,67 % a gelatina demonstrou elevada força de gel (294,78 g), comportando-se na análise de perfil de textura como um sólido. Os dados relacionados às formulações de spread de chocolate demonstraram que tanto o nível de substituição de gordura quanto a concentração de gelatina exerceram efeitos significativos (p<0,05) sobre a cor, volume, densidade e comportamento reológico dos produtos, exceto a atividade de água que foi influenciada apenas pelo primeiro fator. Sob a perspectiva reológica apenas a amostra com maior nível de substituição de gordura foi classificada como pseudoplástica. A gelatina contribuiu no aumento do teor proteico das formulações. A consistência foi significativamente (p<0,05) influenciada pelas propriedades da fase de gelatina, apresentando ampla faixa de plasticidade nas diferentes temperaturas (10, 20 e 30 °C). A consistência dos spreads aumentou em todas as temperaturas durante os 90 dias de armazenamento. Observou-se por meio da análise sensorial que os fatores em estudo provocaram alterações nos atributos sensoriais do produto suficiente para a percepção dos provadores. A formulação com 75 % de substituição de gordura seguida pelas formulações com 50 % e 0,8 % de concentração de gelatina apresentaram a maior aceitabilidade. Com o máximo de substituição de gordura chegou-se a 53 % de redução de custos. Contudo, os resultados obtidos sugerem que a aplicação de gelatina de pés de frango pode ser vantajosa, já que contribuiu com a formulação de spreads de chocolate menos calóricos e com propriedades físico-químicas e sensoriais adequadas para uma possível comercialização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Há mais de uma década o controle dos níveis de preço na economia brasileira é realizado dentro do escopo do Regime de Metas de Inflação, que utiliza modelos macroeconômicos como instrumentos para guiar as tomadas de decisões sobre política monetária. Após um período de relativo êxito (2006 - 2009), nos últimos anos apesar dos esforços das autoridades monetárias na aplicação das políticas de contenção da inflação, seguindo os mandamentos do regime de metas, esta tem se mostrado resistente, provocando um debate em torno de fatores que podem estar ocasionando tal comportamento. Na literatura internacional, alguns trabalhos têm creditado aos choques de oferta, especialmente aos desencadeados pela variação dos preços das commodities, uma participação significativa na inflação, principalmente em economias onde os produtos primários figuram como maioria na pauta exportadora. Na literatura nacional, já existem alguns trabalhos que apontam nesta mesma direção. Sendo assim, buscou-se, como objetivo principal para o presente estudo, avaliar como os choques de oferta, mais especificamente os choques originados pelos preços das commodities, têm impactado na inflação brasileira e como e com que eficiência a política monetária do país tem reagido. Para tanto, foi estimado um modelo semiestrutural contendo uma curva de Phillips, uma curva IS e duas versões da Função de Reação do Banco Central, de modo a verificar como as decisões de política monetária são tomadas. O método de estimação empregado foi o de Autorregressão Vetorial com Correção de Erro (VEC) na sua versão estrutural, que permite uma avaliação dinâmica das relações de interdependência entre as variáveis do modelo proposto. Por meio da estimação da curva de Phillips foi possível observar que os choques de oferta, tanto das commodities como da produtividade do trabalho e do câmbio, não impactam a inflação imediatamente, porém sua relevância é crescente ao longo do tempo chegando a prevalecer sobre o efeito autorregressivo (indexação) verificado. Estes choques também se apresentaram importantes para o comportamento da expectativa de inflação, produzindo assim, uma indicação de que seus impactos tendem a se espalhar pelos demais setores da economia. Através dos resultados da curva IS constatou-se a forte inter-relação entre o hiato do produto e a taxa de juros, o que indica que a política monetária, por meio da fixação de tal taxa, influencia fortemente a demanda agregada. Já por meio da estimação da primeira função de reação, foi possível perceber que há uma relação contemporânea relevante entre o desvio da expectativa de inflação em relação à meta e a taxa Selic, ao passo que a relação contemporânea do hiato do produto sobre a taxa Selic se mostrou pequena. Por fim, os resultados obtidos com a segunda função de reação, confirmaram que as autoridades monetárias reagem mais fortemente aos sinais inflacionários da economia do que às movimentações que acontecem na atividade econômica e mostraram que uma elevação nos preços das commodities, em si, não provoca diretamente um aumento na taxa básica de juros da economia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A inferência de estratégias ofensivas em esportes coletivos pode ser realizada a partir da análise dos padrões de jogo observados durante a disputa. Para que isso ocorra, há a necessidade da formalização de classes de comportamentos específicos para a modalidade de forma a discriminar perfis de jogo com base na identificação das ações mais recorrentes. No basquetebol as ações são encadeadas ao longo da posse de bola, sendo que os diferentes tipos de sequências de ações contêm características que os diferenciam e podem influenciar diretamente no desfecho do ataque. Nesse trabalho foi apresentada uma proposta contendo diferentes possibilidades de sequenciamento de dinâmicas ofensivas baseadas em um modelo teórico descrito na literatura. Os procedimentos de validação do sequenciamento de dinâmicas ofensivas e os testes de reprodutibilidade e objetividade realizados junto a técnicos de basquetebol apresentaram valores elevados demonstrando a consistência dos critérios para a elaboração de 27 tipos de concatenações dependentes (Qui-quadrado >0,78). Além disso, a estrutura desenvolvida foi concluída através da aplicação do constructo a jogos de basquetebol da liga profissional Americana (NBA) (28 partidas, dentre as quais 10 partidas do confronto entre Spurs x Thunder, 10 partidas referentes ao confronto entre Heat e Pacers e 8 partidas da disputa envolvendo Heat e Spurs, sendo analisados ambos os ataques em cada confronto, válidos pela temporada regular e na fase de playoffs). Os resultados gerados a partir da análise foram apresentados através de árvores de decisão e grafos de modo a facilitar a visualização dos comportamentos identificados. A árvore de decisão apresentou as ações na sequência exata em que ocorreram nas posses de bola, enquanto os grafos mostraram os encadeamentos mais recorrentes entre duas dinâmicas ofensivas. Assim ambas as técnicas se mostraram complementares e auxiliaram na observação e análise dos perfis de jogo de cada equipe e na realização de inferências acerca de sua estratégia ofensiva. A formalização dos tipos de sequenciamento de ações ofensivas pode auxiliar treinadores e profissionais do basquetebol no desenho de estratégias, análise dos padrões de suas equipes e adversários e estruturação de sessões de treinamento que considerem os comportamentos ofensivos de modo dinâmico e contextualizado dentro de um encadeamento lógico de ações de jogo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe dois métodos para teste de sistemas de software: o primeiro extrai ideias de teste de um modelo desenvolvido em rede de Petri hierárquica e o segundo valida os resultados após a realização dos testes utilizando um modelo em OWL-S. Estes processos aumentam a qualidade do sistema desenvolvido ao reduzir o risco de uma cobertura insuficiente ou teste incompleto de uma funcionalidade. A primeira técnica apresentada consiste de cinco etapas: i) avaliação do sistema e identificação dos módulos e entidades separáveis, ii) levantamento dos estados e transições, iii) modelagem do sistema (bottom-up), iv) validação do modelo criado avaliando o fluxo de cada funcionalidade e v) extração dos casos de teste usando uma das três coberturas de teste apresentada. O segundo método deve ser aplicado após a realização dos testes e possui cinco passos: i) primeiro constrói-se um modelo em OWL (Web Ontology Language) do sistema contendo todas as informações significativas sobre as regras de negócio da aplicação, identificando as classes, propriedades e axiomas que o regem; ii) em seguida o status inicial antes da execução é representado no modelo através da inserção das instâncias (indivíduos) presentes; iii) após a execução dos casos de testes, a situação do modelo deve ser atualizada inserindo (sem apagar as instâncias já existentes) as instâncias que representam a nova situação da aplicação; iv) próximo passo consiste em utilizar um reasoner para fazer as inferências do modelo OWL verificando se o modelo mantém a consistência, ou seja, se não existem erros na aplicação; v) finalmente, as instâncias do status inicial são comparadas com as instâncias do status final, verificando se os elementos foram alterados, criados ou apagados corretamente. O processo proposto é indicado principalmente para testes funcionais de caixa-preta, mas pode ser facilmente adaptado para testes em caixa branca. Obtiveram-se casos de testes semelhantes aos que seriam obtidos em uma análise manual mantendo a mesma cobertura do sistema. A validação provou-se condizente com os resultados esperados, bem como o modelo ontológico mostrouse bem fácil e intuitivo para aplicar manutenções.