993 resultados para Testes de hipóteses estatísticas
Resumo:
Mestrado em Auditoria
Resumo:
OBJETIVO: Comparar duas abordagens baseadas em critérios do Quality Assessment of Diagnostic Accuracy Studies (QUADAS) e do Standards for Reporting Studies of Diagnostic Accuracy (STARD) na avaliação de qualidade de estudos de validação do teste rápido OptiMal®, para diagnóstico de malária. MÉTODOS: Foi realizada busca de artigos de validação do teste rápido na base bibliográfica Medline acessada pelo PubMed, no ano de 2007. Treze artigos foram recuperados na busca. Foram combinados 12 critérios do QUADAS e três do STARD para comparação com os critérios do QUADAS isoladamente. Foi considerado que artigos de regular a boa qualidade atenderiam pelo menos 50% dos critérios do QUADAS. RESULTADOS: Dos 13 artigos recuperados, 12 cumpriram pelo menos 50% dos critérios do QUADAS, e apenas dois atenderam à combinação dos critérios. Considerando-se a combinação dos dois critérios (> 6 QUADAS e > 3STARD), dois estudos (15,4%) apresentaram boa qualidade metodológica. A seleção de artigos usando a combinação proposta variou de dois a oito artigos, dependendo do número de itens considerados como ponto de corte. CONCLUSÕES: A combinação do QUADAS com o STARD tem o potencial de conferir maior rigor nas avaliações da qualidade de artigos publicados sobre validação de testes diagnósticos em malária, por incorporar a checagem de informações relevantes não alcançáveis pelo uso do QUADAS isoladamente.
Resumo:
O artigo discute o impacto da plausibilidade (probabilidade a priori) no resultado de pesquisas científicas, conforme abordagem de Ioannidis, referente ao percentual de hipóteses nulas erroneamente classificadas como "positivas" (estatisticamente significante). A questão "qual fração de resultados positivos é verdadeiramente positiva?", equivalente ao valor preditivo positivo, depende da combinação de hipóteses falsas e positivas em determinada área. Por exemplo, sejam 90% das hipóteses falsas e α = 0,05, poder = 0,8: para cada 1.000 hipóteses, 45 (900 x 0,05) serão falso-positivos e 80 (100 x 0,8) verdadeiro-positivos. Assim, a probabilidade de que um resultado positivo seja um falso-positivo é de 45/125. Adicionalmente, o relato de estudos negativos como se fossem positivos contribuiria para a inflação desses valores. Embora essa análise seja de difícil quantificação e provavelmente superestimada, ela tem duas implicações: i) a plausibilidade deve ser considerada na análise da conformidade ética de uma pesquisa e ii) mecanismos de registro de estudo e protocolo devem ser estimulados.
Resumo:
Num mundo hipercompetitivo, a afirmação da virtuosidade tem enfrentado consideráveis resistências, sendo mesmo considerada como sinónimo de fraqueza ou ingenuidade. Todavia, e perante evidências dos potenciais perigos do exercício da liderança desprovido de valores, ética e moralidade, elevam-se as vozes em defesa de uma liderança virtuosa, capaz de aportar contributos significativamente positivos às organizações e seus colaboradores. Partindo desta premissa, esta investigação teve como objetivo analisar, com base nas perceções dos liderados, o impacto da liderança virtuosa no comprometimento organizacional, assim como o contributo deste último no desempenho individual. Sustentados numa metodologia quantitativa, inquirimos, numa primeira fase, 113 liderados provenientes de organizações localizadas no território português, com vista a apurar quais as virtudes que mais valorizavam num líder. Os dados para o teste de hipóteses foram recolhidos através da aplicação de uma bateria de testes junto de 351 liderados, também a exercer funções em organizações a operar em Portugal. Os resultados sugerem que as perceções dos liderados em torno de três dimensões de virtuosidade da liderança (liderança baseada em valores, perseverança e maturidade) contribuem para o comprometimento organizacional, sobretudo nas suas vertentes afetiva e normativa e, que este último, por sua vez, é capaz de influenciar positivamente o desempenho individual.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
OBJETIVO: Estimar a confiabilidade teste-reteste dos itens do Resource Generator scale para avaliação de capital social no Estudo Longitudinal de Saúde do Adulto (ELSA-Brasil).MÉTODOS: A escala de capital social foi aplicada em subamostra de 281 participantes dos seis Centros de Investigação do ELSA, em duas oportunidades, com intervalo de sete a 14 dias. O instrumento é constituído por 31 itens que representam situações concretas para avaliar o acesso a diferentes tipos de recursos, além de avaliar a fonte dos recursos disponíveis (familiares, amigos ou conhecidos). A análise estatística foi realizada por meio de estatísticas kappa (k) e kappa ajustado pela prevalência (ka).RESULTADOS: Os recursos sociais investigados foram encontrados com grande frequência (acima de 50%). Em relação à presença ou ausência dos recursos, as estimativas de confiabilidade ajustadas pela prevalência (ka) variaram de 0,54 a 0,97. No que se refere à fonte de recurso, essas estimativas variaram de ka = 0,45 (alguém que tenha bons contatos com a mídia) a ka = 0,86 (alguém que se formou no Ensino Médio).CONCLUSÕES: A escala apresentou níveis adequados de confiabilidade, que variaram de acordo com o tipo de recurso.
Resumo:
Este guião de apoio à formação tem como objectivo apoiar docentes na (1) configuração e utilização da actividade teste do moodle e (2) criação de bancos de perguntas.
Resumo:
Este guião de apoio à formação tem como objectivo apoiar docentes na (1) configuração de testes para diferentes contextos de utilização e (2) utilização de testes para avaliação formativa (exercícios) e sumativa (exames).
Resumo:
Obtenção do grau de Mestre em Engenharia Electrotécnica, Sistemas e Computadores
Resumo:
Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau em Mestrado Integrado em Engenharia e Gestão Industrial
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação
Resumo:
Mestrado em Contabilidade e Análise Financeira
Resumo:
Estudamos comparativamente quatro técnicas imunológicas para o diagnóstico da neurocisticercose (NC) utilizando líquido cefalorraquiano (LCR) como espécime clínico: as reações de fixação de complemento (RFC), hemaglutinação passiva (RHA), imunofluorescência indireta (RIF) e teste imunoenzimático ELISA Foram ensaiadas 125 amostras de LCR de pacientes com NC comprovada e 94 amostras de LCR do grupo controle (60 de pacientes com quadros clínicos neurológicos diversos e 34 de pacientes supostamente normais). Os índices de sensibilidade e especificidade obtidos para os testes foram, respectivamente, de 48,0% e 90,4% para a RFC; 88,8% e 96,8% para a RHA; 87,2 e 98,9% para a RIF e 97,6% e 98,9% para o teste ELISA. A diferença significativa (p < 0,05) observada entre os testes permite concluir que o melhor teste para o diagnóstico de NC foi o teste ELISA seguido das reações de HA e IF.
Resumo:
O teste de imunofluorescência indireta (IFI) é considerado teste de referência na soroiogia da malária. Neste trabalho procuramos optimizar o teste empregando P. falciparum obtido de sangue humano e de cultura e P. vivax obtido de sangue de paciente como antígenos, para pesquisa de anticorpos IgG e IgM. Das variáveis técnicas estudadas melhores resultados foram obtidos quando os soros foram diluidos ern PBS contendo 1% de Tween 80 e as lâminas contendo a suspensão antigênica foram estabilizadas em dessecadores ou fixadas com acetona. Foi também padronizado o teste imunoenzimático ELISA com antigenos de P. falciparum obtidos em cultura. O estudo comparativo com o teste de imunofluorescência indireta para pesquisa de anticorpos IgG mostrou: a) nos pacientes primo infectados por P. falciparum a sensibilidade para ambos os testes foi de 71%; b) nos pacientes primo infectados pelo P. vivax a sensibilidade foi de 40% para ambos os testes; c) nos pacientes não primo infectados e com malária atual pelo P. falciparum a sensibilidade para ambos os testes foi de 100%; d) nos pacientes não primo infectados e com malária atual pelo P. vivax a sensibilidade foi de 85% para o teste ELISA e de 92% para a IFI; e) nos pacientes com malária mista a sensibilidade para ambos os testes foi de 100%. A especificidade da IFI foi de 100% e do teste ELISA 95% nos casos de indivíduos não maláricos. Os resultados obtidos sugerem ser o teste ELISA, uma boa alternativa para o teste de IFI, para a pesquisa de anticorpos IgG anti P. falciparum, na soroiogia da malária.