995 resultados para Testes de hipóteses
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.
Resumo:
Objectivo: descrever a intervenção em fisioterapia num paciente com diagnóstico de conflito subacromial. Participantes e Métodos: estudo de caso de um paciente que desenvolveu um quadro doloroso no ombro direito no início de Janeiro de 2011 e em que a intervenção de fisioterapia teve início no princípio de Março de 2011. Foi utilizado como instrumentos de avaliação a EVA (repou-so, noite, e movimentos activos), a escala DASH, goniometria e raio x. Foi aplicado uma variedade de técnicas musculares, nomeadamente técnicas de indução miofasciais, exercícios terapêuticos, kinesiotape, bem como articulares, como a mobilização com movimento de Mulligan. O tratamento foi realizado em dias alternados e teve a duração total de seis semanas. Resultados: logo no final da primeira sessão o paciente referiu melhoria na dor e movimentos activos. Na segunda sessão o paci-ente demonstrou capacidade de realizar auto-mobilização, exercícios terapêuticos e alongamentos no domicílio. A regressão dos sintomas foi relativamente rápida, apenas na quarta sessão não obte-ve melhorias na reavaliação, até à completa remissão no fim da nona sessão. Conclusão: o processo de raciocínio clínico desenvolvido pelo fisioterapeuta durante de tratamento foi salientado. Após a recolha dos dados relativos à história e sua interpretação levantaram-se hipóteses o qual poderia estar na origem numa queixa do ombro com estas características. No exame objectivo foram reali-zados testes para permitir a obtenção do diagnóstico diferencial – conflito subacromial; elaborou-se então um plano de intervenção em colaboração com o paciente, nomeadamente com técnicas de terapia manual recentes, que se mostrou eficaz, com excelentes resultados.
Resumo:
Introdução: A síndrome da cirurgia lombar falhada (SCLF) caracteriza-se pela persistência ou recidiva da dor ou aparecimento de novos sintomas após discectomia, descompressão de canal estreito ou artrodese lombares. Objectivos: O objectivo deste estudo foi descrever a abordagem em fisioterapia de um caso com Síndrome da Cirurgia Lombar Falhada e avaliar os seus efeitos na funcionalidade e sintomatologia dolorosa neste indivíduo. Metodologia: A amostra foi constituída por um sujeito com 41 anos, trabalhador da construção civil, apresentando dor lombar com irradiação para o membro inferior, após ter sido submetido a discectomia lombar e artrodese, que realizou sessões de fisioterapia convencional antes e depois da cirurgia, e que apresentava sinais compatíveis com compressão radicular. A intensidade da dor foi medida através da escala visual analógica (EVA), as amplitudes com o goniómetro universal, a funcionalidade foi avaliada utilizando o Questionário de Incapacidade Roland-Morris (RMDQ), o estado psicológico foi avaliado através da “Escala de Desânimo Associado à Dor” e do “Inventário de Convicções e Percepções Relacionadas com a Dor”. Resultados: A dor era inicialmente em média de 5,5/10 EVA, sendo de 3,4/10 EVA no final do tratamento. Quanto à funcionalidade (RMDQ) esta variou de 14/24 no início para 17/24 no final. De uma forma geral, após a aplicação de técnicas para diminuir a tensão do piriforme, técnicas neuurodinâmicas e um programa de exercícios para melhoria do controlo motor, o paciente apresentou alívio das queixas de dor na nádega esquerda e anca, aumento da amplitude de rotação medial da coxo-femoral, ausência das parestesias na face plantar do pé esquerdo e melhoria das queixas de dor na face anterior e lateral da coxa. Verificamos que houve diminuição dos índices de dor e melhorias dos níveis de funcionalidade. Conclusão: Neste estudo de caso, foi salientado o processo de raciocínio clínico desenvolvido pelo fisioterapeuta: a interpretação dos dados da história e levantamento das primeiras hipóteses e a realização dos testes no exame objectivo, permitiram estabelecer um diagnóstico funcional e elaborar um plano de intervenção através do qual o utente recuperou parcialmente a sua funcionalidade e diminuiu os seus índices de dor.
Resumo:
Dissertação de natureza científica para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
Different problems are daily discuss on environmental aspects such acid rain, eutrophication, global warming and an others problems. Rarely do we find some discussions about phosphorus problematic. Through the years the phosphorus as been a real problem and must be more discussed. On this thesis was done a global material flow analysis of phosphorus, based on data from the year 2004, the production of phosphate rock in that year was 18.9 million tones, almost this amount it was used as fertilizer on the soil and the plants only can uptake, on average, 20% of the input of fertilizer to grow up, the remainder is lost for the phosphorus soil. In the phosphorus soil there is equilibrium between the phosphorus available to uptake from the plants and the phosphorus associate with other compounds, this equilibrium depends of the kind of soil and is related with the soil pH. A reserve inventory was done and we have 15,000 million tones as reserve, the amount that is economical available. The reserve base is estimated in 47,000 million tones. The major reserves can be found in Morocco and Western Sahara, United Sates, China and South Africa. The reserve estimated in 2009 was 15,000 million tone of phosphate rock or 1,963 million tone of P. If every year the mined phosphate rock is around 22 Mt/yr (phosphorus production on 2008 USGS 2009), and each year the consumption of phosphorus increases because of the food demand, the reserves of phosphate rock will be finished in about 90 years, or maybe even less. About the value/impact assessment was done a qualitative analysis, if on the future we don’t have more phosphate rock to produce fertilizers, it is expected a drop on the crops yields, each depends of the kind of the soil and the impact on the humans feed and animal production will not be a relevant problem. We can recovery phosphorus from different waste streams such as ploughing crop residues back into the soil, Food processing plants and food retailers, Human and animal excreta, Meat and bone meal, Manure fibre, Sewage sludge and wastewater. Some of these examples are developed in the paper.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
OBJETIVO: Analisar a acurácia do diagnóstico de dois protocolos de imunofluorescência indireta para leishmaniose visceral canina. MÉTODOS: Cães provenientes de inquérito soroepidemiológico realizado em área endêmica nos municípios de Araçatuba e de Andradina, na região noroeste do estado de São Paulo, em 2003, e área não endêmica da região metropolitana de São Paulo, foram utilizados para avaliar comparativamente dois protocolos da reação de imunofluorescência indireta (RIFI) para leishmaniose: um utilizando antígeno heterólogo Leishmania major (RIFI-BM) e outro utilizando antígeno homólogo Leishmania chagasi (RIFI-CH). Para estimar acurácia utilizou-se a análise two-graph receiver operating characteristic (TG-ROC). A análise TG-ROC comparou as leituras da diluição 1:20 do antígeno homólogo (RIFI-CH), consideradas como teste referência, com as diluições da RIFI-BM (antígeno heterólogo). RESULTADOS: A diluição 1:20 do teste RIFI-CH apresentou o melhor coeficiente de contingência (0,755) e a maior força de associação entre as duas variáveis estudadas (qui-quadrado=124,3), sendo considerada a diluição-referência do teste nas comparações com as diferentes diluições do teste RIFI-BM. Os melhores resultados do RIFI-BM foram obtidos na diluição 1:40, com melhor coeficiente de contingência (0,680) e maior força de associação (qui-quadrado=80,8). Com a mudança do ponto de corte sugerido nesta análise para a diluição 1:40 da RIFI-BM, o valor do parâmetro especificidade aumentou de 57,5% para 97,7%, embora a diluição 1:80 tivesse apresentado a melhor estimativa para sensibilidade (80,2%) com o novo ponto de corte. CONCLUSÕES: A análise TG-ROC pode fornecer importantes informações sobre os testes de diagnósticos, além de apresentar sugestões sobre pontos de cortes que podem melhorar as estimativas de sensibilidade e especificidade do teste, e avaliá-los a luz do melhor custo-benefício.
Resumo:
Mestrado em Contabilidade e Análise Financeira
Resumo:
OBJETIVO: Comparar duas abordagens baseadas em critérios do Quality Assessment of Diagnostic Accuracy Studies (QUADAS) e do Standards for Reporting Studies of Diagnostic Accuracy (STARD) na avaliação de qualidade de estudos de validação do teste rápido OptiMal®, para diagnóstico de malária. MÉTODOS: Foi realizada busca de artigos de validação do teste rápido na base bibliográfica Medline acessada pelo PubMed, no ano de 2007. Treze artigos foram recuperados na busca. Foram combinados 12 critérios do QUADAS e três do STARD para comparação com os critérios do QUADAS isoladamente. Foi considerado que artigos de regular a boa qualidade atenderiam pelo menos 50% dos critérios do QUADAS. RESULTADOS: Dos 13 artigos recuperados, 12 cumpriram pelo menos 50% dos critérios do QUADAS, e apenas dois atenderam à combinação dos critérios. Considerando-se a combinação dos dois critérios (> 6 QUADAS e > 3STARD), dois estudos (15,4%) apresentaram boa qualidade metodológica. A seleção de artigos usando a combinação proposta variou de dois a oito artigos, dependendo do número de itens considerados como ponto de corte. CONCLUSÕES: A combinação do QUADAS com o STARD tem o potencial de conferir maior rigor nas avaliações da qualidade de artigos publicados sobre validação de testes diagnósticos em malária, por incorporar a checagem de informações relevantes não alcançáveis pelo uso do QUADAS isoladamente.
Resumo:
O artigo discute o impacto da plausibilidade (probabilidade a priori) no resultado de pesquisas científicas, conforme abordagem de Ioannidis, referente ao percentual de hipóteses nulas erroneamente classificadas como "positivas" (estatisticamente significante). A questão "qual fração de resultados positivos é verdadeiramente positiva?", equivalente ao valor preditivo positivo, depende da combinação de hipóteses falsas e positivas em determinada área. Por exemplo, sejam 90% das hipóteses falsas e α = 0,05, poder = 0,8: para cada 1.000 hipóteses, 45 (900 x 0,05) serão falso-positivos e 80 (100 x 0,8) verdadeiro-positivos. Assim, a probabilidade de que um resultado positivo seja um falso-positivo é de 45/125. Adicionalmente, o relato de estudos negativos como se fossem positivos contribuiria para a inflação desses valores. Embora essa análise seja de difícil quantificação e provavelmente superestimada, ela tem duas implicações: i) a plausibilidade deve ser considerada na análise da conformidade ética de uma pesquisa e ii) mecanismos de registro de estudo e protocolo devem ser estimulados.
Resumo:
Num mundo hipercompetitivo, a afirmação da virtuosidade tem enfrentado consideráveis resistências, sendo mesmo considerada como sinónimo de fraqueza ou ingenuidade. Todavia, e perante evidências dos potenciais perigos do exercício da liderança desprovido de valores, ética e moralidade, elevam-se as vozes em defesa de uma liderança virtuosa, capaz de aportar contributos significativamente positivos às organizações e seus colaboradores. Partindo desta premissa, esta investigação teve como objetivo analisar, com base nas perceções dos liderados, o impacto da liderança virtuosa no comprometimento organizacional, assim como o contributo deste último no desempenho individual. Sustentados numa metodologia quantitativa, inquirimos, numa primeira fase, 113 liderados provenientes de organizações localizadas no território português, com vista a apurar quais as virtudes que mais valorizavam num líder. Os dados para o teste de hipóteses foram recolhidos através da aplicação de uma bateria de testes junto de 351 liderados, também a exercer funções em organizações a operar em Portugal. Os resultados sugerem que as perceções dos liderados em torno de três dimensões de virtuosidade da liderança (liderança baseada em valores, perseverança e maturidade) contribuem para o comprometimento organizacional, sobretudo nas suas vertentes afetiva e normativa e, que este último, por sua vez, é capaz de influenciar positivamente o desempenho individual.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
Este guião de apoio à formação tem como objectivo apoiar docentes na (1) configuração e utilização da actividade teste do moodle e (2) criação de bancos de perguntas.
Resumo:
Este guião de apoio à formação tem como objectivo apoiar docentes na (1) configuração de testes para diferentes contextos de utilização e (2) utilização de testes para avaliação formativa (exercícios) e sumativa (exames).
Resumo:
Obtenção do grau de Mestre em Engenharia Electrotécnica, Sistemas e Computadores