245 resultados para softwares estatísticos
Resumo:
FUNDAMENTO: O aumento da espessura do IMT (do inglês intima-media thickness) das carótidas é utlizado como marcador precoce de aterosclerose e para avaliação do risco de eventos cardiovasculares. O ultrassom é utilizado na sua avaliação pela acessibilidade e baixo custo. São descritas medidas realizadas em diferentes regiões das carótidas. OBJETIVOS: Correlacionar o IMT nas regiões proximal e distal da carótida primitiva bilateral no intuito de orientar a sua utilização na prática clínica. MÉTODOS: O IMT foi medido nas porções proximais e distais da artéria carótida primitiva de 798 indivíduos (35-74 anos) de ambos os sexos usando ultrassom de alta resolução. O coeficiente de correlação de Pearson foi usado para se estabelecer as associações. As análises foram feitas inicialmente para toda a amostra e nos subgrupos com IMT < 0,90 mm (49% da amostra) e > 0,90 mm em pelo menos um sítio de medida. A significância estatística foi considerada para p <0 ,05. RESULTADOS: Ocorreu correlação significativa entre todas as correlações testadas. No grupo com IMT < 0,90 mm, o resultado situou-se entre 0,44 e 0,62. No subgrupo com IMT > 0,90 mm, houve expressiva queda de correlações, que se situaram entre 0,20 e 0,40. CONCLUSÃO: Os dados sugerem que o espessamento médio-intimal é mais uniforme ao longo das carótidas em fases mais precoces do desenvolvimento e tende a adquirir desenvolvimento focal à medida que progride. Portanto, na avaliação clínica de pacientes, toda a extensão das carótidas comuns deve ser investigada bilateralmente para melhor utilizar os softwares disponíveis e concluir sobre a presença ou não de espessamento do complexo médio-intimal.
Resumo:
FUNDAMENTO: A variabilidade da frequência cardíaca (VFC) é um importante indicador da modulação autonômica da função cardiovascular. A diabetes pode alterar a modulação autonômica danificando as entradas aferentes, dessa forma aumentando o risco de doenças cardiovasculares. Foram aplicados métodos analíticos não lineares para identificar os parâmetros associados com VFC indicativos de alterações na modulação autonômica da função cardíaca em pacientes diabéticos. OBJETIVO: Analisamos as diferenças nos padrões da VFC entre pacientes diabéticos e controles saudáveis pareados por idade, utilizando métodos não-lineares. MÉTODOS: Plot de Poincaré Lagged, autocorrelação e análise de flutuação destendenciada foram aplicados para analisar a VFC em registros de eletrocardiograma (ECG). RESULTADOS: A análise do gráfico de Poincaré lagged revelou alterações significativas em alguns parâmetros, sugestivas de diminuição da modulação parassimpática. O expoente de flutuação destendencionada derivado de um ajuste em longo prazo foi maior que o expoente em curto prazo na população diabética, o que também foi consistente com a diminuição do input parassimpático. A função de autocorrelação do desvio dos intervalos inter-batimento exibiu um padrão altamente correlacionado no grupo de diabéticos em comparação com o grupo controle. CONCLUSÃO: O padrão de VFC difere significativamente entre pacientes diabéticos e indivíduos saudáveis. Os três métodos estatísticos utilizados no estudo podem ser úteis para detectar o início e a extensão da neuropatia autonômica em pacientes diabéticos.
Resumo:
Background: The equations predicting maximal oxygen uptake (VO2max or peak) presently in use in cardiopulmonary exercise testing (CPET) softwares in Brazil have not been adequately validated. These equations are very important for the diagnostic capacity of this method. Objective: Build and validate a Brazilian Equation (BE) for prediction of VO2peak in comparison to the equation cited by Jones (JE) and the Wasserman algorithm (WA). Methods: Treadmill evaluation was performed on 3119 individuals with CPET (breath by breath). The construction group (CG) of the equation consisted of 2495 healthy participants. The other 624 individuals were allocated to the external validation group (EVG). At the BE (derived from a multivariate regression model), age, gender, body mass index (BMI) and physical activity level were considered. The same equation was also tested in the EVG. Dispersion graphs and Bland-Altman analyses were built. Results: In the CG, the mean age was 42.6 years, 51.5% were male, the average BMI was 27.2, and the physical activity distribution level was: 51.3% sedentary, 44.4% active and 4.3% athletes. An optimal correlation between the BE and the CPET measured VO2peak was observed (0.807). On the other hand, difference came up between the average VO2peak expected by the JE and WA and the CPET measured VO2peak, as well as the one gotten from the BE (p = 0.001). Conclusion: BE presents VO2peak values close to those directly measured by CPET, while Jones and Wasserman differ significantly from the real VO2peak.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
No trabalho apresentado, estudou-se a cinética de absorção de íons, baseado na equação de LINEWEAVER & bURk (1934). o estudo visou verificar o efeito competitivo ou não do íon Mg²+ na absorção do íon Ca²+. Para facilidade do estudo, soluções de CaCl2 marcadas com 45Ca foram administradas em diferentes concentrações à tecidos foliares de café (Coffea arabica L., cv. 'Mundo Novo'), em solução contendo ou não uma concentração conhecida de MgCl2 segundo a técnica de SMITH & EPSTEIN (1964a e 1964b). São apresentados também cálculos estatísticos, considerados inéditos na aplicação do presente estudo. Conclue-se que há inibição competitiva devida ao íon Mg²+ pelos centros ativos dos carregadores.
Resumo:
São estudadas granulometria e mineralogia da fração areia de três solos classificados como Latossol Vermelho Amarelo, da região do médio rio São Francisco, BA. Foram empregados os parâmetros estatísticos propostos por FOLK e WARD (1957), para estudo de granulometria; para estudos de mineralogia, utilizou-se o resíduo pesado da fração 250 a 50µ. Quanto a granulometria, os solos apresentam grande homogeneidade, com material moderadamente selecionado, predominando as frações finas. Mineralogicamente, são de elevada maturidade, com minerais altamente estáveis, que passaram por mais de um ciclo de sedimentação. A distribuição dos minerais pesados ao longo dos perfis sugere a presença de descontinuidades litológicas.
Resumo:
Os perfis de Latossolos da bacia do ribeirão do Lobo, região de S. Carlos, Brotas e Itirapina, SP, classificados inicialmente pela COMISSÃO DE SOLOS (1960) e re-classificados por FREIRE et alii (1978), foram amostrados e estudados através de análise granulométrica, empregando-se os parâmetros estatísticos propostos por FOLK & WARD (1957). Os principais objetivos do trabalho são a caracterização desses solos, elucidação de sua gênese e evolução, bem como verificar a aparente uniformidade morfológica evidenciada pela classificação de FREIRE et alli(1978). Os resultados obtidos mostraram que os perfis estudados se distribuem em duas categorias distintas: uma que apresenta tendência para se deslocar para o lado das frações mais grosseiras, tem como moda fração areia fina e curvas de distribuição de frequência de tamanho simétricas;outra onde a fração modal é constituida pela areia média com porcentagem de argila cerca de 30 a 40% maior gue a primeira e curvas de distribuição de freguência de tamanho assimétricas. Prováveis ocorrências de descontinuidades litológicas não puderam ser indicadas pelos resultados obtidos, mas indícios podem ser sugeridos pelos valores de grau de seleção, grau de assimetria e curtose, sem que, entretanto seja um dado conclusivo.
Resumo:
Utilizaram-se 4 diferentes cepas de Toxoplasma gondii como antigeno para reação de imunofluorescência indireta (RIFI), para verificar se há influência da cepa nos títulos de anticorpos séricos observados. As 4 cepas foram isoladas de casos humanos. Uma das cepas (cepa "C") foi isolada de um caso de toxoplasmose congênita e as outras 3 isoladas de casos de toxoplasmose linfoglandular (cepas "1", "S" e "E"). Dos 72 soros humanos examinados pela RIFI, foi observado que 13 deles eram não reatores à diluição 1:16 ao utilizar-se cada uma das 4 cepas como antígeno. Em apenas 5 soros encontrou-se concordância dos títulos de anticorpos ao serem utilizadas as 4 cepas como antígeno, sendo um deles concordante á diluição 1:16 e 4 deles à diluição 1:64. Nos outros 54 soros examinados, observaram-se títulos diferentes em uma a três diluições ao quádruplo, conforme a cepa utilizada como antígeno. Pela aplicação de testes estatísticos, verificou-se que em relação à cepa "C" essas diferenças eram significantes, enquanto que ao se comparar os resultados encontrados com as cepas "1", "S" e "E", as diferenças não se mostraram significantes em um nível de 5%. A tendência a títulos de anticorpos séricos mais elevados ao utilizar-se a cepa "C" pode estar relacionada a diferenças antigênicas. Para uma boa reprodutibilidade dos resultados pela RIFI, torna-se necessária a padronização não apenas das técnicas da reação, equipamentos ópticos e reagentes, mas também do antígeno empregado.
Resumo:
The study of the Schistosoma mansoni genome, one of the etiologic agents of human schistosomiasis, is essential for a better understanding of the biology and development of this parasite. In order to get an overview of all S. mansoni catalogued gene sequences, we performed a clustering analysis of the parasite mRNA sequences available in public databases. This was made using softwares PHRAP and CAP3. The consensus sequences, generated after the alignment of cluster constituent sequences, allowed the identification by database homology searches of the most expressed genes in the worm. We analyzed these genes and looked for a correlation between their high expression and parasite metabolism and biology. We observed that the majority of these genes is related to the maintenance of basic cell functions, encoding genes whose products are related to the cytoskeleton, intracellular transport and energy metabolism. Evidences are presented here that genes for aerobic energy metabolism are expressed in all the developmental stages analyzed. Some of the most expressed genes could not be identified by homology searches and may have some specific functions in the parasite.
Resumo:
No estudo aqui apresentado, aplicou-se um modelo de rede neural multicamadas para o apreçamento de calls sobre taxa de câmbio R$/US$, negociadas na Bolsa de Valores, Mercadorias & Futuros de São Paulo (BM&FBovespa), para o período de janeiro de 2004 a dezembro de 2007. A partir dos preços efetivamente praticados no mercado, comparou-se o desempenho entre essa técnica e o modelo de Black, utilizando-se métricas usuais de erro e testes estatísticos. Os resultados obtidos revelaram, em geral, a melhor adequação do modelo de inteligência artificial, em comparação ao modelo de Black, nos diferentes graus de moneyness.
Resumo:
O trabalho tem sido visto não somente como forma de obter a renda, mas também como atividade que proporciona realização pessoal, status social e possibilidade de estabelecer e manter contatos interpessoais, entre outros. Nesta pesquisa, teve-se como objetivo investigar os fatores que influenciam e conferem sentido ao trabalho, como centralidade do trabalho, normas da sociedade e objetivos e resultados valorizados. Na centralidade do trabalho, procurou-se investigar o grau de importância do trabalho dentro do contexto das diversas áreas da vida das pessoas, como família, lazer, religião e vida comunitária. Em normas da sociedade, foram analisados os pontos mais significativos no tocante ao que a sociedade deveria proporcionar ao indivíduo, assim como o que o indivíduo deveria fazer em prol da sociedade. Nos objetivos e resultados valorizados, foi pesquisado o que as pessoas buscam com o trabalho. A partir da pesquisa na literatura, foi elaborado um modelo inicial que, não se mostrando satisfatório segundo critérios estatísticos, foi substituído por outro que apresentou significância estatística e boa aderência aos dados. O modelo escolhido foi o que melhor goodness-of-fit apresentou, quando se utilizou modelagem de equações estruturais pelo método partial least square. O estudo revelou que o significado do trabalho se reflete, na ordem, na centralidade do trabalho, nos objetivos e resultados valorizados e, por último, nas normas sociais.
Resumo:
A metodologia desenvolvida pelo Minnesota Innovation Research Program para avaliação dos processos de inovação, denominada Minnesota Innovation Survey (MIS) serviu de base para a proposição de um modelo de análise de ambiente propício ao desenvolvimento de inovações. A necessidade da proposição de um novo modelo surgiu a partir da observação dos resultados de pesquisas que utilizaram a mesma metodologia, em que questões e dimensões se apresentavam altamente correlacionadas, gerando redundância de medição de construtos e pouca precisão nos resultados. Com isso buscou-se, por meio de embasamento teórico e estatística multivariada, reduzir o número de construtos afins no intuito de evitar a multicolinearidade e os resultados dúbios. A metodologia utilizada para o desenvolvimento do modelo proposto caracteriza-se como descritiva com método quantitativo. Foram aplicados questionários da metodologia MIS a 349 empregados de uma empresa metal mecânica. A aplicação do modelo original obedeceu a todos os passos prescritos, mostrando a aderência por meio de modelagem de equações estruturais. Como resultado verificou-se que a redução de dados proveniente dos testes estatísticos impactou significantes alterações na metodologia de base, caracterizando o surgimento de uma nova metodologia de análise pela diminuição de 70% dos dados multivariados. Conclui-se que a nova metodologia, apesar de eliminar 65 questões do instrumento de coleta de dados, não reduz seu poder de explicação e eficácia quanto às relações dos ambientes organizacionais com os resultados da inovação. Em termos de execução de pesquisa, o novo modelo facilita a coleta de dados, minimiza a dispersão do respondente no momento do preenchimento do questionário, aumentando a confiabilidade dos dados, fornece informações acuradas sobre o ambiente inovador e garante robustez de análise. Empresas podem beneficiar-se desse instrumento de pesquisa por ser de fácil aplicação, entendimento e análise.
Resumo:
É crescente a pressão para a publicação de artigos em periódicos de renome. Ressalta-se que os artigos publicados nesses periódicos são cada vez mais empíricos e com utilização de técnicas estatísticas progressivamente mais sofisticadas. Para isso, é importante que existam pesquisadores e programas capacitados para a análise quantitativa de dados. Neste trabalho, apresentam-se os resultados de um survey realizado com pesquisadores nacionais para verificar seu grau de proficiência em métodos estatísticos. Constatou-se que pesquisadores e programas brasileiros estão menos preparados para o uso desses métodos em relação a pesquisadores norte-americanos, conforme pesquisa usada como referência. Sugere-se não só a preparação de professores e alunos em métodos quantitativos, mas, sobretudo, a existência de estruturas de apoio que possam dar suporte para a melhoria de trabalhos desse tipo.
Resumo:
A escassez de publicações a respeito de dimensionamento de pessoal na enfermagem psiquiátrica motivou o desenvolvimento de um Instrumento para Classificar o Nível de Dependência na Enfermagem Psiquiátrica, etapa inicial para o estabelecimento da quantidade necessária de profissionais na Equipe de Enfermagem da especialidade. Os objetivos deste estudo buscaram a validação clínica, por meio de testes de confiabilidade e validade do constructo, além da verificação de sua aplicabilidade na prática gerencial do enfermeiro. Foram utilizadas duas amostras, sendo n=40 pares de instrumentos preenchidos na Fase 1 da coleta de dados e n=100 instrumentos preenchidos na Fase 3 do estudo, tendo sido aplicados diferentes critérios estatísticos, entre eles, o coeficiente Kappa e a correlação de Spearman. O Instrumento para Classificar o Nível de Dependência na Enfermagem Psiquiátrica foi considerado confiável com índices satisfatórios de concordância e o constructo foi validado, determinando o grau de dependência do paciente portador de transtornos mentais.
Resumo:
O objetivo deste artigo é relatar a construção de um instrumento para medir o sentimento de impotência em pacientes adultos internados. Para a construção deste instrumento, utilizamos procedimentos teóricos, empíricos e analíticos (estatísticos) com base na psicometria. O instrumento foi testado com 210 pacientes para seleção de itens, confiabilidade e validade e ficou constituído por 12 itens com três domínios: capacidade de realizar comportamento (alfa=0,845), percepção da capacidade de tomar decisões (alfa=0,834); e resposta emocional ao controle das situações (alfa=0,578). O alfa total foi de 0,799. Estimativas de validade de critério foram obtidas por associação entre o instrumento desenvolvido e uma afirmação geral sobre a percepção de controle (p<0,000). O instrumento de Medida do Sentimento de Impotência para pacientes adultos servirá de base para avaliar esse diagnóstico de enfermagem, definir e apreciar intervenções clínicas.