1000 resultados para Erro de medida
Resumo:
FUNDAMENTO: A medida precisa da pressão arterial é fundamental para a investigação científica ou decisão clínica. Nesse sentido, é importante verificar valores fornecidos por equipamentos eletrônicos. OBJETIVO: Validar o monitor Omron HEM 742 de medida de pressão arterial em adolescentes, segundo os critérios sugeridos pela British Hypertension Society. MÉTODOS: Participaram do estudo 150 adolescentes com idades entre 10 e 16 anos. O monitor automático Omron HEM 742 foi conectado em Y com equipamento auscultatório de coluna de mercúrio, e realizaram-se três avaliações simultâneas, calculando-se as diferenças entre os dois equipamentos. Para verificar a relação entre ambos, utilizaram-se o coeficiente de correlação intraclasse e a plotagem de Bland-Altman (concordância). A especificidade e a sensibilidade do aparelho foram determinadas pela curva ROC. RESULTADOS: A comparação entre as medidas acusou uma diferença menor ou igual a 5 mmHg em 67,3% dos valores sistólicos e 69,3% dos valores diastólicos; uma diferença menor ou igual a 10 mmHg ocorreu em 87,3% e 90,6% dos valores sistólicos e diastólicos, respectivamente; e uma diferença menor ou igual a 15 mmHg em 96,6% dos valores sistólicos e 97,3% dos diastólicos. Esses resultados indicam grau A segundo o protocolo da British Hypertension Society. Observou-se ainda elevada concordância nos valores obtidos por meio do monitor automático, e verificou-se que esse equipamento é capaz de identificar a presença ou a ausência da pressão arterial elevada. CONCLUSÃO: O monitor Omron HEM 742 mostrou-se válido para medidas de pressão arterial em adolescentes, conforme os critérios sugeridos pela British Hypertension Society.
Resumo:
FUNDAMENTO: Muitos métodos são empregados para determinar o Limiar Anaeróbio (LAn) por meio de ergoespirômetros sofisticados. OBJETIVO: Testar a variação no LAn, detectado por modelos matemáticos e de inspeção visual, quando empregado ergoespirômetro de baixo custo e destinado à aplicação clínica. MÉTODOS: Foram voluntários para esse estudo 79 indivíduos aparentemente saudáveis; desses, 57 homens. O VO2máx e o limiar ventilatório foram determinados por calorimetria indireta de circuito aberto. O método eletroenzimático foi empregado para análise da lactacidemia e determinação direta do limiar de lactato (LL). O LAn foi determinado por dois métodos matemáticos (MM SQR e MMslope), baseados nas trocas gasosas, e pelo método de inspeção visual do log-log, para determinação do LL. Dois pesquisadores independentes determinaram o LAn através da inspeção visual de três gráficos, considerando dois métodos (LAn-a= V-slope, EqV; e LAn-b = V-slope, EqV e ExCO2). Os dados foram analisados por meio da estatística paramétrica para determinação das diferenças entre LAn-a versus ExCO2, MM SQR e MMslope; LAn-b versus MM SQR e MMslope; e LL versus LAn-a, LAN-b, MM SQR e MMslope. RESULTADOS: O MMslope foi o único método que apresentou diferença significativa entre o LAn-a e LAn-b (p=0,001), com CV% >15. O LL versus MMslope não apresentou diferença significativa (p=0,274), contudo, observou-se um elevado CV (24%). CONCLUSÃO: Conclui-se que com o equipamento de baixo custo os métodos MM SQR e LAn-a podem ser utilizados para a determinação do LAn. O método MMslope não apresentou precisão satisfatória para ser empregado com esses equipamentos.
Resumo:
FUNDAMENTO: A medida precisa da pressão arterial (PA) é de grande importância na pesquisa da hipertensão. No contexto de estudos clínicos e epidemiológicos, dispositivos oscilométricos frequentemente oferecem importantes vantagens para superar algumas das limitações do método auscultatório. Embora sua acurácia tenha sido avaliada em estudos múltiplos no ambiente clínico, há pouca evidência de seu desempenho em grandes estudos epidemiológicos. OBJETIVO: Avaliamos a precisão do Omron HEM-705-CP, um dispositivo automático para medida de PA, quando comparado com o método padrão auscultatório com esfigmomanômetro de mercúrio em um grande estudo de coorte. MÉTODOS: Três medidas auscultatórias foram obtidas, seguidas por duas mensurações com o dispositivo Omron em 1.084 indivíduos. O viés foi estimado como a média de duas medidas pelo dispositivo Omron menos a média das duas últimas medidas auscultatórias, com seus correspondentes limites de concordância (LC) de 95%. RESULTADOS: O dispositivo Omron superestimou a pressão arterial sistólica (PAS) por 1,8 mmHg (LC:-10,1, 13,7) e subestimou a pressão arterial diastólica (PAD) por 1,6 mmHg (LC:-12,3, 9,2). O viés foi significantemente maior em homens. O viés na PAS aumentou com a idade e diminuiu com o nível da PA, enquanto o viés na PAD diminuiu com a idade e aumentou com o nível da PA. A sensibilidade e a especificidade do dispositivo Omron para detectar hipertensão foram 88,2% e 98,6%, respectivamente. O uso das medidas do dispositivo Omron resultou em viés mínimo na estimativa dos efeitos de vários fatores. CONCLUSÃO: Nossos resultados demonstraram que o dispositivo Omron HEM-705-CP pode ser utilizado para medir a PA em grandes estudos epidemiológicos sem comprometer a validade do estudo ou sua precisão.
Resumo:
FUNDAMENTO: A medida casual da pressão arterial (PA) pelos profissionais de saúde está sujeita a uma grande variabilidade, sendo necessário buscar novos métodos que possam superar essa limitação. OBJETIVO: Comparar e avaliar a correlação entre os níveis de PA obtidos por meio da automedida da pressão arterial (AMPA) com a medida casual e com a monitorização ambulatorial da pressão arterial (MAPA). MÉTODOS: Avaliamos hipertensos que realizaram as três metodologias de medida da PA com intervalo menor que 30 dias; as médias das pressões foram utilizadas para comparação e correlação. Foram empregados os aparelhos: OMRON 705 CP (medida casual), OMRON HEM 714 (AMPA) e SPACELABS 9002 (MAPA). RESULTADOS: Foram avaliados 32 pacientes, 50,09% mulheres, idade média 59,7 (± 11,2) anos, média do IMC 26,04 (± 3,3) kg/m². Valores médios de pressão sistólica (PAS) e pressão diastólica (PAD) para a AMPA foram de 134 (± 15,71)mmHg e 79,32 (± 12,38) mmHg. Na medida casual as médias da PAS e PAD foram, respectivamente, 140,84 (± 16,15)mmHg e 85 (± 9,68) mmHg. Os valores médios da MAPA na vigília foram 130,47 (± 13,26) mmHg e 79,84 (± 9,82) mmHg para PAS e PAD, respectivamente. Na análise comparativa, a AMPA apresentou valores semelhantes aos da MAPA (p > 0,05) e diferentes da medida casual (p < 0,05). Na análise de correlação a AMPA foi superior à medida casual, considerando a MAPA como o padrão de referência nas medidas tensionais. CONCLUSÃO: A AMPA apresentou melhor comparação com a MAPA do que a medida casual e também se correlacionou melhor com a aquela, especialmente para a pressão diastólica, devendo ser considerada uma alternativa com baixo custo para o acompanhamento do paciente hipertenso.
Resumo:
FUNDAMENTO: O modelo fisiopatológico da insuficiência cardíaca com fração de ejeção normal (ICFEN) está centrado na presença de disfunção diastólica, o que ocasiona mudanças estruturais e funcionais no átrio esquerdo (AE). A medida do tamanho do AE pode ser utilizada como um marcador da presença de ICFEN, sendo um indicador da elevação crônica da pressão de enchimento do VE, cuja mensuração é de fácil obtenção. OBJETIVO: Estimar a acurácia da medida do tamanho do AE, utilizando os valores indexados do diâmetro e do volume do AE para o diagnóstico de ICFEN em pacientes ambulatoriais. MÉTODOS: Estudamos 142 pacientes (67,3 ± 11,4 anos, 75% de mulheres) com suspeita de IC, os quais foram divididos em dois grupos: com ICFEN (n = 35) e sem ICFEN (n = 107). RESULTADOS: A função diastólica, avaliada pelo ecodopplercardiograma, mostrou diferença significativa entre os dois grupos em relação aos parâmetros que avaliaram o relaxamento ventricular (E' 6,9 ± 2,0 cm/s vs. 9,3 ± 2,5 cm/s - p < 0,0001) e a pressão de enchimento do VE (relação E/E' 15,2 ± 6,4 vs. 7,6 ± 2,2 - p < 0,0001). O ponto de coorte do volume do AE indexado (VAE-I) de 35 mL/m² foi o que melhor se correlacionou com o diagnóstico de ICFEN, demonstrando sensibilidade de 83%, especificidade de 83% e acurácia de 83%. Já o ponto de coorte do diâmetro ântero-posterior do AE indexado (DAE-I) de 2,4 cm/m² apresentava sensibilidade de 71%, especificidade de 66% e acurácia de 67%. CONCLUSÃO: Para o diagnóstico de ICFEN em pacientes ambulatoriais, o VAE-I é o método mais acurado em comparação ao DAE-I. Na avaliação ecocardiográfica, a medida do tamanho do AE deveria ser substituída pela medida indexada do volume. (Arq Bras Cardiol. 2011; [online].ahead print, PP.0-0)
Resumo:
FUNDAMENTO: A ecocardiografia transtorácica (ETT) é rotineiramente utilizada para calcular a área da valva aórtica (AVA) pela equação de continuidade (EC). No entanto, a medida exata das vias de saída do ventrículo esquerdo (VSVE) pode ser difícil e a aceleração do fluxo no VSVE pode levar a erro de cálculo da AVA. OBJETIVO: O objetivo do nosso estudo foi comparar as medições da AVA por ETT padrão, ressonância magnética cardíaca (RM) e uma abordagem híbrida que combina as duas técnicas. MÉTODOS: A AVA foi calculada em 38 pacientes (idade 73 ± 9 anos) com a ETT padrão, planimetria cine-RM e uma abordagem híbrida: Método híbrido 1: a medição da VSVE derivada pelo ETT no numerador CE foi substituída pela avaliação de ressonância magnética da VSVE e a AVA foi calculada: (VSVE RM/*VSVE-VTI ETT)/transaórtico-VTI ETT; Método 2: Substituímos o VS no numerador pelo VS derivado pela RM e calculamos a AVA = VS RM/transaórtico-VTI ETT. RESULTADOS: Amédia de AVAobtida pela ETTfoi 0,86 cm² ± 0,23 cm² e 0,83 cm² ± 0,3 cm² pela RM-planimetria, respectivamente. A diferença média absoluta da AVA foi de 0,03 cm² para a RM versus planimetria-ressonância magnética. A AVA calculada com o método 1 e o método 2 foi de 1,23 cm² ± 0,4 cm² e 0,92cm² ± 0,32 cm², respectivamente. A diferença média absoluta entre a ETT e os métodos 1 e 2 foi de 0,37 cm² e 0,06 cm², respectivamente (p < 0,001). CONCLUSÃO: A RM-planimetria da AVA e o método híbrido 2 são precisos e demonstraram boa consistência com as medições padrão obtidas pela ETT. Portanto, o método híbrido 2 é uma alternativa razoável na eventualidade de janelas acústicas ruins ou em caso de acelerações de fluxo VSVE que limitem a precisão da ETT, particularmente em pacientes com alto risco de um estudo hemodinâmico invasivo.
Resumo:
FUNDAMENTO: Medir Qualidade de Vida (QV) relacionada à saúde auxilia na avaliação da eficiência de um tratamento e identifica problemas de maior impacto na QV do paciente. No entanto, essas medidas são mais seguras se avaliadas por instrumentos genéricos e específicos conjuntamente, fazendo-se necessário verificar se há compatibilidade entre esses e evitar repetições e contradições entre os domínios. OBJETIVO: Descrever o perfil de qualidade de vida de pacientes hipertensos e avaliar a compatibilidade de um instrumento específico (MINICHAL) e outro genérico (SF-36). MÉTODOS: Cem pacientes hipertensos adultos em tratamento ambulatorial entrevistados. A média da QVRS medida pelo MINICHAL foi de 6,64 (DP 6,04) no estado mental e média de 5,03 (DP 4,11) no estado manifestações somáticas. As médias para o instrumento SF-36 foram por ordem de classificação: limitação por aspectos físicos 47,3 (DP 42,9), vitalidade 57,4 (DP 19,7), limitação por aspectos emocionais 58 (DP 44,7), capacidade funcional 58,7 (DP 27,8), dor 60,4 (DP 26,3), estado geral de saúde 60,7 (DP 22,7), saúde mental 66,8 (DP 22,1) e aspectos sociais 78 (DP 26,1). RESULTADOS: O MINICHAL apresentou correlação significativa (p < 0,001) com o SF-36 em todos os domínios. CONCLUSÃO: O MINICHAL provou ser um instrumento útil na avaliação da QVRS em pacientes hipertensos. (Arq Bras Cardiol. 2012; [online].ahead print, PP.0-0)
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
A presente dissertação busca abordar a questão da restrição ao direito fundamental de liberdade da pessoa toxicodependente no Brasil, consistente, precisamente, na internação forçada para o tratamento de sua saúde e/ou para a segurança pública, sob o olhar do princípio constitucional da dignidade da pessoa humana em suas dimensões positiva, que exige uma obrigação de fazer por parte do Estado, e negativa, que cobra deste uma postura omissiva de proteção, em torno de um mesmo indivíduo; sem se olvidar do interesse público na execução da medida. Para tanto, ao longo do trabalho, a legislação brasileira atinente ao tema é posta em comparação com a sua correspondente portuguesa e, à luz, basicamente, das doutrinas desses países, são examinados direitos afetos à liberdade individual e ao direito social à saúde, sob a costura do apontado princípio estruturante das respectivas Constituições, de modo a permitir a visualização do amparo da medida restritiva no texto maior brasileiro e, ao final, uma análise crítica à ponderação de bens (direitos) realizada pelo legislador ordinário, com possíveis soluções para a sua aplicação em concreto, quando da análise da proporcionalidade da intervenção da liberdade pelo Poder Judiciário.
Resumo:
Foi feito um ensaio em vasos com três solos arenosos do município de Piracicaba a fim de se avaliar o período de decomposição mais ativa de restos de cultura de milho e início de estabilização desse processo e testar a determinação do teor de C do solo e da relação C/N como parâmetros de avaliação da decomposição. Utilizou-se o delineamento experimental inteiramente casualizado, com e sem adição do material orgânico e com adição de doses crescentes de nitrogênio. Concluiu-se o seguinte: a) Tanto o teor de C do solo como a relação C/N foram eficientes para alcançar o objetivo visado, devendo-se, entretanto, para fins práticos, utilizar o primeiro processo por ser de execução mais fácil e mais rápida, b) A decomposição tendeu a se estabilizar aos 45 dias, aproximadamente, após o início da incubação.
Resumo:
En este trabajo evaluamos la utilidad de una medida de la eficiencia en la generación de ventas, para la predicción del resultado de explotación futuro, bajo la hipótesis de que si la medida de la eficiencia es capaz de capturar el componente permanente de los resultados, debería ser útil para la predicción de los resultados futuros, en adición a los resultados actuales. Con el objetivo anterior, en una primera etapa, utilizamos el Análisis Envolvente de Datos (DEA) para determinar la ineficiencia relativa de las empresas en el uso de los recursos a su disposición para generar el nivel máximo posible de ventas. Los inputs incorporados en el modelo DEA (gastos de personal, consumos de materias primas y otros, amortización, y otros gastos de explotación) se obtienen a partir de información contenida en la Cuenta de Pérdidas y Ganancias. En la segunda etapa, la medida de ineficiencia se introduce como variable explicativa en un modelo de regresión en el que la variable dependiente es el resultado de explotación en el año inmediatamente posterior. Los resultados del estudio empírico indican que la medida de ineficiencia relativa proporcionada por el modelo DEA tiene contenido informativo para la predicción del resultado de explotación futuro, en adición al resultado de explotación actual y pasado.
Resumo:
En los últimos años se ha desarrollado un concepto operativo de la calidad de servicio que permite la elaboración de escalas para su medición que han sido aplicadas a diferentes tipos de servicios. Sin embargo, la literatura indica que poco se ha hecho hasta ahora sobre la calidad de servicio en la enseñanza universitaria. En este trabajo se desarrolla, evalúa y aplica una escala de medida de la calidad de servicio en este ámbito a partir de las percepciones de una muestra de 811 estudiantes. Se han analizado sus propiedades psicométricas, obteniéndose resultados satisfactorios tanto en lo que se refiere a la fiabilidad como a la validez. Se han identificado cinco dimensiones distintas y se ha comprobado que cada una de ellas tiene un efecto positivo y significativo sobre la calidad global de la enseñanza y que su importancia relativa varía en función de las características de los estudiantes.
Resumo:
Este trabajo responde a la réplica de Leandro Prados de la Escosura acerca de mi estimación de la serie histórica del Producto Interior Bruto de España (R.E.A., 49 (XVII), 2009, págs. 5 a 45). Demuestra que el IPC es el mejor deflactor disponible para reconstruir el PIB antes de la CNE porque mide correctamente las variaciones interanuales del nivel general de precios. Emplea un procedimiento de enlace de la serie histórica de la contabilidad nacional que es consistente con los nuevos sistemas de cuentas nacionales SCN-93 y SEC-95 y coincide con los empleados por todos los organismos económicos internacionales. La actualización del sistema contable, con la inclusión de la economía sumergida y de la producción para uso final propio, ha dejado obsoletas las estimaciones anteriores y exige estimaciones de segunda generación, con la inevitable readaptación de los niveles relativos de las distintas economías.