382 resultados para Equação de Euler
Resumo:
OBJETIVO: Analisar a relação entre a DP e SCA e verificar a associação entre a DP e periodontite em pacientes com SCA. MÉTODOS: Foram incluídos 58 pacientes com diagnóstico de SCA e 57 controles, sem história de doença arterial coronariana (DAC). Variáveis: hipertensão arterial, diabete, dislipidemia, obesidade, história de DAC, tabagismo e polimorfismo genético do gene da interleucina-1beta. RESULTADOS: Fizeram parte do estudo 115 indivíduos. No grupo SCA, 58 pacientes foram avaliados, sendo 32 (55,2%) do sexo masculino e 26 (44,8%) do sexo feminino. No grupo controle, 57 indivíduos, sendo 32 (56,1%) do sexo masculino e 25 (43,9%) do sexo feminino. Verificou-se DP em 26 (44,8%) pacientes com SCA e em 15 (26,6%) pacientes do grupo controle (beta2 = 4,43, p = 0,04). Análise pela regressão logística, para a associação entre DP e SCA, demonstrou RC de 1,8 (IC 95%: 1,0-5,0); p = 0,24. A associação de periodontite com SCA apresentou RC: 4,5 (IC 95%: 1,3-15,6); p = 0,019. CONCLUSÃO: Não observamos associação independente entre a DP e SCA. Houve associação independente entre periodontite e SCA.
Resumo:
FUNDAMENTO: Fórmulas de predição da freqüência cardíaca máxima são amplamente utilizadas em serviços de ergometria e para prescrição de treinamento, contudo há controvérsia na literatura sobre a eficácia delas. OBJETIVO: Comparar a freqüência cardíaca máxima obtida pelo teste ergoespirométrico com as equações propostas por Karvonen e Tanaka. MÉTODOS: Dos 24.120 testes ergoespirométricos máximos, com protocolo de cargas crescentes, realizados em esteira rolante e armazenados no banco de dados do Cemafe, no período de 1994 a 2006, foram resgatados 1.091 resultados da freqüência cardíaca máxima de indivíduos sedentários do sexo masculino e 956 do feminino. Esses dados foram utilizados como padrão-ouro na comparação com as fórmulas de predição propostas por Karvonen e Tanaka. RESULTADOS: Os valores médios da freqüência cardíaca máxima medida foram: 181,0 ± 14,0, 180,6 ± 13,0 e 180,8 ± 13,8, para o sexo masculino, feminino e ambos os sexos, respectivamente. Seguindo o mesmo padrão, os valores para equação de Karvonen foram de 182,0 ± 11,4, 183,7 ± 11,5 e 183,9 ± 11,7; e os de Tanaka 182,0 ± 8,0, 182,6 ± 8,0 e 182,7 ± 8,2. A equação de Karvonen apresentou valores de correlação iguais à de Tanaka, quando comparadas com a freqüência cardíaca máxima medida, r = 0,72. CONCLUSÃO: As equações de Karvonen e Tanaka são semelhantes para predição da freqüência cardíaca máxima e apresentam boa correlação com a freqüência cardíaca máxima medida.
Resumo:
FUNDAMENTO: O VO2 pode ser previsto, com base em parâmetros antropométricos e fisiológicos, para determinadas populações. OBJETIVO: Propor modelos preditivos do VO2 submáximo e máximo para jovens adultos brasileiros. MÉTODOS: Os 137 voluntários (92 homens) foram submetidos ao teste progressivo de esforço máximo (GXT) no ciclo ergômetro (Monark®, Br). Medidas de trocas gasosas e ventilatórias foram realizadas em circuito aberto (Aerosport® TEEM 100, EUA). Em outro grupo, 13 voluntários foram submetidos ao GXT e a um teste de onda quadrada (SWT), para avaliar a validade externa das fórmulas do ACSM, de Neder et al e do nomograma de Åstrand-Ryhming. Adotou-se o delineamento experimental de validação cruzada e o nível de significância de p < 0,05. RESULTADOS: Para homens durante esforços submáximos deduziu-se um modelo matemático, com base na carga de trabalho, massa corporal e idade, que explicou 89% da variação do VO2 com o EPE (erro padrão da estimativa) = 0,33 l.min-1. Para a carga máxima do grupo masculino outro modelo, com as mesmas variáveis, explicou 71% da variação VO2 com EPE = 0,40 l.min-1. Para as mulheres foi possível explicar 93% da variação VO2 com EPE = 0,17 l.min-1, no esforço submáximo e máximo, com apenas uma equação que empregava as mesmas variáveis independentes. CONCLUSÃO: Os modelos derivados no presente estudo demonstraram ser acurados para a previsão do VO2 submáximo e máximo em jovens adultos brasileiros.
Resumo:
FUNDAMENTO: Os pacientes com insuficiência cardíaca (IC) que são internados apresentando má perfusão e congestão (perfil clínico-hemodinâmico C) constituem o grupo que evolui com pior prognóstico na IC descompensada. Entretanto, há pouca informação na literatura se a etiologia da cardiopatia influencia na evolução dos pacientes na fase avançada. OBJETIVO: Avaliar a evolução dos pacientes que se internaram com perfil clínico-hemodinâmico C e verificar o papel da etiologia nesta fase. MÉTODOS: Um estudo de coorte foi realizado incluindo pacientes com fração de ejeção do ventrículo esquerdo (FEVE) < 45,0%, classe funcional IV e internação hospitalar apresentando perfil clínico-hemodinâmico C. O grupo foi dividido em pacientes portadores de cardiomiopatia chagásica (Ch) e não chagásica (NCh). Para análise estatística foram utilizados os testes t de Student, exato de Fisher, qui-quadrado e o programa SPSS. O significante de p < 0,05 foi considerado. RESULTADOS: Cem pacientes, com idade média de 57,6 ± 15,1 anos e FEVE média de 23,8 ± 8,5%, foram incluídos. Dentre os pacientes estudados, 33,0% eram chagásicos e, na comparação com os NCh, apresentaram menor pressão arterial sistólica (Ch 89,3 ± 17,1 mmHg versus NCh 98,8 ± 21,7 mmHg; p = 0,03) e menor idade média - Ch 52,9 ± 14,5 anos versus NCh 59,8 ± 14,9 anos; p = 0,03). Durante o acompanhamento de 25 meses, a mortalidade foi de 66,7% nos Ch e de 37,3% nos NCh (p = 0,019). A etiologia chagásica foi um marcador independente de mau prognóstico na análise multivariada com razão de risco de 2,75 (IC 95,0%; 1,35 - 5,63). CONCLUSÃO: Nos pacientes com IC avançada, a etiologia chagásica é um importante preditor de pior prognóstico.
Resumo:
FUNDAMENTO: Há evidências de que a suspensão do betabloqueador (BB) na descompensação cardíaca pode aumentar mortalidade. A dobutamina (dobuta) é o inotrópico mais utilizado na descompensação, no entanto, BB e dobuta atuam no mesmo receptor com ações antagônicas, e o uso concomitante dos dois fármacos poderia dificultar a compensação. OBJETIVO: Avaliar se a manutenção do BB associado à dobuta dificulta a compensação cardíaca. MÉTODOS: Estudados 44 pacientes com FEVE < 45% e necessidade de inotrópico. Divididos em três grupos de acordo com o uso de BB. Grupo A (n=8): os que não usavam BB na admissão; Grupo B (n=25): os que usavam BB, porém foi suspenso para iniciar a dobuta; Grupo C (n=11): os que usaram BB concomitante à dobuta. Para comparação dos grupos, foram utilizados os testes t de Student, exato de Fisher e qui-quadrado. Considerado significante p < 0,05. RESULTADOS: FEVE média de 23,8 ± 6,6%. O tempo médio do uso de dobuta foi semelhante nos três grupos (p=0,35), e o uso concomitante da dobuta com o BB não aumentou o tempo de internação (com BB 20,36 ± 11,04 dias vs sem BB 28,37 ± 12,76 dias, p=NS). Na alta, a dose do BB foi superior nos pacientes em que a medicação não foi suspensa (35,8 ± 16,8 mg/dia vs 23,0 ± 16,7 mg/dia, p=0,004). CONCLUSÃO: A manutenção do BB associado à dobuta não aumentou o tempo de internação e não foi acompanhada de pior evolução. Os pacientes que não suspenderam o BB tiveram alta com doses mais elevadas do medicamento.
Resumo:
Paciente com sinais e sintomas de insuficiência cardíaca direita de etiologia desconhecida, transferida para tratamento em hospital de referência da zona leste de São Paulo, com diagnóstico de pericardite constritiva calcificada, tratada cirurgicamente. Essa patologia caracteriza-se por processo de calcificação irreversível do pericárdio, e o tratamento cirúrgico é a alternativa para o controle dos sintomas e a melhora da qualidade de vida dos pacientes. Esse caso chamou a atenção pela extensão da calcificação e por seu local de distribuição, atingindo o septo interventricular, fato que dificultou o diagnóstico pelo aspecto inusitado das imagens, deixando dúvida se haveria outra doença associada.
Resumo:
Reconhecer com precisão indivíduos com maior risco imediato de morte súbita cardíaca (MSC) ainda é uma questão em aberto. A natureza fortuita dos eventos cardiovasculares agudos não parece se adequar ao conhecido modelo de indução de taquicardia/fibrilação ventricular por um gatilho em sincronia a um substrato arritmogênico estático. Quanto ao mecanismo da MSC, uma instabilidade elétrica dinâmica explicaria melhor a raridade da associação simultânea de um gatilho certo a um substrato cardíaco apropriado. Diversos estudos tentaram medir essa instabilidade elétrica cardíaca (ou um equivalente válido) em uma sequência de batimentos cardíacos no ECG. Dentre os mecanismos possíveis podemos citar o prolongamento do QT, dispersão do QT, potenciais tardios, alternância de onda T ou T-wave alternans (TWA), e turbulência da frequência cardíaca. Este artigo se atém em particular ao papel da TWA no panorama atual da estratificação de risco cardíaco. Os achados sobre TWA ainda são heterogêneos, variando de um desempenho prognóstico muito bom até um quase nulo, dependendo da população clínica observada e protocolo clínico usado. Para preencher as atuais lacunas no conhecimento sobre TWA, profissionais médicos e pesquisadores devem explorar melhor as características técnicas das diversas tecnologias disponíveis para a avaliação de TWA e atentar ao fato de que os valores de TWA respondem a diversos outros fatores, além de medicamentos. Informações sobre mecanismos celulares e subcelulares da TWA estão fora do escopo deste artigo, mas são referenciados alguns dos principais trabalhos sobre este tópico, com o intuito de auxiliar no entendimento dos conceitos e fatos cobertos neste artigo.
Resumo:
FUNDAMENTO: A necessidade de melhorar a acurácia do teste de esforço, determinou o desenvolvimento de escores, cuja aplicabilidade já foi amplamente reconhecida. OBJETIVO: Avaliação prognóstica do coronariopata estável através de um novo escore simplificado. MÉTODOS: Um novo escore foi aplicado em 372 coronariopatas multiarteriais e função ventricular preservada, 71,8% homens, idade média 59,5 (± 9,07) anos, randomizados para angioplastia, revascularização cirúrgica e tratamento clínico, acompanhados por 5 anos. Óbito cardiovascular foi o desfecho primário. Infarto do miocárdio não-fatal, óbito e re-intervenção formaram o desfecho combinado secundário. O escore baseou-se numa equação previamente validada resultante da soma de 1 ponto para: sexo masculino, história de infarto, angina, diabete, uso de insulina e ainda 1 ponto para cada década de vida a partir dos 40 anos. Teste positivo adicionou 1 ponto. RESULTADOS: Ocorreram 36 óbitos (10 no grupo angioplastia, 15 no grupo revascularização e 11 no grupo clínico), p = 0,61. Observou-se 93 eventos combinados: 37 no grupo angioplastia, 23 no grupo revascularização e 33 no grupo clínico (p = 0,058). 247 pacientes apresentaram escore clínico > 5 pontos e 216 > 6 pontos. O valor de corte > 5 ou > 6 pontos identificou maior risco, com p = 0,015 e p = 0,012, respectivamente. A curva de sobrevida mostrou uma incidência de óbito após a randomização diferente naqueles com escore > 6 pontos (p = 0,07), e uma incidência de eventos combinados diferente entre pacientes com escore < 6 e > 6 pontos (p = 0,02). CONCLUSÃO: O novo escore demonstrou consistência na avaliação prognóstica do coronariopata estável multiarterial.
Resumo:
FUNDAMENTO: Ausência de estudos na literatura validando equações preditivas da frequência cardíaca máxima (FCmáx) em crianças e adolescentes. OBJETIVO: Analisar a validade das equações preditivas da FCmáx "220 - idade" e "208 - (0,7 x idade)" em meninos com idades entre 10 e 16 anos. MÉTODOS: Um teste progressivo de esforço máximo foi realizado em 69 meninos com idades entre 10 e 16 anos, aparentemente saudáveis e ativos. A velocidade inicial do teste foi de 9 km/h com incrementos de 1 km/h a cada três minutos. O teste foi mantido até a exaustão voluntária, considerando-se como FCmáx a maior frequência cardíaca atingida durante o teste. A FCmáx medida foi comparada com os valores preditos pelas equações "220 - idade" e "208 - (0,7 x idade)" através da ANOVA, medidas repetidas. Resultados: Os valores médios da FCmáx (bpm) foram: 200,2 ± 8,0 (medida), 207,4 ± 1,5 ("220 - idade") e 199,2 ± 1,1 ("208 - (0,7 x idade)"). A FCmáx predita pela equação "220 - idade" foi significantemente maior (p < 0,001) que a FCmáx medida e que a FCmáx predita pela equação ("208 - (0,7 x idade)"). A correlação entre a FCmáx medida e a idade não foi estatisticamente significativa (r = 0,096; p > 0,05). CONCLUSÃO: A equação "220 - idade" superestimou a FCmáx medida e não se mostrou válida para essa população. A equação "208 - (0,7 x idade)" se mostrou válida apresentando resultados bastante próximos da FCmáx medida. Estudos futuros estudos com amostras maiores poderão comprovar se a FCmáx não depende da idade para essa população, situação em que o valor constante de 200 bpm seria mais apropriado para a FCmáx.
Resumo:
FUNDAMENTO: A ecocardiografia transtorácica (ETT) é rotineiramente utilizada para calcular a área da valva aórtica (AVA) pela equação de continuidade (EC). No entanto, a medida exata das vias de saída do ventrículo esquerdo (VSVE) pode ser difícil e a aceleração do fluxo no VSVE pode levar a erro de cálculo da AVA. OBJETIVO: O objetivo do nosso estudo foi comparar as medições da AVA por ETT padrão, ressonância magnética cardíaca (RM) e uma abordagem híbrida que combina as duas técnicas. MÉTODOS: A AVA foi calculada em 38 pacientes (idade 73 ± 9 anos) com a ETT padrão, planimetria cine-RM e uma abordagem híbrida: Método híbrido 1: a medição da VSVE derivada pelo ETT no numerador CE foi substituída pela avaliação de ressonância magnética da VSVE e a AVA foi calculada: (VSVE RM/*VSVE-VTI ETT)/transaórtico-VTI ETT; Método 2: Substituímos o VS no numerador pelo VS derivado pela RM e calculamos a AVA = VS RM/transaórtico-VTI ETT. RESULTADOS: Amédia de AVAobtida pela ETTfoi 0,86 cm² ± 0,23 cm² e 0,83 cm² ± 0,3 cm² pela RM-planimetria, respectivamente. A diferença média absoluta da AVA foi de 0,03 cm² para a RM versus planimetria-ressonância magnética. A AVA calculada com o método 1 e o método 2 foi de 1,23 cm² ± 0,4 cm² e 0,92cm² ± 0,32 cm², respectivamente. A diferença média absoluta entre a ETT e os métodos 1 e 2 foi de 0,37 cm² e 0,06 cm², respectivamente (p < 0,001). CONCLUSÃO: A RM-planimetria da AVA e o método híbrido 2 são precisos e demonstraram boa consistência com as medições padrão obtidas pela ETT. Portanto, o método híbrido 2 é uma alternativa razoável na eventualidade de janelas acústicas ruins ou em caso de acelerações de fluxo VSVE que limitem a precisão da ETT, particularmente em pacientes com alto risco de um estudo hemodinâmico invasivo.
Resumo:
FUNDAMENTO: A avaliação clínico-hemodinâmica à beira do leito e o uso do cateter de artéria pulmonar para a estimativa de dados hemodinâmicos têm sido utilizados na insuficiência cardíaca descompensada. Entretanto, não existem dados com o uso da monitorização hemodinâmica contínua não invasiva. OBJETIVO: Comparar as medidas obtidas com a monitorização hemodinâmica não invasiva com as invasivas em pacientes com insuficiência cardíaca descompensada e refratária ao tratamento. MÉTODOS: As medidas hemodinâmicas não invasivas foram obtidas através da monitorização contínua da pressão arterial sistêmica pelo modelo de ondas de pulso (modelflow) e foram comparadas com as medidas obtidas pela passagem do cateter de artéria pulmonar, simultaneamente. RESULTADOS: Foram realizadas 56 medidas em 14 pacientes estudados em dias e horários diferentes. O índice de correlação entre as medidas da pressão arterial sistólica foi de r = 0,26 (IC 95% = 0,00 a 0,49, p = 0,0492) e da diastólica de r = 0,50 (IC 95% = 0,27 a 0,67, p < 0,0001). A correlação foi de r = 0,55 (IC 95% = 0,34 a 0,71, p 0,0001) para o índice cardíaco e de r = 0,32 (IC 95% = 0,06 a 0,53, p = 0,0178) para a resistência vascular sistêmica. CONCLUSÃO: Houve correlação entre as medidas hemodinâmicas não invasivas quando comparadas às medidas do cateter de artéria pulmonar. A monitorização hemodinâmica contínua não invasiva pode ser útil para pacientes internados com insuficiência cardíaca descompensada.
Resumo:
FUNDAMENTO: A doença renal crônica representa hoje um grande desafio para a saúde pública no sentido de se obterem conhecimentos para subsidiar intervenções que possam alterar a velocidade de perda da função renal. OBJETIVO: Avaliar a magnitude do déficit da função renal em hipertensos adultos e sua relação com marcadores inflamatórios: proteína C reativa ultrassensível, velocidade de hemossedimentação e relação neutrófilos/linfócitos. MÉTODOS: Estudo transversal envolvendo 1.273 adultos hipertensos, de ambos os sexos, sendo 1.052 com déficit da função renal e 221 sem déficit, diagnosticados pela equação Modification of Diet in the Renal Disease. A razão de chances (OR) e a razão de prevalência (RP) foram utilizadas para determinar a probabilidade de ocorrência de atividade inflamatória na doença renal. RESULTADOS: O déficit de função renal foi diagnosticado em 82,6% dos avaliados, sendo que a maioria da amostra (70,8%) estava inserida no estágio 2 da doença renal crônica. No modelo de regressão permaneceram independentemente associadas ao déficit da função renal a síndrome metabólica (RPajustada = 1,09 [IC95%: 1,04-1,14]), a proteína C reativa ultrassensível (RPajustada = 1,54 [IC95%: 1,40-1,69]) e a velocidade de hemossedimentação (RPajustada = 1,20 [IC95%: 1,12-1,28]). No entanto, considerando os indivíduos classificados no estágio 2 do déficit da função renal, a chance de alteração dos marcadores inflamatórios foram de OR = 10,25 (IC95%: 7,00-15,05) para a proteína C reativa ultrassensível, OR = 8,50 (IC95%: 5.70-12.71) para a relação neutrófilos/linfócitos e OR = 7,18 (IC95%: 4,87-10,61) para a velocidade de hemossedimentação. CONCLUSÃO: Os resultados mostram associação da atividade inflamatória e da síndrome metabólica com o déficit da função renal.
Resumo:
FUNDAMENTO: A obesidade tem sido identificada como importante fator de risco no desenvolvimento de doenças cardiovasculares, porém outros fatores exercem influência, combinados ou não à obesidade, e devem ser considerados na estratificação de risco cardiovascular em pediatria. OBJETIVO: Analisar a associação entre medidas antropométricas e fatores de risco cardiovascular, investigar os determinantes para as mudanças da pressão arterial (PA) e propor uma equação de predição para circunferência de cintura (CC) em crianças e adolescentes. MÉTODOS: Foram avaliadas 1.950 crianças e adolescentes, com idade entre 7-18 anos. Foi investigada a gordura visceral pela CC e a relação cintura-quadril, PA e índice de massa corporal (IMC). Em uma subamostra selecionada aleatoriamente desses voluntários (n = 578), foram medidos o colesterol total, a glicemia e os triglicerídeos. RESULTADOS: A CC se correlacionou positivamente com o IMC (r = 0,85; p < 0,001) e a PA (PAS r = 0,45 e PAD = 0,37; p < 0,001). A glicemia e os triglicerídeos apresentaram correlação fraca com a CC (r = 0,110; p = 0,008 e r = 0,201; p < 0,001, respectivamente). O colesterol total não se correlacionou com nenhuma variável. Idade, IMC e CC foram preditores significativos nos modelos de regressão para PA (p < 0,001). Propõe-se uma equação de predição da CC para crianças e adolescentes: meninos: y = 17,243 + 0,316 (altura em cm); meninas: y = 25,197 + 0,256 (altura em cm). CONCLUSÃO: A CC está associada com fatores de risco cardiovascular e apresenta-se como fator preditor de risco para hipertensão em crianças e adolescentes. A equação de predição para CC proposta em nosso estudo deve ser testada em futuros trabalhos.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
Na Cristalografia de BOLDYREV, (1934), é deduzida uma equação geral de projetividade [13], que se aplica aos diferentes sistemas cristalográficos. O presente trabalho cuida dos símbolos projetivos de Fedorow, em cada sistema, através da projeção estereográfica.