1000 resultados para Gráficos estatísticos
Resumo:
La ciudad compacta, se ha dispersado en fragmentos deshilvanando el tejido social en fracciones desconectadas del sentido más profundo de lo urbano. Una realidad plena de contradicciones acumula experiencias ajenas a los modelos teóricos de profesionales y de la gestión pública. Los conflictos de la ciudad superan la planificación, siendo la renta del suelo el único paradigma del desarrollo urbano. La presente Investigación pretende reflexionar acerca de las metodologías de trabajo y los instrumentos posibilitantes de una urbanidad sustentable abordando una crítica al actual paradigma de desarrollo urbano. Se pretende el relevamiento de los sectores conpotencial de cambio (fragmentos urbanos, espacios vacantes, áreas degradadas, etc.) transfiriéndolos a una base de datos digitalizada, que pueda convertirse en un instrumento disciplinar y académico Hipótesis Las posibilidades de revisión del modelo de crecimiento extensivo de baja densidad se producen con mayor intensidad en las áreas vacantes de la ciudad. El potencial de los grandes espacios vacantes de la ciudad es definido por la especulación e intereses de los emprendedores que actúan en el mercado. El Código Normativo es el instrumento que consolida este modelo operativo Objetivos �Promover el análisis y crítica de la ciudad y su territorio, a los efectos de posibilitar un proyecto disciplinar con una urbanidad sustentable. �Proponer herramientas de análisis que permita operar de manera eficiente sobre la dinámica de crecimiento. �Elaborar una base digital de datos como instrumento operativo, que favorezca a la comprensión de fenómenos complejos Materiales y métodos a utilizar 1. Recopilación de datos y estudios bibliográficos para definir el marco conceptual y elaboración de metodos de análisis de espacios vacantes. 2. Estudio y análisis de las normativas vigentes 3. Identificación de espacios vacantes de la ciudad de Córdoba, identificando problemas de fragmentación y dispersión urbana y social: técnicas de muestreo. 4. Relevamiento y registro de campo. 5. Experiencia proyectual en la carrera Resultados esperados -Caracterización de fragmentos urbanos de la ciudad de Córdoba -Registro en base de datos identificando fragmentos urbanos de la Ciudad de Córdoba -Elaboración gráficos conceptuales y modelización en 3D -Resultados de experiencia piloto Importancia del proyecto Considerando el crecimiento de la ciudad de Córdoba, la crisis de las infraestructuras a la degradación de los espacios urbanos, la falta de una planificación sustentable y la desactualización de las Normativas Vigentes, se hace necesario la reflexión en el ámbito académico Pertinencia Contar con documentación real y confiable es prioritaria para la gestión de la ciudad, posibilitando articular problemas y oportunidades. Desde el campo metodológico brinda la posibilidad de formar una base teórica suceptible de relacionar la crítica y el proyecto.
Resumo:
(Castells 1997) El Espacio Público (EP) supone un uso social colectivo y de multifuncionalidad (.) la calidad del EP se evalúa por la intensidad y la calidad de las relaciones sociales que facilita debido a su fuerza mixturante de grupos y por su capacidad de estimular la identificación simbólica, la expresión y las integraciones culturales. La realidad muestra discontinuidades generando espacios intersticiales, residuales, alejados de la participación. El EP está integrado por calles, veredas, carreteras, espacios residuales, parques y plazas, siendo los dos últimos los que usualmente se diseñan, descuidando otro tipo de espacio que suponga un uso social colectivo. Con este enfoque la enseñanza del EP no existe, sino que tales espacios aparecen como espacios remanentes de una práctica académica centrada en la producción de objetos. Esta práctica se ve condicionada por la tendencia a la zonificación urbana y a la cultura de la imagen, que se basa en el diseño objetual, situación agravada por los medios gráficos, Ntics y normativas, apareciendo obras imponentes sin contextualizar. El diseño del EP queda afectado por la enseñanza, sin adecuarse a los nuevos modos de apropiación espacial, sin flexibilizarse a los intereses, sin dar una respuesta adecuada que comulgue entre las necesidades y las demandas. Tema: Evaluar la existencia de la brecha entre la práctica profesional (PP) y la enseñanza académica en torno a la concepción y construcción del EP y su incidencia en el uso y resignificación que los ciudadanos hacen del mismo. Hipótesis: -En la PP y en la enseñanza académica el EP comienza a ser pensado y diseñado desde lo objetual y no desde las prácticas sociales. -Los EP son "construidos" a partir de los usos y la apropiación que los ciudadanos hacen de ellos y no sólo desde la concepción disciplinar y la PP -Las representaciones que el ciudadano posee del EP no siempre coinciden con las representaciones propias de la enseñanza ni con las de la PP. Los objetivos: -Analizar la vinculación entre la arquitectura proposicional y la de producción en la concepción y realización del EP -Reflexionar sobre la posible articulación entre el corpus profesional, académico y social. -Reconocer la incidencia de las prácticas sociales en la apropiación, usos y resignificación del EP. La metodología a seguir es cualitativa. Los resultados esperados se basan en el análisis, diagnostico y prognosis del tema problema y la verificación de las hipótesis planteadas. Evaluando modos de uso, grados de apropiación e identificación simbólica, etc. Elaboración de guías de estudio y trabajos prácticos para la cátedra en la enseñanza del diseño. Publicación de producciones teóricas y prácticas y presentar líneas de acción en Congresos. El alcance principal del proyecto es el de acercar los procesos académicos de diseño urbano a las necesidades imperantes y prácticas sociales para las cuales aquellos están destinados y abrir líneas de reflexión en torno a la PP del EP
Resumo:
FUNDAMENTO: Apesar da elevada prevalência de hipertensão arterial em Portugal, a importância relativa que os genes possam exercer na manifestação final dos valores da pressão arterial (PA) parece pouco estudada. OBJETIVOS: Verificar a presença, indireta, de transmissão vertical de fatores genéticos entre progenitores e descendentes nos valores da PA, e estimar a contribuição dos fatores genéticos responsáveis pela variação dos valores de PA em termos populacionais. MÉTODOS: A amostra foi constituída por 367 indivíduos (164 progenitores e 203 descendentes) pertencentes a 107 famílias nucleares provenientes de diferentes regiões do norte de Portugal, participantes do projeto "Famílias Activas". A PA foi medida com um aparelho digital da marca Omron®, modelo M6 (HEM-7001-E). Foram utilizados os softwares estatísticos SPSS 15.0 para a análise exploratória de dados e o cálculo das estatísticas descritivas, e o PEDSTATS para analisar o comportamento genérico das variáveis entre os diferentes membros da família. O cálculo das correlações entre familiares e as estimativas de heritabilidade foram realizados nos módulos FCOR e ASSOC do software de epidemiologia genética S.A.G.E., versão 5.3. RESULTADOS: Para a PA sistólica (PAS), os valores das correlações entre os graus de parentesco foram de baixos a moderados (0,21< r <0,35). Para a PA diastólica (PAD), os valores encontrados foram moderados (0,24< r <0,50). Os fatores genéticos explicaram cerca de 43 e 49% da variação total da PAS e da PAD, respectivamente. CONCLUSÃO: Os resultados evidenciaram que uma quantidade moderada da PAS e da PAD é imputada a fatores genéticos.
Resumo:
El objetivo del presente proyecto es estudiar los procesos físicos y químicos del radical OH con compuestos orgánicos volátiles (COVs), con los cuales sea factible la formación de agregados de van der Waals (vdW) responsables de la curvatura en los gráficos de Arrhenius, empleando técnicas modernas, complementarias entre si y novedosas en el país. El problema será abordado desde tres perspectivas complementarias: 1) estudios cinéticos, 2) estudios mecanísticos y de distribución de productos y 3) estudios de la dinámica de los procesos físicos y químicos. La finalidad es alcanzar una mejor comprensión de los mecanismos que intervienen en el comportamiento químico de especies presentes en la atmósfera y obtener datos cinéticos de alta calidad que puedan alimentar modelos computacionales capaces de describir la composición de la atmósfera, presente y futura. Los objetivos son estudiar: 1) mediante fotólisis láser pulsada con detección por fluorescencia inducida por láser (PLP-LIF), en reactores de flujo, la cinética de reacción del radical OH(v”=0) con COVs que presentan gráficos de Arrhenius curvos con energías de activación negativas, tales como alcoholes insaturados, alquenos halogenados, éteres halogenados, ésteres alifáticos; 2) en una cámara de simulación de condiciones atmosféricas de gran volumen (4500 L), la identidad y el rendimiento de productos de las reacciones mencionadas, a fines de evaluar su impacto atmosférico y dilucidar los mecanismos de reacción; 3) mediante haces moleculares y espectroscopía láser, la estructura y reactividad de complejos de vdW entre alcoholes insaturados o aromáticos (cresoles) y el radical OH, como modelo de los aductos propuestos como responsables de la desviación al comportamiento de Arrhenius de las reacciones mencionadas; 4) mediante PLP-LIF y expansiones supersónicas, las constantes específicas estado a estado (ksts) de relajación/reacción del radical OH(v”=1-4) vibracionalmente excitado con los COVs mencionados. Los resultados experimentales obtenidos serán contrastados con cálculos ab-initio de estructura electrónica, los cuales apoyarán las interpretaciones, permitirán proponer estructuras de estados de transición y aductos colisionales, como así también calcular las frecuencias de vibración de los complejos de vdW para su posterior asignación en los espectros LIF y REMPI. Asimismo, los mecanismos de reacción propuestos y los parámetros cinéticos medidos experimentalmente serán comparados con aquellos obtenidos por cálculos teóricos. The aim of this project is to study the physical and chemical processes of OH radicals with volatile organic compounds (VOCs) with which the formation of van der Waals (vdW) clusters, responsible for the observed curvature in the Arrhenius plots, might be feasible. The problem will be addressed as follow : 1) kinetic studies; 2) products distribution and mechanistic studies and 3) dynamical studies of the physical and chemical processes. The purpose is to obtain a better understanding of the mechanisms that govern the chemical behavior of species present in the atmosphere and to obtain high quality kinetic data to be used as input to computational models. We will study: 1) the reaction kinetics of OH (v”=0) radicals with VOCs such as unsaturated alcohols, halogenated alkenes, halogenated ethers, aliphatic esters, which show curved Arrhenius plots and negative activation energies, by PLP-LIF, in flow systems; 2) in a large volume (4500 L) atmospheric simulation chamber, reaction products yields in order to evaluate their atmospheric impact and reaction mechanisms; 3) using molecular beams and laser spectroscopy, the structure and reactivity of the vdW complexes formed between the unsaturated or aromatic alcohols and the OH radicals as a model of the adducts proposed as responsible for the non-Arrhenius behavior; 4) the specific state-to-state relaxation/reaction rate constants (ksts) of the vibrationally excited OH (v”=1-4) radical with the VOCs by PLP-LIF and supersonic expansions. Ab-initio calculations will be carried out to support the interpretation of the experimental results, to obtain the transition state and collisional adducts structures, as well as to calculate the vibrational frequencies of the vdW complexes to assign to the LIF and REMPI spectra. Also, the proposed reaction mechanisms and the experimentally measured kinetic parameters will be compared with those obtained from theoretical calculations.
Resumo:
FUNDAMENTO: Alguns estudos desenvolveram escores para avaliar o risco cirúrgico, particularmente o EuroSCORE que, entretanto, é complexo e trabalhoso. Sugerimos um escore novo e simples, mais adequado para a prática clínica e para a avaliação de risco cirúrgico em pacientes valvopatas. OBJETIVO: Este estudo foi realizado para criar e validar um escore simples e prático para predizer mortalidade e morbidade em cirurgia valvar. MÉTODOS: Coletamos dados hospitalares de 764 pacientes e realizamos a validação do escore, utilizando dois modelos estatísticos: óbito (= mortalidade) e tempo de internação hospitalar (TIH) > 10 dias (= morbidade). O escore foi composto de quatro índices (V [lesão valvar], M [função miocárdica], C [doença arterial coronariana] e P [pressão da artéria pulmonar]). Estabelecemos um valor de corte para o escore, e foram utilizadas análises uni e multivariada para confirmar se o escore seria capaz de predizer mortalidade e morbidade. Também estudamos se havia associação com outros fatores de risco. RESULTADOS: O escore foi validado, com boa consistência interna (0,65), e o melhor valor de corte para mortalidade e morbidade foi 8. O escore com valor > 8 pode predizer TIH > 10 dias (odds ratio (OR) = 1,7 p=0,006), e um maior risco de óbito ao menos na análise univariada (p=0,049). Entretanto, o risco de óbito não foi previsível na análise multivariada (p=0,258). CONCLUSÃO: O escore VMCP > 8 pode predizer TIH > 10 dias e pode ser usado como uma nova ferramenta para o seguimento de pacientes portadores de valvopatia submetidos a cirurgia.
Resumo:
FUNDAMENTO: As doenças do aparelho circulatório (DAC), um dos mais importantes problemas de saúde da atualidade, apesar de proporcionalmente ainda liderarem as estatísticas de morbi-mortalidade, começam a apresentar tendência declinante da mortalidade em diversos países. OBJETIVO: Analisar a tendência da mortalidade por DAC nas capitais brasileiras, no período de 1950 a 2000. MÉTODOS: Estudo de série temporal das razões de mortalidade padronizadas por DAC. Utilizamos dados secundários de óbitos dos anuários estatísticos do IBGE e do Sistema de Informação de Mortalidade. Realizamos análise de tendência linear das razões de mortalidade padronizadas por DAC nas capitais brasileiras que apresentaram séries completas de mortalidade, considerando os anos censitários do período do estudo (1950 a 2000). RESULTADOS: Apesar de proporcionalmente as DAC representarem a primeira causa de óbito na população brasileira, bem como apresentarem crescimento proporcional no período de análise deste estudo, o risco de óbito, representado pelas razões de mortalidade padronizadas, apresenta-se em decréscimo, particularmente a partir da década de 80. Destacam-se as cidades de Fortaleza, Salvador, Belo Horizonte, Rio de Janeiro e São Paulo, que apresentam razões de mortalidade padronizadas elevadas, porém em decréscimo (p < 0,05 e p < 0,10) desde o início do período analisado. CONCLUSÃO: O comportamento do risco de óbito por DAC sugere que esse grupo de enfermidades é o que primeiro se estabelece, acompanhando o aumento da industrialização no Brasil, verificado a partir da década de 1930 e após a Segunda Guerra Mundial, Como ocorreu em São Paulo e Rio de Janeiro, que historicamente experimentaram um processo de desenvolvimento e urbanização anterior e diferenciado em relação às outras capitais.
Resumo:
FUNDAMENTO: Muitos métodos são empregados para determinar o Limiar Anaeróbio (LAn) por meio de ergoespirômetros sofisticados. OBJETIVO: Testar a variação no LAn, detectado por modelos matemáticos e de inspeção visual, quando empregado ergoespirômetro de baixo custo e destinado à aplicação clínica. MÉTODOS: Foram voluntários para esse estudo 79 indivíduos aparentemente saudáveis; desses, 57 homens. O VO2máx e o limiar ventilatório foram determinados por calorimetria indireta de circuito aberto. O método eletroenzimático foi empregado para análise da lactacidemia e determinação direta do limiar de lactato (LL). O LAn foi determinado por dois métodos matemáticos (MM SQR e MMslope), baseados nas trocas gasosas, e pelo método de inspeção visual do log-log, para determinação do LL. Dois pesquisadores independentes determinaram o LAn através da inspeção visual de três gráficos, considerando dois métodos (LAn-a= V-slope, EqV; e LAn-b = V-slope, EqV e ExCO2). Os dados foram analisados por meio da estatística paramétrica para determinação das diferenças entre LAn-a versus ExCO2, MM SQR e MMslope; LAn-b versus MM SQR e MMslope; e LL versus LAn-a, LAN-b, MM SQR e MMslope. RESULTADOS: O MMslope foi o único método que apresentou diferença significativa entre o LAn-a e LAn-b (p=0,001), com CV% >15. O LL versus MMslope não apresentou diferença significativa (p=0,274), contudo, observou-se um elevado CV (24%). CONCLUSÃO: Conclui-se que com o equipamento de baixo custo os métodos MM SQR e LAn-a podem ser utilizados para a determinação do LAn. O método MMslope não apresentou precisão satisfatória para ser empregado com esses equipamentos.
Resumo:
FUNDAMENTO: Escores de risco apresentam dificuldades para obter o mesmo desempenho em diferentes populações. OBJETIVO: Criar um modelo simples e acurado para avaliação do risco nos pacientes operados de doença coronariana e/ou valvar no Instituto do Coração da Universidade de São Paulo (InCor-HCFMUSP). MÉTODOS: Entre 2007 e 2009, 3.000 pacientes foram operados consecutivamente de doença coronariana e/ou valvar no InCor-HCFMUSP. Desse registro, dados de 2/3 dos pacientes foram utilizados para desenvolvimento do modelo (técnica de bootstrap) e de 1/3 para validação interna do modelo. O desempenho do modelo (InsCor) foi comparado aos complexos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES). RESULTADOS: Apenas 10 variáveis foram selecionadas: Idade > 70 anos; sexo feminino; cirurgia de revascularização coronariana + valva; infarto de miocárdio < 90 dias; reoperação; tratamento cirúrgico da valva aórtica; tratamento cirúrgico da valva tricúspide; creatinina < 2mg/dL; fração de ejeção < 30%; e eventos. O teste de Hosmer Lemeshow para o InsCor foi de 0,184, indicando uma excelente calibração. A área abaixo da curva ROC foi de 0,79 para o InsCor, 0,81 para o ES e 0,82 para o 2000BP, confirmando que os modelos são bons e similares na discriminação. CONCLUSÕES: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de doença coronariana e/ou valvar no InCor-HCFMUSP.
Resumo:
FUNDAMENTO: A variabilidade da frequência cardíaca (VFC) é um importante indicador da modulação autonômica da função cardiovascular. A diabetes pode alterar a modulação autonômica danificando as entradas aferentes, dessa forma aumentando o risco de doenças cardiovasculares. Foram aplicados métodos analíticos não lineares para identificar os parâmetros associados com VFC indicativos de alterações na modulação autonômica da função cardíaca em pacientes diabéticos. OBJETIVO: Analisamos as diferenças nos padrões da VFC entre pacientes diabéticos e controles saudáveis pareados por idade, utilizando métodos não-lineares. MÉTODOS: Plot de Poincaré Lagged, autocorrelação e análise de flutuação destendenciada foram aplicados para analisar a VFC em registros de eletrocardiograma (ECG). RESULTADOS: A análise do gráfico de Poincaré lagged revelou alterações significativas em alguns parâmetros, sugestivas de diminuição da modulação parassimpática. O expoente de flutuação destendencionada derivado de um ajuste em longo prazo foi maior que o expoente em curto prazo na população diabética, o que também foi consistente com a diminuição do input parassimpático. A função de autocorrelação do desvio dos intervalos inter-batimento exibiu um padrão altamente correlacionado no grupo de diabéticos em comparação com o grupo controle. CONCLUSÃO: O padrão de VFC difere significativamente entre pacientes diabéticos e indivíduos saudáveis. Os três métodos estatísticos utilizados no estudo podem ser úteis para detectar o início e a extensão da neuropatia autonômica em pacientes diabéticos.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
No trabalho apresentado, estudou-se a cinética de absorção de íons, baseado na equação de LINEWEAVER & bURk (1934). o estudo visou verificar o efeito competitivo ou não do íon Mg²+ na absorção do íon Ca²+. Para facilidade do estudo, soluções de CaCl2 marcadas com 45Ca foram administradas em diferentes concentrações à tecidos foliares de café (Coffea arabica L., cv. 'Mundo Novo'), em solução contendo ou não uma concentração conhecida de MgCl2 segundo a técnica de SMITH & EPSTEIN (1964a e 1964b). São apresentados também cálculos estatísticos, considerados inéditos na aplicação do presente estudo. Conclue-se que há inibição competitiva devida ao íon Mg²+ pelos centros ativos dos carregadores.
Resumo:
Há uma relação de simetria entre os estereogramas construídos através do método analítico de determinação da indicatriz ótica de minerais em secção delgada, na platina universal. Esta simetria é discutida neste trabalho. Trata-se de uma plano-simetria que ocorre tanto entre gráficos como entre curvas ψ1 e ψ2 , quando ψ1 + ψ2 = 90°.
Resumo:
São estudadas granulometria e mineralogia da fração areia de três solos classificados como Latossol Vermelho Amarelo, da região do médio rio São Francisco, BA. Foram empregados os parâmetros estatísticos propostos por FOLK e WARD (1957), para estudo de granulometria; para estudos de mineralogia, utilizou-se o resíduo pesado da fração 250 a 50µ. Quanto a granulometria, os solos apresentam grande homogeneidade, com material moderadamente selecionado, predominando as frações finas. Mineralogicamente, são de elevada maturidade, com minerais altamente estáveis, que passaram por mais de um ciclo de sedimentação. A distribuição dos minerais pesados ao longo dos perfis sugere a presença de descontinuidades litológicas.
Resumo:
Os perfis de Latossolos da bacia do ribeirão do Lobo, região de S. Carlos, Brotas e Itirapina, SP, classificados inicialmente pela COMISSÃO DE SOLOS (1960) e re-classificados por FREIRE et alii (1978), foram amostrados e estudados através de análise granulométrica, empregando-se os parâmetros estatísticos propostos por FOLK & WARD (1957). Os principais objetivos do trabalho são a caracterização desses solos, elucidação de sua gênese e evolução, bem como verificar a aparente uniformidade morfológica evidenciada pela classificação de FREIRE et alli(1978). Os resultados obtidos mostraram que os perfis estudados se distribuem em duas categorias distintas: uma que apresenta tendência para se deslocar para o lado das frações mais grosseiras, tem como moda fração areia fina e curvas de distribuição de frequência de tamanho simétricas;outra onde a fração modal é constituida pela areia média com porcentagem de argila cerca de 30 a 40% maior gue a primeira e curvas de distribuição de freguência de tamanho assimétricas. Prováveis ocorrências de descontinuidades litológicas não puderam ser indicadas pelos resultados obtidos, mas indícios podem ser sugeridos pelos valores de grau de seleção, grau de assimetria e curtose, sem que, entretanto seja um dado conclusivo.
Resumo:
Os autores mostraram a necessidade de estudar minuciosamente os fócos da doença para o melhor conhecimento das questões epidemiológicas e clínicas da mesma. Mostraram que os Veados e Cabritos pódem desempenhar papel importante na difusão do virus. Os autores dão gráficos sôbre a reação de Weil-Felix com nove Proteus em homens e animais.