1000 resultados para História da teoria dos números
Resumo:
Dissertação de mestrado em Filosofia (área de especialização em Filosofia Política)
Resumo:
Doutoramento em Finanças.
Resumo:
OBJETIVO: Examinar o perfil lipídico e parâmetros nutricionais de adolescentes com história familiar de doença arterial coronariana (DAC) prematura e avaliar os efeitos da orientação nutricional. MÉTODOS: O estudo incluiu 48 adolescentes de ambos os sexos e idades entre 10 e 19 anos (grupo caso, n=18; grupo controle, n=30). RESULTADOS: Os filhos de coronarianos jovens apresentaram valores mais elevados de colesterol total (189 ± 30 vs. 167 ± 26 mg/dl, p<0,01), LDL-C (144 ± 20 vs. 100 ± 27 mg/dl, p<0,001) e Apo B (80 ± 15 vs. 61 ± 18 mg/dl, p=0,001) e valores mais baixos de HDL-C (45 ± 9 vs. 51 ± 13 mg/dl, p<0,02) que os jovens controles. Não se observaram diferenças para os triglicérides e Apo A-I. Com a orientação dietoterápica obteve-se redução no consumo alimentar de ácidos graxos saturados (pré: 15,5 ± 4,7% vs. pós: 6,6 ± 3,7%, p=0,003) e melhora no perfil lipídico: CT (-8%, p=0,033), LDL-C (-18,2%, p=0,001), TG (-53%, p=0,002) nos filhos de pacientes com DAC prematura que apresentavam hiperlipidemia. CONCLUSÃO: A presença de dislipidemia foi mais prevalente em adolescentes filhos de portadores de DAC prematura, mas foi responsiva à intervenção nutricional.
Resumo:
FUNDAMENTO: Os pacientes com insuficiência cardíaca (IC) que necessitam ser hospitalizados para compensação constituem grupo de maior gravidade, que evoluem com alta mortalidade e alta taxa de re-hospitalizações. OBJETIVO: Procuramos avaliar a atual história natural da IC por meio da taxa de mortalidade e de re-hospitalizações, nessa nova era do bloqueio neuro-hormonal. MÉTODOS: Acompanhamos a evolução de 263 pacientes com FE média de 27,1%, internados para compensação, entre janeiro de 2005 e outubro de 2006. Foram hospitalizados somente os pacientes que após avaliação e medicação no PS não estavam em condições de ter alta. Os pacientes encontravam-se em CF III/IV, a idade média foi de 59,9±15,2 anos, a maioria homens e 63,1% necessitaram de inotrópicos para compensação na fase aguda. RESULTADOS: O tempo médio de internação foi de 25,1±16,7 dias. Durante a internação 23 (8,8%) morreram. Após a alta, no período médio de seguimento de 370 dias, dos 240 que tiveram alta, 123 (51,2%) procuraram o PS de 1 a 12 vezes (total de passagens: 350), sendo 76 re-internados, sendo a média de dias da re-hospitalização de 23,5±18,0. No primeiro ano de seguimento 62 (25,8%) pacientes morreram. CONCLUSÃO: A IC continua evoluindo com alta mortalidade e alta taxa de re-hospitalização. Ao final do primeiro ano 44,5% desses pacientes não necessitaram passar no PS ou morreram, números que indicam que devemos continuar dando grande atenção aos portadores de IC, na tentativa de mudar a história natural dos portadores dessa síndrome, cada vez mais freqüente.
Resumo:
Poucas descobertas tiveram um impacto tão grande e tamanha relevância para a Medicina clínica como a medição não-invasiva da pressão arterial diastólica. Vários fisiologistas e clínicos talentosos estavam, sem sucesso, em busca de um método não-invasivo para determinar a pressão diastólica. No entanto, a quantificação da pressão arterial diastólica não foi conseguida por qualquer um desses pesquisadores clínicos ou fisiológicos, mas por uma figura improvável e inesperada: Nikolai Sergeevich Korotkoff (1874-1920), um jovem cirurgião do exército russo, trabalhando em condições precárias sob as dificuldades de diversas guerras. É fácil descartar o feito de Korotkoff como uma descoberta fortuita semelhante à de Alexander Fleming na descoberta da penicilina. No entanto, a recente teoria do cisne negro de Nassim N. Taleb pode servir para ilustrar sua descoberta de uma nova e, talvez, surpreendente, forma.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
The main object of the present paper consists in giving formulas and methods which enable us to determine the minimum number of repetitions or of individuals necessary to garantee some extent the success of an experiment. The theoretical basis of all processes consists essentially in the following. Knowing the frequency of the desired p and of the non desired ovents q we may calculate the frequency of all possi- ble combinations, to be expected in n repetitions, by expanding the binomium (p-+q)n. Determining which of these combinations we want to avoid we calculate their total frequency, selecting the value of the exponent n of the binomium in such a way that this total frequency is equal or smaller than the accepted limit of precision n/pª{ 1/n1 (q/p)n + 1/(n-1)| (q/p)n-1 + 1/ 2!(n-2)| (q/p)n-2 + 1/3(n-3) (q/p)n-3... < Plim - -(1b) There does not exist an absolute limit of precision since its value depends not only upon psychological factors in our judgement, but is at the same sime a function of the number of repetitions For this reasen y have proposed (1,56) two relative values, one equal to 1-5n as the lowest value of probability and the other equal to 1-10n as the highest value of improbability, leaving between them what may be called the "region of doubt However these formulas cannot be applied in our case since this number n is just the unknown quantity. Thus we have to use, instead of the more exact values of these two formulas, the conventional limits of P.lim equal to 0,05 (Precision 5%), equal to 0,01 (Precision 1%, and to 0,001 (Precision P, 1%). The binominal formula as explained above (cf. formula 1, pg. 85), however is of rather limited applicability owing to the excessive calculus necessary, and we have thus to procure approximations as substitutes. We may use, without loss of precision, the following approximations: a) The normal or Gaussean distribution when the expected frequency p has any value between 0,1 and 0,9, and when n is at least superior to ten. b) The Poisson distribution when the expected frequecy p is smaller than 0,1. Tables V to VII show for some special cases that these approximations are very satisfactory. The praticai solution of the following problems, stated in the introduction can now be given: A) What is the minimum number of repititions necessary in order to avoid that any one of a treatments, varieties etc. may be accidentally always the best, on the best and second best, or the first, second, and third best or finally one of the n beat treatments, varieties etc. Using the first term of the binomium, we have the following equation for n: n = log Riim / log (m:) = log Riim / log.m - log a --------------(5) B) What is the minimun number of individuals necessary in 01der that a ceratin type, expected with the frequency p, may appaer at least in one, two, three or a=m+1 individuals. 1) For p between 0,1 and 0,9 and using the Gaussean approximation we have: on - ó. p (1-p) n - a -1.m b= δ. 1-p /p e c = m/p } -------------------(7) n = b + b² + 4 c/ 2 n´ = 1/p n cor = n + n' ---------- (8) We have to use the correction n' when p has a value between 0,25 and 0,75. The greek letters delta represents in the present esse the unilateral limits of the Gaussean distribution for the three conventional limits of precision : 1,64; 2,33; and 3,09 respectively. h we are only interested in having at least one individual, and m becomes equal to zero, the formula reduces to : c= m/p o para a = 1 a = { b + b²}² = b² = δ2 1- p /p }-----------------(9) n = 1/p n (cor) = n + n´ 2) If p is smaller than 0,1 we may use table 1 in order to find the mean m of a Poisson distribution and determine. n = m: p C) Which is the minimun number of individuals necessary for distinguishing two frequencies p1 and p2? 1) When pl and p2 are values between 0,1 and 0,9 we have: n = { δ p1 ( 1-pi) + p2) / p2 (1 - p2) n= 1/p1-p2 }------------ (13) n (cor) We have again to use the unilateral limits of the Gaussean distribution. The correction n' should be used if at least one of the valors pl or p2 has a value between 0,25 and 0,75. A more complicated formula may be used in cases where whe want to increase the precision : n (p1 - p2) δ { p1 (1- p2 ) / n= m δ = δ p1 ( 1 - p1) + p2 ( 1 - p2) c= m / p1 - p2 n = { b2 + 4 4 c }2 }--------- (14) n = 1/ p1 - p2 2) When both pl and p2 are smaller than 0,1 we determine the quocient (pl-r-p2) and procure the corresponding number m2 of a Poisson distribution in table 2. The value n is found by the equation : n = mg /p2 ------------- (15) D) What is the minimun number necessary for distinguishing three or more frequencies, p2 p1 p3. If the frequecies pl p2 p3 are values between 0,1 e 0,9 we have to solve the individual equations and sue the higest value of n thus determined : n 1.2 = {δ p1 (1 - p1) / p1 - p2 }² = Fiim n 1.2 = { δ p1 ( 1 - p1) + p1 ( 1 - p1) }² } -- (16) Delta represents now the bilateral limits of the : Gaussean distrioution : 1,96-2,58-3,29. 2) No table was prepared for the relatively rare cases of a comparison of threes or more frequencies below 0,1 and in such cases extremely high numbers would be required. E) A process is given which serves to solve two problemr of informatory nature : a) if a special type appears in n individuals with a frequency p(obs), what may be the corresponding ideal value of p(esp), or; b) if we study samples of n in diviuals and expect a certain type with a frequency p(esp) what may be the extreme limits of p(obs) in individual farmlies ? I.) If we are dealing with values between 0,1 and 0,9 we may use table 3. To solve the first question we select the respective horizontal line for p(obs) and determine which column corresponds to our value of n and find the respective value of p(esp) by interpolating between columns. In order to solve the second problem we start with the respective column for p(esp) and find the horizontal line for the given value of n either diretly or by approximation and by interpolation. 2) For frequencies smaller than 0,1 we have to use table 4 and transform the fractions p(esp) and p(obs) in numbers of Poisson series by multiplication with n. Tn order to solve the first broblem, we verify in which line the lower Poisson limit is equal to m(obs) and transform the corresponding value of m into frequecy p(esp) by dividing through n. The observed frequency may thus be a chance deviate of any value between 0,0... and the values given by dividing the value of m in the table by n. In the second case we transform first the expectation p(esp) into a value of m and procure in the horizontal line, corresponding to m(esp) the extreme values om m which than must be transformed, by dividing through n into values of p(obs). F) Partial and progressive tests may be recomended in all cases where there is lack of material or where the loss of time is less importent than the cost of large scale experiments since in many cases the minimun number necessary to garantee the results within the limits of precision is rather large. One should not forget that the minimun number really represents at the same time a maximun number, necessary only if one takes into consideration essentially the disfavorable variations, but smaller numbers may frequently already satisfactory results. For instance, by definition, we know that a frequecy of p means that we expect one individual in every total o(f1-p). If there were no chance variations, this number (1- p) will be suficient. and if there were favorable variations a smaller number still may yield one individual of the desired type. r.nus trusting to luck, one may start the experiment with numbers, smaller than the minimun calculated according to the formulas given above, and increase the total untill the desired result is obtained and this may well b ebefore the "minimum number" is reached. Some concrete examples of this partial or progressive procedure are given from our genetical experiments with maize.
Resumo:
1) O equilíbrio em populações, inicialmente compostas de vários genotipos depende essencialmente de três fatores: a modalidade de reprodução e a relativa viabilidade e fertilidade dos genotipos, e as freqüências iniciais. 2) Temos que distinguir a) reprodução por cruzamento livre quando qualquer indivíduo da população pode ser cruzado com qualquer outro; b) reprodução por autofecundação, quando cada indivíduo é reproduzido por uma autofecundação; c) finalmente a reprodução mista, isto é, os casos intermediários onde os indivíduos são em parte cruzados, em parte autofecundados. 3) Populações heterozigotas para um par de gens e sem seleção. Em populações com reprodução cruzada se estabelece na primeira geração um equilíbrio entre os três genotipos, segundo a chamada regra de Hardy- Weinberg. Inicial : AA/u + Aa/v aa/u = 1 Equilibirio (u + v/2)² + u + v/2 ( w + v/2) + (w + v/2)² = p2 + 2 p o. q o. + q²o = 1 Em populações com autofecundação o equilíbrio será atingido quando estiverem presentes apenas os dois homozigotos, e uma fórmula é dada que permite calcular quantas gerações são necessárias para atingir aproximadamente este resultado. Finalmente, em populações com reprodução mista, obtemos um equilíbrio com valores intermediários, conforme Quadro 1. Frequência Genotipo Inicial mº Geração Final AA u u + 2m-1v / 2m+1 u + 1/2v Aa v 2/ 2m+2 v - aa w w + 2m - 1/ 2m + 1 v w + 1/2 v 4) Os índices de sobrevivencia. Para poder chegar a fórmulas matemáticas simples, é necessário introduzir índices de sobrevivência para medir a viabilidade e fertilidade dos homozigotos, em relação à sobrevivência dos heterozigotos. Designamos a sobrevivência absoluta de cada um dos três genotipos com x, y e z, e teremos então: x [ A A] : y [ Aa] : z [ aa] = x/y [ A A] : [ Aa] : z/ y [aa] = R A [ AA] : 1 [Aa] : Ra [aa] É evidente que os índices R poderão ter qualquer valor desde zero, quando haverá uma eliminação completa dos homozigotos, até infinito quando os heterozigotos serão completamente eliminados. Os termos (1 -K) de Haldane e (1 -S) ou W de Wright não têm esta propriedade matemática, podendo variar apenas entre zero e um. É ainda necessário distinguir índices parciais, de acordo com a marcha da eliminação nas diferentes fases da ontogenia dos indivíduos. Teremos que distinguir em primeiro lugar entre a eliminação durante a fase vegetativa e a eliminação na fase reprodutiva. Estas duas componentes são ligadas pela relação matemática. R - RV . RR 5) Populações com reprodução cruzada e eliminação. - Considerações gerais. a) O equilibrio final, independente da freqüência inicial dos genes e dos genotipos para valores da sobrevivência diferentes de um, é atingido quando os gens e os genotipos estão presentes nas proporções seguintes: (Quadro 2). po / qo = 1- ro / 1-Ra [AA] (1 - Ro)² . Rav [ Aa] = 2(1 - Ra) ( 1 - Ra) [a a} = ( 1 - Ra)² . RaA b) Fórmulas foram dadas que permitem calcular as freqüências dos genotipos em qualquer geração das populações. Não foi tentado obter fórmulas gerais, por processos de integração, pois trata-se de um processo descontínuo, com saltos de uma e outra geração, e de duração curta. 6) Populações com reprodução cruzada e eliminação. Podemos distinguir os seguintes casos: a) Heterosis - (Quadro 3 e Fig. 1). Ra < 1; Ra < 1 Inicial : Final : p (A)/q(a) -> 1-ra/1-ra = positivo/zero = infinito Os dois gens e assim os três genotipos zigóticos permanecem na população. Quando as freqüências iniciais forem maiores do que as do equilíbrio elas serão diminuidas, e quando forem menores, serão aumentadas. b) Gens recessivos letais ou semiletais. (Quadro 1 e Fig. 2). O equilíbrio será atingido quando o gen, que causa a redução da viabilidade dos homozigotos, fôr eliminado da população. . / c) Gens parcialmente dominantes semiletais. (Quadro 5 e Fig. 3). Rª ; Oz Ra < 1 Inicial : Equilibrio biológico Equilíbrio Matemático pa(A)/q(a) -> positivo /zero -> 1- Rq/ 1-Ra = positivo/negativo d) Genes incompatíveis. Ra > 1 ; Ra > 1; Ra > Ra Equílibrio/biológico p (A)/ q(a) -> positivo/zero Equilibrio matemático -> positivo/ zero -> zero/negativo -> 1-Ra/1 - Ra = negativo/negativo Nestes dois casos devemos distinguir entre o significado matemático e biológico. A marcha da eliminação não pode chegar até o equilíbrio matemático quando um dos gens alcança antes a freqüência zero, isto é, desaparece. Nos três casos teremos sempre uma eliminação relativamente rápida de um dos gens «e com isso do homozigoto respectivo e dos heterozigotòs. e) Foram discutidos mais dois casos especiais: eliminação reprodutiva diferencial dos dois valores do sexo feminino e masculino, -e gens para competição gametofítica. (Quadros 6 e 7 e Figs. 4 a 6). 7) População com autofecundação e seleção. O equilíbrio será atingido quando os genotipos estiverem presentes nas seguintes proporções: (Quadro 8); [AA] ( 0,5 - Ra). R AV [Aa] = 4. ( 0,5 - Ra) . (0.5 -R A) [aa] ( 0,5 - R A) . Rav Também foram dadas fórmulas que permitem calcular as proporções genotípicas em cada geração e a marcha geral da eliminação dos genotipos. 8)Casos especiais. Podemos notar que o termo (0,5 -R) nas fórmulas para as populações autofecundadas ocupa mais ou menos a mesma importância do que o termo (1-R) nas fórmulas para as populações cruzadas. a) Heterosis. (Quadro 9 e Fig. 7). Quando RA e Ra têm valores entre 0 e 0,5, obtemos o seguinte resultado: No equilíbrio ambos os gens estão presentes e os três heterozigotos são mais freqüentes do que os homozigotos. b) Em todos os demais casos, quando RA e Ra forem iguais ou maiores do que 0,5, o equilíbrio é atingido quando estão representados na população apenas os homozigotos mais viáveis e férteis. (Quadro 10). 9) Foram discutidos os efeitos de alterações dos valores da sobrevivência (Fig. 9), do modo de reprodução (Fig. 10) e das freqüências iniciais dos gens (Fig. 8). 10) Algumas aplicações à genética aplicada. Depois de uma discussão mais geral, dois problemas principais foram tratados: a) A homogeneização: Ficou demonstrado que a reprodução por cruzamento livre representa um mecanismo muito ineficiente, e que se deve empregar sempre ou a autofecundação ou pelo menos uma reprodução mista com a maior freqüência possível de acasalamentos consanguíneos. Fórmulas e dados (Quadro 11 e 12), permitem a determinação do número de gerações necessárias para obter um grau razoável de homozigotia- b) Heterosis. Existem dois processos, para a obtenção de um alto grau de heterozigotia e com isso de heterosis: a) O método clássico do "inbreeding and outbreeding". b) O método novo das populações balançadas, baseado na combinação de gens que quando homozigotos dão urna menor sobrevivência do que quando heterozigotos. 11) Algumas considerações sobre a teoria de evolução: a) Heterosis. Os gens com efeito "heterótico", isto é, nos casos onde os heterozigotos s mais viáveis e férteis, do que os homozigotos, oferecem um mecanismo especial de evolução, pois nestes casos a freqüência dos gens, apesar de seu efeito negativo na fase homozigota, tem a sua freqüência aumentada até que seja atingido o valor do equilíbrio. b) Gens letais e semiletais recessivos. Foi demonstrado que estes gens devem ser eliminados automáticamente das populações. Porém, ao contrário do esperado, não s raros por exemplo em milho e em Drosophila, gens que até hoje foram classificados nesta categoria. Assim, um estudo detalhado torna-se necessário para resolver se os heterozigotos em muitos destes casos não serão de maior sobrevivência do que ambos os homozigotos, isto é, que se trata realmente de genes heteróticos. c) Gens semiletais parcialmente dominantes. Estes gens serão sempre eliminados nas populações, e de fato eles são encontrados apenas raramente. d) Gens incompatíveis. São também geralmente eliminados das populações. Apenas em casos especiais eles podem ter importância na evolução, representando um mecanismo de isolamento.