779 resultados para Fórmulas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study focuses on the prospective mediation role of family coping between burden and cortisol levels in informal caregivers of addicts as well as on the feasible use of two different ways to analyse the salivary cortisol levels. Participants were 120 Portuguese informal caregivers of addicts. The cortisol samples were collected at awakening, 45 minutes later and after a 30 minute presentation of images taken from the International Affective Picture System. Family coping and caregiver burden were measured using the Portuguese versions of the Caregiver Reaction Assessment, and the Family Crisis Oriented Personal Evaluation Scale. Cortisol samples were collected in salivettes and the results were computed in order to determine the Area Under the Curve scores (AUCg, AUCi). Results found family coping to be negatively correlated with burden and AUCg levels (i.e. overall intensity) and positively correlated with either AUCg and AUCi (i.e. change over time). The mediation model revealed that family coping was a partial mediator in the relationship between the burden and AUCg levels. Therefore, Family Coping appears to be an essential variable in understanding the stress response and should be considered in further studies and interventions. In addition, the use of two different formulas for calculating cortisol levels provided important new information concerning the relationship between cortisol, burden and family coping. It seems that burden has a more profound effect on the overall intensity of the neuroendocrine response to caregiver stress and not so much on the sensitivity of the system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Urothelial bladder carcinoma (UBC), the most frequent type (90%) of bladder cancer and the second most common malignancy of the urogenital region, is a relatively well understood type of cancer, with numerous studies concerning pathogenetic pathways, natural history and bladder tumor biology being reported. Despite this, it continues to remain a challenge in the oncology field, mostly due to its relapsing and progressive nature, and to the heterogeneity in the response to cisplatin-containing regimens. Although the formulae based on clinical staging and histopathological parameters are classically used as diagnostic and prognostic tools, they have proven insufficient to characterize the individual biological features and clinical behaviour of the tumours. Understanding the pathobiology of the disease can add important information to these classical criteria, and contribute to accurately predict outcome and individualize therapy for UBC patients. In this line of investigation, we found that tumour angiogenesis and lymphangiogenesis, the process of invasion and metastasis and the energy metabolism reprogramming/tumour microenvironment encompass several potential biomarkers that seem to infl bladder cancer aggressiveness and chemoresistance. We particularly highlight the roles of lymphovascular invasion, and of RKIP, CD147 and MCT1 immunoexpressions, as relevant prognostic and/or predictive biomarkers, and as promising areas of therapeutic intervention, eliciting for the development of additional studies that can validate and further explore these biomarkers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao definirem uma estratégia integrada de comunicação para abordagem de novos mercados, as empresas enfrentam novos desafios causados pela distância, não só física, mas também cultural. Mas o que é a distância cultural? Como se encurta e como se torna a comunicação, a este nível, mais eficaz? De que forma a estratégia de comunicação integrada de marketing das empresas tem em conta as características específicas das culturas locais? Este foi o mote para um projecto de investigação que, no seu desenho, considerou a utilização de um estudo de caso: um processo empírico que investiga um fenómeno contemporâneo em profundidade e dentro do seu contexto de vida real, sobretudo quando as fronteiras entre o fenómeno e o contexto não são claramente evidentes. Contexto é precisamente um dos conceitos relevantes neste texto, a par de singularidade. Pelo contexto, externo e interno, cada empresa irá encontrar fórmulas muito singulares de tornar mais eficaz a comunicação intercultural. Ora o estudo de caso é precisamente o estudo do singular, do particular, do único e o investigador, por ser uma parte incontornável do processo de investigação, terá que analisar como o contexto pode afectar o seu trabalho. Em ambos os casos (do empresário e do investigador), a visão do mundo, as preferências e os valores irão influenciar a forma de actuar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Investigar o uso da fluoxetina na cidade de Santo André, SP, por meio de coleta e análise das receitas especiais (RE) prescritas por médicos e arquivadas nas farmácias e drogarias daquela cidade. MÉTODOS: Foram coletadas as receitas especiais retidas durante os meses de agosto do ano de 2005 a julho de 2006, em 13 farmácias de manipulação e em 27 drogarias em diferentes regiões de Santo André. Cada receita especial foi analisada em relação à presença de fluoxetina, em associação ou não a outros princípios ativos, e o sexo do(a) paciente foi anotado. RESULTADOS: Foram analisadas 39.782 RE - 16.124 coletadas das farmácias magistrais e 23.658 das drogarias. Desses totais, 10.919 prescrições continham fluoxetina - 9.259 provenientes das farmácias magistrais (84,8%) e apenas 1.660 (15,2%) das drogarias. As prescrições de fluoxetina eram predominantemente destinadas a mulheres (79,8%). Na imensa maioria das RE, a fluoxetina foi prescrita em associação com um grande número de outras substâncias ativas, inclusive anfetaminas anoréticas, chegando a mais de dez outras em quase a metade das prescrições. Esse tipo de prescrição múltipla, principalmente para mulheres, é comparado com as prescrições de fórmulas magistrais para emagrecer, muito utilizadas no Brasil. CONCLUSÃO: Os dados obtidos sugerem que a utilização de fluoxetina teria um fim estético (perda de peso), e não um fim terapêutico (tratamento de depressão). Discute-se a relação risco-benefício desse possível uso, que poderia ser classificado de inadequado dado as conhecidas reações adversas da fluoxetina e a sua interferência no sistema citocromo P450.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Testar a validade do cálculo da área valvar mitral (AVM) aplicando o método de meia-pressão do Doppler (MP) diretamente às curvas de pressão de átrio esquerdo (AE) e capilar pulmonar (Cap). MÉTODOS: Trinta e cinco pacientes com estenose valvar mitral (EVM) foram submetidos a valvotomia mitral percutânea pela técnica de Cribier com monitorização por cálculos de AVM feitos pelos métodos tradicionais (Gorlin e Eco-Doppler) e pelo proposto. Os valores de AVM calculados antes e após os procedimentos foram comparados entre si e foi aplicado modelo de regressão linear para cálculos recíprocos de AVM. RESULTADOS: Observou-se correlação entre os valores calculados por todos os métodos. O método proposto correlacionou-se fortemente com os demais (p< 0,05) notadamente antes da abertura valvar. Foram encontradas fórmulas simples para cálculo recíproco de AVM. CONCLUSÃO: O método proposto para cálculo de AVM seja sobre a curva pressórica de AE ou Cap mostrou-se preciso e simples monitorizando com segurança os procedimentos de valvotomoa mitral percutânea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los cambios ocurridos en los mercados internacionales, principalmente los acuerdos logrados en la Ronda Uruguay, la superación por parte de Argentina del problema de la aftosa y los avances en el Mercosur conforman un nuevo escenario comercial para Argentina. Sin embargo, la capacidad de la oferta exportable cárnica del país parece ser una limitante a este nuevo desafío que implica la participación de Argentina en el mercado mundial de carne vacuna. Por ello y con la finalidad de brindar elementos para el diseño de políticas externas alternativas para la agroindustria cárnica, resulta de gran interés estimar tanto la disparidad existente entre la potencial participación de Argentina en los mercados internacionales y la oferta interna de carne como así también evaluar los efectos de creación y desvío de comercio que se producen ante las nuevas oportunidades comerciales. La identificación de los importadores -actuales y potenciales- de carne, proveniente de Argentina, se efectuará a partir de la observación documentaria, estimándose la potencial demanda externa de carne a partir del cálculo de las elasticidades, ingreso de la demanda de importaciones (Balassa, 1967). La evaluación de los efectos de creación y desvío de comercio se realizará aplicando las fórmulas de cálculo empleadas por Uhm y Koo (1990). En caso de ser necesario, dadas las características del producto y de los mercados importadores, se introducirán dos modificaciones a las mismas: por un lado, se incorporará la elasticidad de sustitución entre importaciones del producto con distintos orígenes y por otro lado se aplicará la elasticidad de la oferta doméstica del producto con valores diferentes de infinito (Figueroa y Muchnik, 1994). (...) el proyecto tiene como finalidad examinar las corrientes actuales y potenciales (o proyectadas) de comercio de carne bovina entre Argentina y el resto del mundo para el período 1991-1997, considerando distintos escenarios que varían de acuerdo a los supuestos que se fijen en relación al stock ganadero y a la tasa de extracción. Objetivos generales: * Identificar los países que a partir de los acuerdos de acceso de mercados (Ronda Uruguay) serán potenciales consumidores de carne argentina. * Evaluar los volúmenes de carne importados por parte de los países de Asia, luego de los acuerdos sanitarios firmados. * Indagar sobre la demanda potencial de los clientes tradicionales de Argentina: Unión Europea, E.E.U.U., Chile y Brasil. Objetivos específicos: * Estimar los efectos de creación y desvío de comercio para Argentina resultantes de las corrientes de comercio de carne bovina. * Calcular las elasticidades de ingreso de la demanda de importaciones de carne bovina para los actuales y potenciales clientes de Argentina. * Evaluar la oferta interna de carne bovina considerando diferentes tasa de extracción del rodeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: Análise das condições pulmonares dos pacientes no pós-operatório de cirurgia cardíaca pediátrica. OBJETIVO: Avaliar o comportamento da complacência pulmonar e resistência da via aérea nos pacientes portadores de cardiopatias congênitas com hiperfluxo pulmonar, submetidos a tratamento cirúrgico com auxílio de circulação extracorpórea. MÉTODOS: Avaliaram-se, durante a cirurgia, 35 pacientes com medidas de complacência estática e resistência da via aérea, em quatro instantes distintos. As medidas pulmonares foram feitas de forma não-invasiva, com o método de oclusão da via aérea ao final da inspiração e uso de fórmulas matemáticas específicas. As variáveis observadas e relacionadas às alterações pulmonares foram: no período pré-operatório, idade, peso e relação entre fluxo sangüíneo sistêmico e pulmonar; no intra-operatório, tempos de perfusão, de anóxia e temperatura mínima; no pós-operatório, tempo de ventilação mecânica e de permanência na unidade de terapia intensiva. RESULTADOS: Ao final da cirurgia, a complacência pulmonar mostrou aumento significativo imediato (p < 0,001) em todos os pacientes. Os pacientes maiores de 30 meses tiveram maior aumento (p = 0,0004). Aqueles com peso superior a 10 kg também apresentaram maior aumento (p = 0,0006). Os pacientes com tempo de circulação extracorpórea maior que 50 minutos demoraram mais para apresentar aumento da complacência pulmonar (p = 0,04). A resistência da via aérea não apresentou alteração significativa ao final da correção cirúrgica (p = 0,393). CONCLUSÃO: A complacência pulmonar apresentou melhora ao final da cirurgia em todos os pacientes, sendo influenciada de forma significativa por fatores como idade, peso e tempo de circulação extracorpórea. A resistência da via aérea, entretanto, não se alterou.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: O VO2 pode ser previsto, com base em parâmetros antropométricos e fisiológicos, para determinadas populações. OBJETIVO: Propor modelos preditivos do VO2 submáximo e máximo para jovens adultos brasileiros. MÉTODOS: Os 137 voluntários (92 homens) foram submetidos ao teste progressivo de esforço máximo (GXT) no ciclo ergômetro (Monark®, Br). Medidas de trocas gasosas e ventilatórias foram realizadas em circuito aberto (Aerosport® TEEM 100, EUA). Em outro grupo, 13 voluntários foram submetidos ao GXT e a um teste de onda quadrada (SWT), para avaliar a validade externa das fórmulas do ACSM, de Neder et al e do nomograma de Åstrand-Ryhming. Adotou-se o delineamento experimental de validação cruzada e o nível de significância de p < 0,05. RESULTADOS: Para homens durante esforços submáximos deduziu-se um modelo matemático, com base na carga de trabalho, massa corporal e idade, que explicou 89% da variação do VO2 com o EPE (erro padrão da estimativa) = 0,33 l.min-1. Para a carga máxima do grupo masculino outro modelo, com as mesmas variáveis, explicou 71% da variação VO2 com EPE = 0,40 l.min-1. Para as mulheres foi possível explicar 93% da variação VO2 com EPE = 0,17 l.min-1, no esforço submáximo e máximo, com apenas uma equação que empregava as mesmas variáveis independentes. CONCLUSÃO: Os modelos derivados no presente estudo demonstraram ser acurados para a previsão do VO2 submáximo e máximo em jovens adultos brasileiros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O A., pretende facilitar aos práticos a composição de suas próprias fórmulas de ração com os alimentos disponíveis no momento; baseando-se nos conhecimentos e métodos já existentes sobre o assunto, simplifica-os, reduzindo-os ao exame de uma tabela que apresenta, conjuntamente com regras simples e práticas. Os cálculos sáo baseados na composição bruta dos alimentos e se limitam a adição e subtração do teor em proteina de cada ingradiente duma ração cujo total seja 100. Outras sugestões práticas são apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conhecimento da potência necessária para a moagem da cana de açúcar, é de relevante importância, não só para o fabricante de moendas, como para o usineiro e o tecnólogo. Os autores reportando-se ao processo usado por LEHKY no cálculo da potência dos motores destinados ao acionamento das moendas das usinas de açúcar: 1.° - esclarecem a dedução das fórmulas apresentadas por aquele notável engenheiro dos Estabelecimentos Skoda; 2.° - modificam o fator 1,305 da fórmula original usada no cálculo da potência necessária para vencer o atrito da bagaceira, para 1,2987, quando se considera a velocidade linear dos cilindros em metros por minuto; 3.° - apresentam exemplos numéricos de aplicação direta das fórmulas, para diferentes tipos de moendas, demonstrando que o processo usado por LEHKY é praticamente aplicável a qualquer moenda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) O equilíbrio em populações, inicialmente compostas de vários genotipos depende essencialmente de três fatores: a modalidade de reprodução e a relativa viabilidade e fertilidade dos genotipos, e as freqüências iniciais. 2) Temos que distinguir a) reprodução por cruzamento livre quando qualquer indivíduo da população pode ser cruzado com qualquer outro; b) reprodução por autofecundação, quando cada indivíduo é reproduzido por uma autofecundação; c) finalmente a reprodução mista, isto é, os casos intermediários onde os indivíduos são em parte cruzados, em parte autofecundados. 3) Populações heterozigotas para um par de gens e sem seleção. Em populações com reprodução cruzada se estabelece na primeira geração um equilíbrio entre os três genotipos, segundo a chamada regra de Hardy- Weinberg. Inicial : AA/u + Aa/v aa/u = 1 Equilibirio (u + v/2)² + u + v/2 ( w + v/2) + (w + v/2)² = p2 + 2 p o. q o. + q²o = 1 Em populações com autofecundação o equilíbrio será atingido quando estiverem presentes apenas os dois homozigotos, e uma fórmula é dada que permite calcular quantas gerações são necessárias para atingir aproximadamente este resultado. Finalmente, em populações com reprodução mista, obtemos um equilíbrio com valores intermediários, conforme Quadro 1. Frequência Genotipo Inicial mº Geração Final AA u u + 2m-1v / 2m+1 u + 1/2v Aa v 2/ 2m+2 v - aa w w + 2m - 1/ 2m + 1 v w + 1/2 v 4) Os índices de sobrevivencia. Para poder chegar a fórmulas matemáticas simples, é necessário introduzir índices de sobrevivência para medir a viabilidade e fertilidade dos homozigotos, em relação à sobrevivência dos heterozigotos. Designamos a sobrevivência absoluta de cada um dos três genotipos com x, y e z, e teremos então: x [ A A] : y [ Aa] : z [ aa] = x/y [ A A] : [ Aa] : z/ y [aa] = R A [ AA] : 1 [Aa] : Ra [aa] É evidente que os índices R poderão ter qualquer valor desde zero, quando haverá uma eliminação completa dos homozigotos, até infinito quando os heterozigotos serão completamente eliminados. Os termos (1 -K) de Haldane e (1 -S) ou W de Wright não têm esta propriedade matemática, podendo variar apenas entre zero e um. É ainda necessário distinguir índices parciais, de acordo com a marcha da eliminação nas diferentes fases da ontogenia dos indivíduos. Teremos que distinguir em primeiro lugar entre a eliminação durante a fase vegetativa e a eliminação na fase reprodutiva. Estas duas componentes são ligadas pela relação matemática. R - RV . RR 5) Populações com reprodução cruzada e eliminação. - Considerações gerais. a) O equilibrio final, independente da freqüência inicial dos genes e dos genotipos para valores da sobrevivência diferentes de um, é atingido quando os gens e os genotipos estão presentes nas proporções seguintes: (Quadro 2). po / qo = 1- ro / 1-Ra [AA] (1 - Ro)² . Rav [ Aa] = 2(1 - Ra) ( 1 - Ra) [a a} = ( 1 - Ra)² . RaA b) Fórmulas foram dadas que permitem calcular as freqüências dos genotipos em qualquer geração das populações. Não foi tentado obter fórmulas gerais, por processos de integração, pois trata-se de um processo descontínuo, com saltos de uma e outra geração, e de duração curta. 6) Populações com reprodução cruzada e eliminação. Podemos distinguir os seguintes casos: a) Heterosis - (Quadro 3 e Fig. 1). Ra < 1; Ra < 1 Inicial : Final : p (A)/q(a) -> 1-ra/1-ra = positivo/zero = infinito Os dois gens e assim os três genotipos zigóticos permanecem na população. Quando as freqüências iniciais forem maiores do que as do equilíbrio elas serão diminuidas, e quando forem menores, serão aumentadas. b) Gens recessivos letais ou semiletais. (Quadro 1 e Fig. 2). O equilíbrio será atingido quando o gen, que causa a redução da viabilidade dos homozigotos, fôr eliminado da população. . / c) Gens parcialmente dominantes semiletais. (Quadro 5 e Fig. 3). Rª ; Oz Ra < 1 Inicial : Equilibrio biológico Equilíbrio Matemático pa(A)/q(a) -> positivo /zero -> 1- Rq/ 1-Ra = positivo/negativo d) Genes incompatíveis. Ra > 1 ; Ra > 1; Ra > Ra Equílibrio/biológico p (A)/ q(a) -> positivo/zero Equilibrio matemático -> positivo/ zero -> zero/negativo -> 1-Ra/1 - Ra = negativo/negativo Nestes dois casos devemos distinguir entre o significado matemático e biológico. A marcha da eliminação não pode chegar até o equilíbrio matemático quando um dos gens alcança antes a freqüência zero, isto é, desaparece. Nos três casos teremos sempre uma eliminação relativamente rápida de um dos gens «e com isso do homozigoto respectivo e dos heterozigotòs. e) Foram discutidos mais dois casos especiais: eliminação reprodutiva diferencial dos dois valores do sexo feminino e masculino, -e gens para competição gametofítica. (Quadros 6 e 7 e Figs. 4 a 6). 7) População com autofecundação e seleção. O equilíbrio será atingido quando os genotipos estiverem presentes nas seguintes proporções: (Quadro 8); [AA] ( 0,5 - Ra). R AV [Aa] = 4. ( 0,5 - Ra) . (0.5 -R A) [aa] ( 0,5 - R A) . Rav Também foram dadas fórmulas que permitem calcular as proporções genotípicas em cada geração e a marcha geral da eliminação dos genotipos. 8)Casos especiais. Podemos notar que o termo (0,5 -R) nas fórmulas para as populações autofecundadas ocupa mais ou menos a mesma importância do que o termo (1-R) nas fórmulas para as populações cruzadas. a) Heterosis. (Quadro 9 e Fig. 7). Quando RA e Ra têm valores entre 0 e 0,5, obtemos o seguinte resultado: No equilíbrio ambos os gens estão presentes e os três heterozigotos são mais freqüentes do que os homozigotos. b) Em todos os demais casos, quando RA e Ra forem iguais ou maiores do que 0,5, o equilíbrio é atingido quando estão representados na população apenas os homozigotos mais viáveis e férteis. (Quadro 10). 9) Foram discutidos os efeitos de alterações dos valores da sobrevivência (Fig. 9), do modo de reprodução (Fig. 10) e das freqüências iniciais dos gens (Fig. 8). 10) Algumas aplicações à genética aplicada. Depois de uma discussão mais geral, dois problemas principais foram tratados: a) A homogeneização: Ficou demonstrado que a reprodução por cruzamento livre representa um mecanismo muito ineficiente, e que se deve empregar sempre ou a autofecundação ou pelo menos uma reprodução mista com a maior freqüência possível de acasalamentos consanguíneos. Fórmulas e dados (Quadro 11 e 12), permitem a determinação do número de gerações necessárias para obter um grau razoável de homozigotia- b) Heterosis. Existem dois processos, para a obtenção de um alto grau de heterozigotia e com isso de heterosis: a) O método clássico do "inbreeding and outbreeding". b) O método novo das populações balançadas, baseado na combinação de gens que quando homozigotos dão urna menor sobrevivência do que quando heterozigotos. 11) Algumas considerações sobre a teoria de evolução: a) Heterosis. Os gens com efeito "heterótico", isto é, nos casos onde os heterozigotos s mais viáveis e férteis, do que os homozigotos, oferecem um mecanismo especial de evolução, pois nestes casos a freqüência dos gens, apesar de seu efeito negativo na fase homozigota, tem a sua freqüência aumentada até que seja atingido o valor do equilíbrio. b) Gens letais e semiletais recessivos. Foi demonstrado que estes gens devem ser eliminados automáticamente das populações. Porém, ao contrário do esperado, não s raros por exemplo em milho e em Drosophila, gens que até hoje foram classificados nesta categoria. Assim, um estudo detalhado torna-se necessário para resolver se os heterozigotos em muitos destes casos não serão de maior sobrevivência do que ambos os homozigotos, isto é, que se trata realmente de genes heteróticos. c) Gens semiletais parcialmente dominantes. Estes gens serão sempre eliminados nas populações, e de fato eles são encontrados apenas raramente. d) Gens incompatíveis. São também geralmente eliminados das populações. Apenas em casos especiais eles podem ter importância na evolução, representando um mecanismo de isolamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Inicialmente foi dado um breve resumo dos métodos básicos do melhoramento no milho os quais podem ser reunidos em dois grupos principais: o processo do milho híbrido, com as suas variantes, e os processos dos sintéticos. Estes últimos podem ainda ser subdivididos em duas categorias: os sintéticos simples e os sintéticos balançados. Na obtenção dos sintéticos simples toma-se inicialmente em consideração a capacidade combinatória das linhagens a serem misturadas, e se executa em cada geração de sintético uma seleção massal de conservação. Nos balançados devemos acrescentar uma forte seleção, na fase preparatória, contra todos os híbridos que dão segregações mendelianas fortes demais. 2) No curso de um breve resumo histórico ficou evidente que a idéia de se aproveitarem os sintéticos no melhoramento do milho, formulada pela primeira vez por Hayes e Garber (1919) deu resultados práticos apreciáveis. Assim Hayes, Rinke e Tsinang (1944) obtiveram produções de sintéticos que eram equivalentes de um híbrido duplo, Minhybrid 403. Lonnquist (1949) registrou produções de sintéticos idênticos ao híbrido duplo, US 13. Roberts, Wellhausen, Palácios e Guaves (1949) e Wellhausen (1950) relataram resultados bastante satisfatórios, obtidos no México. 3) Ficou demonstrado que as fórmulas de Sewall Wright (1932) e de Mangelsdorf (1939) não podem ser consideradas como explicações gerais do método, pois pela sua derivação pode-se mostrar facilmente que elas exigem certas premissas que nem sempre são justificáveis. 4) Para eliminar confusões na terminologia foi desenvolvido um esquema básico da constituição de sintéticos supondo que se parte de linhagens autofecundadas e que foram plantadas em conjunto para a reprodução de cruzamento livre. A geração que consiste das plantas autofecundadas, plantadas em mistura, é denominada SyO. A geração seguinte, a qual contém uma maior percentagem de híbridos simples e uma menor per-centagem de descendentes de cruzamentos dentro de mesma linhagem (descendentes consanguíneos) representa assim a geração Syl. A geração que segue depois de novo cruzamento livre, Sy2, será então composta de híbridos entre quatro linhagens (híbridos duplos"), entre três linhagens ("three way crosses"), entre duas linhagens ("híbridos simples") e descendentes de combinações consanguíneas, ("inbreds"). Porém se houver uma seleção em Sy1 que elimina todos os descendentes de combinações consanguíneas, sobrevivendo apenas híbridos simples, então a geração Sy2 será composta de híbridos entre plantas que não tem nenhuma das linhagens originais em comum, os que têm uma linhagem em comum e finalmente aqueles que têm duas linhagens em comum. 5) Empregando esta classificação das gerações, podemos verificar que a geração Sy1 de Lonnquist corresponde à geração Sy1 do esquema básico, a geração Sy1 deHayes et al corresponde à geração Sy2 do esquema básico é a geração Sy1 de Wellhausen et al corresponde aproximadamente à geração Sy3 do esquema básico. 6) Uma teoria mais correta dos sintéticos deve-se basear nas regras da genética em populações, as quais foram empregadas por Brieger para justificar o processo dos sintéticos balançados. Uma discussão mais detalhada desta teoria será assim dada numa outra publicação que se ocupara especialmente com ossintéticos balançados.