931 resultados para Transformada Wavelet Discreta
Resumo:
La utilización de los plásticos ha crecido dramáticamente durante los últimos 30 años y en forma paralela también se ha incrementado el volumen de desperdicios provenientes de los mismos. La distribución individual de los mismos en los residuos domiciliarios varía de acuerdo al origen socioeconómico de los grupos sociales, oscilando entre 39-47% de polietileno PE, 27-41% de polietilentereftalato PET, 5-12% de poliestireno PS, 10-15% de polipropileno PP, entre otros; ocupando entre 9-12% de los desperdicios en rellenos sanitarios (expresado en porcentajes en peso). Para el aprovechamiento de los residuos plásticos existen diferentes opciones, de las cuales el reciclado químico aparece como la alternativa más prometedora tanto ambiental como económica. Dentro del reciclado químico de los desechos plásticos, se encuentra el craqueo catalítico, que es un proceso a partir del cual se pueden obtener hidrocarburos líquidos y gaseosos de gran valor agregado, a partir de la adición de catalizadores, lo cual mejora la tecnología puramente térmica, ya que el espectro en la distribución de productos es mucho más reducido, permitiendo alcanzar mayor selectividad hacia ciertos productos en función de las características del catalizador utilizado, reduciendo los tiempos de reacción y las temperaturas del proceso a 350-550°C. En la presente investigación se propone la síntesis de materiales catalíticos a medida con base en materiales microporosos (Zeolitas), para la transformación de residuos plásticos en hidrocarburos de interés para la industria petroquímica o combustibles. Los materiales catalíticos (del tipo ZSM-11, BETA) se prepararán por técnicas hidrotérmicas, a los cuales se les incorporarán funciones activas (H, Zn, Co, Cr, Ni, Mn) empleando tratamientos químicos y térmicos. Se caracterizarán mediante el empleo de diversas técnicas fisicoquímicas, tales como Difracción de rayos X, Absorción Atómica, Análisis Térmicos, Espectroscopía Infrarrojo con transformada de Fourier, BET, Microscopía de barrido electrónico con microsonda y Mediciones de propiedades magnéticas ( a temperatura ambiente con variación de campo y a campo constante con variación de temperatura). Finalmente estos materiales se emplearán en la transformación de residuos plásticos (PEBD, PEAD y mezclas de los mismos) a hidrocarburos aromáticos y cortes de combustibles. Se estudiará de las influencia de condiciones operativas (reactor de lecho fijo a presión atmosférica, temperaturas de reacción, tiempos de reacción, relación polímero/catalizador, etc.), a los fines de optimizar el sistema catalítico. Aquellos catalizadores que presenten mejor comportamiento para el proceso, serán evaluados a bajos tiempos de contacto en un reactor discontinuo de lecho fluidizado, denominado Simulador de Riser.
Resumo:
La utilización de los plásticos ha crecido dramáticamente durante los últimos 30 años y en forma paralela también se ha incrementado el volumen de desperdicios provenientes de los mismos. La distribución individual de los mismos en los residuos domiciliarios varía de acuerdo al origen socioeconómico de los grupos sociales, oscilando entre 39-47% de polietileno PE, 27-41% de polietilentereftalato PET, 5-12% de poliestireno PS, 10-15% de polipropileno PP, entre otros; ocupando entre 9-12% de los desperdicios en rellenos sanitarios (expresado en porcentajes en peso). Para el aprovechamiento de los residuos plásticos existen diferentes opciones, de las cuales el reciclado químico aparece como la alternativa más prometedora tanto ambiental como económica. Dentro del reciclado químico de los desechos plásticos, se encuentra el craqueo catalítico, que es un proceso a partir del cual se pueden obtener hidrocarburos líquidos y gaseosos de gran valor agregado, a partir de la adición de catalizadores, lo cual mejora la tecnología puramente térmica, ya que el espectro en la distribución de productos es mucho más reducido, permitiendo alcanzar mayor selectividad hacia ciertos productos en función de las características del catalizador utilizado, reduciendo los tiempos de reacción y las temperaturas del proceso a 350-550°C. En la presente investigación se propone la síntesis de materiales catalíticos a medida con base en materiales microporosos (Zeolitas), para la transformación de residuos plásticos en hidrocarburos de interés para la industria petroquímica o combustibles. Los materiales catalíticos (del tipo ZSM-11, BETA) se prepararán por técnicas hidrotérmicas, a los cuales se les incorporarán funciones activas (H, Zn, Co, Cr, Ni, Mn) empleando tratamientos químicos y térmicos. Se caracterizarán mediante el empleo de diversas técnicas fisicoquímicas, tales como Difracción de rayos X, Absorción Atómica, Análisis Térmicos, Espectroscopía Infrarrojo con transformada de Fourier, BET, Microscopía de barrido electrónico con microsonda y Mediciones de propiedades magnéticas ( a temperatura ambiente con variación de campo y a campo constante con variación de temperatura). Finalmente estos materiales se emplearán en la transformación de residuos plásticos (PEBD, PEAD y mezclas de los mismos) a hidrocarburos aromáticos y cortes de combustibles. Se estudiará de las influencia de condiciones operativas (reactor de lecho fijo a presión atmosférica, temperaturas de reacción, tiempos de reacción, relación polímero/catalizador, etc.), a los fines de optimizar el sistema catalítico. Aquellos catalizadores que presenten mejor comportamiento para el proceso, serán evaluados a bajos tiempos de contacto en un reactor discontinuo de lecho fluidizado, denominado Simulador de Riser.
Resumo:
FUNDAMENTO: A lesão renal aguda (LRA) é uma doença complexa para a qual, atualmente, não há uma definição padrão aceita. A AKIN (Acute Kidney Injury Network) representa uma tentativa de padronização dos critérios para diagnóstico e estadiamento da LRA, baseando-se nos critérios RIFLE (risk, injury, failure, loss, e end-stage kidney disease), publicados recentemente. OBJETIVOS: Avaliar a incidência e mortalidade associada à LRA em pacientes submetidos à revascularização do miocárdio (RM) com circulação extracorpórea (CEC). MÉTODOS: O total de 817 pacientes foi dividido em dois grupos: LRA negativa (-), com 421 pacientes (51,5%), e LRA positiva (+), com 396 pacientes (48,5%). Foi considerado LRA a elevação da creatinina em 0,3 mg/dl ou aumento em 50% da creatinina em relação a seu valor basal. RESULTADOS: A mortalidade em 30 dias dos pacientes com e sem LRA foi de 12,6 % e 1,4%, respectivamente (p < 0,0001). Em um modelo de regressão logística multivariada, LRA após RM com CEC foi preditora independente de óbito em 30 dias (OR 6,7 - p = 0,0002). Esse grupo de pacientes teve maior tempo de permanência em UTI [mediana 2 dias (2 a 3) vs. 3 dias (2 a 5) - p < 0,0001)] e uma maior proporção de pacientes com permanência prolongada na terapia intensiva (> 14 dias) - 14% vs. 2%; p < 0,0001. CONCLUSÃO: Na população estudada, mesmo uma discreta alteração da função renal baseada nos critérios do "Acute Kidney Injury Network - AKIN" foi preditora independente de óbito em 30 dias após RM com CEC.
Resumo:
FUNDAMENTO: Disfunção diastólica é frequente em pacientes de hemodiálise, mas seu impacto na evolução clínica é incerto. OBJETIVO: Avaliar a prevalência e o impacto prognóstico da disfunção diastólica (DD) avançada (DDA) do ventrículo esquerdo (VE) em pacientes de hemodiálise. MÉTODOS: Ecocardiogramas foram realizados em pacientes no primeiro ano de hemodiálise, em ritmo sinusal, sem doença cardiovascular manifestada, excluindo-se aqueles com valvopatia significativa ou derrame pericárdico. Pela avaliação integrada dos dados ecodopplercardiográficos, a função diastólica foi classificada como: 1) normal, 2) DD discreta (alteração do relaxamento) e 3) DDA (pseudonormalização e fluxo restritivo). Os desfechos pesquisados foram mortalidade geral e eventos cardiovasculares. RESULTADOS: Foram incluídos 129 pacientes (78 homens), com idade 52 ± 16 anos e prevalência de DD de 73% (50% com DD discreta e 23% com DDA). No grupo com DDA, demonstrou-se maior idade (p < 0,01), pressão arterial sistólica (p < 0,01) e diastólica (p = 0,043), massa do VE (p < 0,01), índice do volume do átrio esquerdo (p < 0,01) e proporção de diabéticos (p = 0,019), além de menor fração de ejeção (p < 0,01). Após 17 ± 7 meses, a mortalidade geral foi significativamente maior naqueles com DDA, em comparação aos normais e com DD discreta (p = 0,012, log rank test). Na análise multivariada de Cox, a DDA foi preditiva de eventos cardiovasculares (hazard ratio 2,2, intervalo de confiança 1,1-4,3, p = 0,021) após ajuste para idade, gênero, diabete, massa do VE e fração de ejeção. CONCLUSÃO: A DDA subclínica foi encontrada em aproximadamente um quarto dos pacientes de hemodiálise e acarretou impacto prognóstico, independente de outros dados clínicos e ecocardiográficos.
Resumo:
FUNDAMENTO: Insuficiência cardíaca (IC) causada por Doença de Chagas (DC) é uma cardiomiopatia inflamatória progressiva que afeta milhões de pessoas na América Latina. Estudos com modelos de camundongo de IC devido à DC indicam que o transplante de células mononucleares derivadas da medula óssea (TCDMO) pode reduzir a inflamação, fibrose e melhorar a função miocárdica. OBJETIVO: O propósito desse estudo foi avaliar, pela primeira vez em seres humanos, a segurança e a eficácia de TCDMO no miocárdio de pacientes com IC devido à DC. MÉTODOS: Um total de 28 pacientes com IC devido à DC (média de idade de 52,2 ± 9,9 anos) com classe funcional NYHA III e IV foram submetidos à TCDMO através de injeção coronariana. Os efeitos na fração de ejeção do ventrículo esquerdo (FEVE), capacidade funcional, qualidade de vida, arritmias e parâmetros bioquímicos, imunológicos e neuro-humorais foram avaliados. RESULTADOS: Não houve complicações diretamente relacionadas ao procedimento. A FEVE foi 20,1 ± 6,8% e 28,3 ± 7,9%, p < 0,03 a nível basal e 180 dias após o procedimento, respectivamente. No mesmo período, melhoras significantes foram observadas na classe funcional NYHA (3,1 ± 0,3 para 1,8 ± 0,5; p < 0,001), qualidade de vida (50,9 ± 11,7 para 25,1 ± 15,9; p < 0,001), e no teste de caminhada de seis minutos (355 ± 136 m para 437 ± 94 m; p < 0,01). Não houve alterações nos marcadores de ativação imune ou neurohormonais. Nenhuma complicação foi registrada. CONCLUSÃO: Nossos dados sugerem que a injeção intracoronariana de células derivadas da medula óssea é segura e potencialmente efetiva em pacientes com IC devido à DC. A extensão do benefício, entretanto, parece ser discreta e precisa ser confirmada em estudos clínicos maiores, randomizados, duplo-cegos, controlados com placebo.
Resumo:
FUNDAMENTO: A telecardiologia é instrumento que pode auxiliar na atenção cardiovascular, principalmente em municípios localizados em áreas remotas. Entretanto, as avaliações econômicas sobre o assunto são escassas e com resultados controversos. OBJETIVO: Avaliar o custo-benefício da implantação do serviço de telecardiologia em municípios remotos, de pequeno porte, no estado de Minas Gerais, Brasil. MÉTODOS: O estudo utilizou a base de dados do Projeto Minas Telecardio (MTC), desenvolvido de junho/2006 a novembro/2008, em 82 municípios do interior do estado. Cada município recebeu um microcomputador com eletrocardiógrafo digital, com possibilidade de envio dos traçados e comunicação com plantão de cardiologia em pólo universitário. A análise custo-benefício foi realizada comparando o custo de realização de um ECG no projeto MTC ao custo de realizar este exame por encaminhamento em outra localidade. RESULTADOS: O custo médio de um ECG no projeto MTC foi de R$ 28,92, decomposto em R$ 8,08 referente ao custo de implantação e R$ 20,84 ao de manutenção do programa. A simulação do custo do ECG com encaminhamento variou de R$ 30,91 a R$ 54,58, sendo a relação custo-benefício sempre favorável ao programa MTC, independente da forma de cálculo da distância de encaminhamento. Nas simulações, foram consideradas as abordagens do financiador e da sociedade. A análise de sensibilidade com variação dos parâmetros de calibração confirmou esses resultados. CONCLUSÃO: A implantação de sistema de telecardiologia como apoio a atenção primária em cidades brasileiras de pequeno porte é factível e economicamente benéfica, podendo ser transformada em programa regular do sistema público de saúde.
Resumo:
FUNDAMENTO: As consequências e os riscos do exercício físico contínuo por períodos prolongados não estão esclarecidos. OBJETIVO: Avaliar os efeitos do exercício prolongado em participantes de uma ultramaratona de 24 horas. MÉTODOS: Vinte corredores foram selecionados para avaliação, um dia antes e imediatamente após a prova em que os corredores devem percorrer a maior distância em 24 horas. Foram obtidos dados clínicos, laboratoriais e ecocardiográficos. RESULTADOS: A distância média percorrida foi de 140,3 ± 18,7 km. Os corredores apresentaram redução do peso corpóreo (p < 0,001) e da pressão arterial sistólica (p < 0,001) e diastólica (p = 0,004). As alterações hematológicas foram compatíveis com o estresse fisiológico. A concentração plasmática de creatinofosfoquinase (CPK) aumentou significativamente (163,4 ± 56,8 versus 2978,4 ± 1921,9 U/L; p < 0,001) e esteve inversamente correlacionada com a distância percorrida: os que correram maiores distâncias apresentaram níveis mais baixos de CPK (Pearson r = 0,69; p = 0,02). Após a corrida, dois corredores apresentaram discreta elevação de troponina T. Em um deles, houve queda concomitante na fração de ejeção (coronariopatia foi excluída subsequentemente). O ecocardiograma na avaliação basal mostrou hipertrofia de ventrículo esquerdo em um e aumento do volume atrial esquerdo em cinco corredores. Após a prova, houve redução na relação E/A (p < 0,01). CONCLUSÃO: O exercício físico prolongado está associado a alterações cardiovasculares e metabólicas. As alterações cardiológicas encontradas sugerem que o fenômeno de fadiga cardíaca pode ocorrer nessa modalidade de corrida. O efeito a longo prazo dessas alterações, com a manutenção da prática desse tipo de atividade, ainda é desconhecido.
Resumo:
MSM, homem, 69 anos, procurou atendimento médico por dor em dorso esquerdo e membro inferior direito. A radiografia de tórax revelou alargamento do mediastino. Estava em observação quando apresentou rebaixamento da consciência e choque. Foi observado enfisema subcutâneo em hemitórax esquerdo e abolição do murmúrio vesicular em base do mesmo pulmão. Foi feita a intubação orotraqueal e realizada drenagem de hemitórax esquerdo, com saída de líquido serossanguinolento. O ecocardiograma revelou ventrículo esquerdo (D/S): 44/29 mm; septo 12 mm; parede posterior 13 mm; discreta dilatação em raiz da aorta, presença de lâmina de dissecção e hematoma periaórtico. As valvas e pericárdio eram normais. O paciente foi transferido para o InCor. O exame físico (21 out 2004: 10h45) revelou paciente sedado, com intubação orotraqueal, com palidez cutânea, frequência cardíaca 90 bpm, pressão arterial 130 x 80 mmHg, drenagem torácica sanguinolenta do dreno tórax. Eletrocardiograma - frequência 90 bpm, ritmo sinusal, baixa voltagem no plano frontal e diminuição de voltagem em derivações esquerdas (fig. 1). A tomografia revelou enfisema subcutâneo bilateral, aorta torácica com contornos imprecisos na sua porção descendente (da artéria subclávia até porção média), colapso do pulmão esquerdo e grande coleção de características hemáticas em mesmo hemitórax e no mediastino médio e posterior. Pequeno pneumotórax à direita; pequeno derrame pleural à direita com alterações do parênquima subjacente. A análise do coração foi prejudicada pela presença do hemotórax. Durante a realização de tomografia apresentou ausência de pulsos, midríase, com assistolia, sem resposta às manobras de ressuscitação e faleceu (21 out 2011; 15h).
Resumo:
FUNDAMENTO: A regurgitação mitral é a doença valvar cardíaca mais comum em todo o mundo. A ressonância magnética pode ser uma ferramenta útil para analisar os parâmetros da valva mitral. OBJETIVO: diferenciar padrões geométricos da valva mitral em pacientes com diferentes gravidades por regurgitação mitral (RM) com base na ressonância magnética cardiovascular. MÉTODOS: Sessenta e três pacientes foram submetidos à ressonância magnética cardiovascular. Os parâmetros da valva mitral analisados foram: área (mm2) e ângulo (graus) de tenting, altura do ventrículo (mm), altura do tenting (mm), folheto anterior, comprimento posterior do folheto (leaflet) e diâmetro do anulo (mm). Os pacientes foram divididos em dois grupos, um incluindo pacientes que necessitaram de cirurgia da valva mitral e o outro os que não. RESULTADOS: Trinta e seis pacientes apresentaram de RM discreta a leve (1-2+) e 27 RM de moderada a grave (3-4+). Dez (15,9%) dos 63 pacientes foram submetidos à cirurgia. Pacientes com RM mais grave tiveram maior diâmetro sistólico final do ventrículo esquerdo (38,6 ± 10,2 vs. 45,4 ± 16,8, p < 0,05) e diâmetro diastólico final esquerdo (52,9 ± 6,8 vs. 60,1 ± 12,3, p = 0,005). Na análise multivariada, a área de tenting foi a determinante mais forte de gravidade de RM (r = 0,62, p = 0,035). Comprimento do anulo (36,1 ± 4,7 vs. 41 ± 6,7, p< 0,001), área de tenting (190,7 ± 149,7 vs. 130 ± 71,3, p= 0,048) e comprimento do folheto posterior (15,1 ± 4,1 vs. 12,2 ± 3,5, p= 0,023) foram maiores em pacientes que precisaram de cirurgia da valva mitral. CONCLUSÕES: Área de tenting, anulo e comprimento do folheto posterior são possíveis determinantes da gravidade da RM. Estes parâmetros geométricos podem ser usados para individualizar a gravidade e, provavelmente, no futuro, orientar o tratamento do paciente com base na anatomia individual do aparelho mitral.
Resumo:
Spread spectrum, Automotive Radar, Indoor Positioning Systems, Ultrasonic and Microwave Imaging, super resolution technique and wavelet transform
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
Os autores estudam a influência do café Rio em ligas com cafés brasileiros de bebida Mole. Foram ensaiadas porcentagens crescentes de Café Rio: 0,0; 0,5; 1,0; 1,5; 2,0; 2,5; 3,0; 3,5; 4,0; 4,5; 5,0; 7,5; 10,0; 12,5; 15,0; 20,0; 25,0; 30,0; 35,0; 40,0; 50,0. Realizaram-se dois experimentos em blocos incompletos equilibrados, com t = 21 tratamentos (os mencionados acima), k = 3 parcelas por bloco, r = 10 repetições, b = 70 blocos, L = 1. Cada parcela era formada de 3 xícaras, de tipo padrão, sobre as quais cada degustador dava uma só opinião. Cada parcela era provada por 3 degustadores. Os dados coletados são, pois, 630 para cada ensaio (210 parcelas, 3 degustadores). Atribuia-se a cada parcela, para fins de análise estatística, a média das opiniões dos 3 degustadores. Os dois ensaios deram resultados bem concordantes, que levaram às seguintes conclusões: a) Faz-se necessária a transformação dos dados, pois as variâncias relativas aos diversos tratamentos são muito discrepantes. b) A transformação T = √ Y dá resultados satisfatórios. c) O café Rio prejudica sensivelmente a bebida do café Mole, para teores a partir de 2,0%. d) Para teores de 4,5% em diante a liga tem bebida Riada ou Rio. e) A regressão obtida não é estritamente linear, mas a linha reta da uma aproximação razoável. f) Consideradas as porcentagens de 0,0 a 10,0%,a equação de regressão para os dados transformados pela transformação T = √ Y é: T = 1,7045 - 0,127 X, onde X é a porcentagem de café Rio e T dá a bebida, na escala numérica adotada, transformada pela raíz quadrada. g) A equação de regressão para os tratamentos de 0,0 a 10,0% de cafe Rio é Y = 3,0997 - 0,3281 X, isto é, há uma queda de 0,3281 na escala numérica da bebida, para cada unidade de porcentagem de café Rio.
Resumo:
Tese de mestrado em Biologia Humana e Ambiente, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2015
Resumo:
The comparative analysis of continuous signals restoration by different kinds of approximation is performed. The software product, allowing to define optimal method of different original signals restoration by Lagrange polynomial, Kotelnikov interpolation series, linear and cubic splines, Haar wavelet and Kotelnikov-Shannon wavelet based on criterion of minimum value of mean-square deviation is proposed. Practical recommendations on the selection of approximation function for different class of signals are obtained.
Resumo:
Objetivando caracterizar os efeitos das diferentes concentrações de fósforo e da presença de outros íons na cinética de absorção de radiofósforo, foram conduzidos ensaios em solução nutritiva, em condições ambientais controladas. Foram empregadas raízes destacadas de arrroz e feijão para os estudos com diferentes concentrações de fósforo no meio (10-7 M até 5 x 10-2 M) e para avaliar as interações promovidas por Mg+2, Al+3, K+, NH4+, N-NO3-, N-urêia no mecanismo de absorção por períodos de uma hora e meia a duas horas. Em plantas inteiras de arroz procurou-se avaliar os efeitos da presença de Mg e/ou alumínio na absorção e transporte de fósforo quando variava a concentração externa (1 ppm, 5 ppm, 10 ppm e 20 ppm) por um período de 17 horas. Foi constatado um mecanismo duplo de absorção com as duas fases seguindo a cinética simples de Michaelis-Menten, e com ponto de transição entre 1-50x10-5. A transformada de dados segundo Hofstee adaptou-se melhor à interpretação dos dados experimentais. Feijão foi mais eficientes na absorção que arroz para a primeira fase (maior Vmax). Alumínio apresentou efeito estimulatório nítido na absorção de fósforo, promovendo porém, a fixação do ânion na raiz quando consideradas as concentrações mais baixas. Em concentrações altas de P, este último efeito não foi evidenciado. Magnésio não promoveu maior absorção, nem maior transporte do que K+; o mesmo aconteceu com as diferentes formas de nitrogênio. Uréia poderia ter um efeito depressivo maior, embora não significativo. Discutem-se os prováveis mecanismos envolvidos nestas respostas.