984 resultados para transformada de Laplace


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo pretende aportar conocimientos sobre el desarrollo de nuevos materiales para implantes ortopédicos en Medicina Veterinaria y Humana, de bajo costo y sin efectos biológicos indeseables. Para esto se pretende verificar los posibles efectos biológicos de los implantes de polipropileno, mediante una evaluación clínica, bioquímica e histopatológica en 12 caninos a los que se les implantará una placa ortopédica, por las técnicas quirúrgicas de rutina. Sobre el material de implante (polipropileno) se efectuará un estudio de homogeneidad química y de los posibles efectos del organismo sobre el mismo, mediante espectroscopía infrarroja por transformada de Fourier y espectroscopía Uv-visible. Objetivos generales Aportar conocimientos para: desarrollar nuevos materiales para implantes ortopédicos, de bajo costo, buena adaptabilidad mecánica y toxicidad mínima. Objetivos específicos 1. Verificar los posibles efectos biológicos de los implantes (placas ortopédicas) de polipropileno en perros, mediante una evaluación clínica, bioquímica e histopatológica de los animales implantados. 2. Determinar la homogeneidad química, la presencia y concentración de antioxidantes y los posibles estados superficiales del material utilizado para la confección de las placas, mediante espectroscopía infrarroja por transformada de Fourier. 3. Determinar el efecto del organismo sobre el polímero mediante espectroscopía UV-visible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto consta de varios temas interrelacionados, siendo el área general, la teoría espectral del Laplaciano en variedades localmente simétricas y sus aplicaciones. Cada tema consta de varios subproyectos. * Distribución de sumas de Kloosterman, funciones de zeta. * Transformada T (y/psi) para grupos de rango 1. * M- invariantes en las álgebras simétrica y universal. * Series de Poincaré generalizadas. * Variedades compactas planas isospectrales. * Construcción de variedades de Hsntzsche-Wendt generalizadas. * Estructuras de Clifford de variedades localmente homogeneas. * Distribución de puntos reticulares en esp. Simétricos de curvatura no positiva. * Resolvente del laplaciano y sus residuos en espacios localmente simétricos de curvatura no positiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transferencia de proteínas solubles a la interfase de la membrana lipídica es un paso clave en varios procesos celulares. Esta traslocación resulta en un importante cambio en el ambiente de la proteína con consecuencias sobre su conformación, estabilidad y actividad biológica. En este proyecto estudiamos las condiciones que determinan la unión a la membrana, particularmente el balance entre interacciones electrostáticas e hidrofóbicas, y los factores que determinan la conformación, estabilidad y dinámica de la proteína en interfaces. Particularmente, estudiaremos la interacción con membranas de la proteína transportadora de ácido cólico de hígado de ave L-BABP, la proteína beta-2 glicoproteína humana y la proteína asociada a microtúbulos SL21. Hemos encontrado que el estado de fase del lípido determina la conformación y estabilidad de L-BABP unida periféricamente. En este proyecto estudiaremos la naturaleza de las interacciones que determinan esta dependencia. beta-2 glicoproteína humana se une a membranas aniónicas e induce cambios estructurales en el lípido cuando ocurre la transición al estado desplegado de la proteína. El proyecto contempla estudiar comparativamente las interacciones del estado nativo y parcialmente desplegado de beta-2 glicoproteína con membranas. Estudiaremos los cambios conformacionales de proteínas y lípidos utilizando espectroscopia infrarroja por transformada de Fourier (FTIR), espectroscopia de emisión de fluorescencia y espectroscopia de dicroísmo circular (CD). Utilizaremos calorimetría diferencial de barrido (DSC) para estudios de estabilidad y espectroscopia de fosforescencia para estudiar dinámica rotacional de proteínas en la membrana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de los plásticos ha crecido dramáticamente durante los últimos 30 años y en forma paralela también se ha incrementado el volumen de desperdicios provenientes de los mismos. La distribución individual de los mismos en los residuos domiciliarios varía de acuerdo al origen socioeconómico de los grupos sociales, oscilando entre 39-47% de polietileno PE, 27-41% de polietilentereftalato PET, 5-12% de poliestireno PS, 10-15% de polipropileno PP, entre otros; ocupando entre 9-12% de los desperdicios en rellenos sanitarios (expresado en porcentajes en peso). Para el aprovechamiento de los residuos plásticos existen diferentes opciones, de las cuales el reciclado químico aparece como la alternativa más prometedora tanto ambiental como económica. Dentro del reciclado químico de los desechos plásticos, se encuentra el craqueo catalítico, que es un proceso a partir del cual se pueden obtener hidrocarburos líquidos y gaseosos de gran valor agregado, a partir de la adición de catalizadores, lo cual mejora la tecnología puramente térmica, ya que el espectro en la distribución de productos es mucho más reducido, permitiendo alcanzar mayor selectividad hacia ciertos productos en función de las características del catalizador utilizado, reduciendo los tiempos de reacción y las temperaturas del proceso a 350-550°C. En la presente investigación se propone la síntesis de materiales catalíticos a medida con base en materiales microporosos (Zeolitas), para la transformación de residuos plásticos en hidrocarburos de interés para la industria petroquímica o combustibles. Los materiales catalíticos (del tipo ZSM-11, BETA) se prepararán por técnicas hidrotérmicas, a los cuales se les incorporarán funciones activas (H, Zn, Co, Cr, Ni, Mn) empleando tratamientos químicos y térmicos. Se caracterizarán mediante el empleo de diversas técnicas fisicoquímicas, tales como Difracción de rayos X, Absorción Atómica, Análisis Térmicos, Espectroscopía Infrarrojo con transformada de Fourier, BET, Microscopía de barrido electrónico con microsonda y Mediciones de propiedades magnéticas ( a temperatura ambiente con variación de campo y a campo constante con variación de temperatura). Finalmente estos materiales se emplearán en la transformación de residuos plásticos (PEBD, PEAD y mezclas de los mismos) a hidrocarburos aromáticos y cortes de combustibles. Se estudiará de las influencia de condiciones operativas (reactor de lecho fijo a presión atmosférica, temperaturas de reacción, tiempos de reacción, relación polímero/catalizador, etc.), a los fines de optimizar el sistema catalítico. Aquellos catalizadores que presenten mejor comportamiento para el proceso, serán evaluados a bajos tiempos de contacto en un reactor discontinuo de lecho fluidizado, denominado Simulador de Riser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de los plásticos ha crecido dramáticamente durante los últimos 30 años y en forma paralela también se ha incrementado el volumen de desperdicios provenientes de los mismos. La distribución individual de los mismos en los residuos domiciliarios varía de acuerdo al origen socioeconómico de los grupos sociales, oscilando entre 39-47% de polietileno PE, 27-41% de polietilentereftalato PET, 5-12% de poliestireno PS, 10-15% de polipropileno PP, entre otros; ocupando entre 9-12% de los desperdicios en rellenos sanitarios (expresado en porcentajes en peso). Para el aprovechamiento de los residuos plásticos existen diferentes opciones, de las cuales el reciclado químico aparece como la alternativa más prometedora tanto ambiental como económica. Dentro del reciclado químico de los desechos plásticos, se encuentra el craqueo catalítico, que es un proceso a partir del cual se pueden obtener hidrocarburos líquidos y gaseosos de gran valor agregado, a partir de la adición de catalizadores, lo cual mejora la tecnología puramente térmica, ya que el espectro en la distribución de productos es mucho más reducido, permitiendo alcanzar mayor selectividad hacia ciertos productos en función de las características del catalizador utilizado, reduciendo los tiempos de reacción y las temperaturas del proceso a 350-550°C. En la presente investigación se propone la síntesis de materiales catalíticos a medida con base en materiales microporosos (Zeolitas), para la transformación de residuos plásticos en hidrocarburos de interés para la industria petroquímica o combustibles. Los materiales catalíticos (del tipo ZSM-11, BETA) se prepararán por técnicas hidrotérmicas, a los cuales se les incorporarán funciones activas (H, Zn, Co, Cr, Ni, Mn) empleando tratamientos químicos y térmicos. Se caracterizarán mediante el empleo de diversas técnicas fisicoquímicas, tales como Difracción de rayos X, Absorción Atómica, Análisis Térmicos, Espectroscopía Infrarrojo con transformada de Fourier, BET, Microscopía de barrido electrónico con microsonda y Mediciones de propiedades magnéticas ( a temperatura ambiente con variación de campo y a campo constante con variación de temperatura). Finalmente estos materiales se emplearán en la transformación de residuos plásticos (PEBD, PEAD y mezclas de los mismos) a hidrocarburos aromáticos y cortes de combustibles. Se estudiará de las influencia de condiciones operativas (reactor de lecho fijo a presión atmosférica, temperaturas de reacción, tiempos de reacción, relación polímero/catalizador, etc.), a los fines de optimizar el sistema catalítico. Aquellos catalizadores que presenten mejor comportamiento para el proceso, serán evaluados a bajos tiempos de contacto en un reactor discontinuo de lecho fluidizado, denominado Simulador de Riser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: A telecardiologia é instrumento que pode auxiliar na atenção cardiovascular, principalmente em municípios localizados em áreas remotas. Entretanto, as avaliações econômicas sobre o assunto são escassas e com resultados controversos. OBJETIVO: Avaliar o custo-benefício da implantação do serviço de telecardiologia em municípios remotos, de pequeno porte, no estado de Minas Gerais, Brasil. MÉTODOS: O estudo utilizou a base de dados do Projeto Minas Telecardio (MTC), desenvolvido de junho/2006 a novembro/2008, em 82 municípios do interior do estado. Cada município recebeu um microcomputador com eletrocardiógrafo digital, com possibilidade de envio dos traçados e comunicação com plantão de cardiologia em pólo universitário. A análise custo-benefício foi realizada comparando o custo de realização de um ECG no projeto MTC ao custo de realizar este exame por encaminhamento em outra localidade. RESULTADOS: O custo médio de um ECG no projeto MTC foi de R$ 28,92, decomposto em R$ 8,08 referente ao custo de implantação e R$ 20,84 ao de manutenção do programa. A simulação do custo do ECG com encaminhamento variou de R$ 30,91 a R$ 54,58, sendo a relação custo-benefício sempre favorável ao programa MTC, independente da forma de cálculo da distância de encaminhamento. Nas simulações, foram consideradas as abordagens do financiador e da sociedade. A análise de sensibilidade com variação dos parâmetros de calibração confirmou esses resultados. CONCLUSÃO: A implantação de sistema de telecardiologia como apoio a atenção primária em cidades brasileiras de pequeno porte é factível e economicamente benéfica, podendo ser transformada em programa regular do sistema público de saúde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The classical central limit theorem states the uniform convergence of the distribution functions of the standardized sums of independent and identically distributed square integrable real-valued random variables to the standard normal distribution function. While first versions of the central limit theorem are already due to Moivre (1730) and Laplace (1812), a systematic study of this topic started at the beginning of the last century with the fundamental work of Lyapunov (1900, 1901). Meanwhile, extensions of the central limit theorem are available for a multitude of settings. This includes, e.g., Banach space valued random variables as well as substantial relaxations of the assumptions of independence and identical distributions. Furthermore, explicit error bounds are established and asymptotic expansions are employed to obtain better approximations. Classical error estimates like the famous bound of Berry and Esseen are stated in terms of absolute moments of the random summands and therefore do not reflect a potential closeness of the distributions of the single random summands to a normal distribution. Non-classical approaches take this issue into account by providing error estimates based on, e.g., pseudomoments. The latter field of investigation was initiated by work of Zolotarev in the 1960's and is still in its infancy compared to the development of the classical theory. For example, non-classical error bounds for asymptotic expansions seem not to be available up to now ...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os autores estudam a influência do café Rio em ligas com cafés brasileiros de bebida Mole. Foram ensaiadas porcentagens crescentes de Café Rio: 0,0; 0,5; 1,0; 1,5; 2,0; 2,5; 3,0; 3,5; 4,0; 4,5; 5,0; 7,5; 10,0; 12,5; 15,0; 20,0; 25,0; 30,0; 35,0; 40,0; 50,0. Realizaram-se dois experimentos em blocos incompletos equilibrados, com t = 21 tratamentos (os mencionados acima), k = 3 parcelas por bloco, r = 10 repetições, b = 70 blocos, L = 1. Cada parcela era formada de 3 xícaras, de tipo padrão, sobre as quais cada degustador dava uma só opinião. Cada parcela era provada por 3 degustadores. Os dados coletados são, pois, 630 para cada ensaio (210 parcelas, 3 degustadores). Atribuia-se a cada parcela, para fins de análise estatística, a média das opiniões dos 3 degustadores. Os dois ensaios deram resultados bem concordantes, que levaram às seguintes conclusões: a) Faz-se necessária a transformação dos dados, pois as variâncias relativas aos diversos tratamentos são muito discrepantes. b) A transformação T = √ Y dá resultados satisfatórios. c) O café Rio prejudica sensivelmente a bebida do café Mole, para teores a partir de 2,0%. d) Para teores de 4,5% em diante a liga tem bebida Riada ou Rio. e) A regressão obtida não é estritamente linear, mas a linha reta da uma aproximação razoável. f) Consideradas as porcentagens de 0,0 a 10,0%,a equação de regressão para os dados transformados pela transformação T = √ Y é: T = 1,7045 - 0,127 X, onde X é a porcentagem de café Rio e T dá a bebida, na escala numérica adotada, transformada pela raíz quadrada. g) A equação de regressão para os tratamentos de 0,0 a 10,0% de cafe Rio é Y = 3,0997 - 0,3281 X, isto é, há uma queda de 0,3281 na escala numérica da bebida, para cada unidade de porcentagem de café Rio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de mestrado em Biologia Humana e Ambiente, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2015

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivando caracterizar os efeitos das diferentes concentrações de fósforo e da presença de outros íons na cinética de absorção de radiofósforo, foram conduzidos ensaios em solução nutritiva, em condições ambientais controladas. Foram empregadas raízes destacadas de arrroz e feijão para os estudos com diferentes concentrações de fósforo no meio (10-7 M até 5 x 10-2 M) e para avaliar as interações promovidas por Mg+2, Al+3, K+, NH4+, N-NO3-, N-urêia no mecanismo de absorção por períodos de uma hora e meia a duas horas. Em plantas inteiras de arroz procurou-se avaliar os efeitos da presença de Mg e/ou alumínio na absorção e transporte de fósforo quando variava a concentração externa (1 ppm, 5 ppm, 10 ppm e 20 ppm) por um período de 17 horas. Foi constatado um mecanismo duplo de absorção com as duas fases seguindo a cinética simples de Michaelis-Menten, e com ponto de transição entre 1-50x10-5. A transformada de dados segundo Hofstee adaptou-se melhor à interpretação dos dados experimentais. Feijão foi mais eficientes na absorção que arroz para a primeira fase (maior Vmax). Alumínio apresentou efeito estimulatório nítido na absorção de fósforo, promovendo porém, a fixação do ânion na raiz quando consideradas as concentrações mais baixas. Em concentrações altas de P, este último efeito não foi evidenciado. Magnésio não promoveu maior absorção, nem maior transporte do que K+; o mesmo aconteceu com as diferentes formas de nitrogênio. Uréia poderia ter um efeito depressivo maior, embora não significativo. Discutem-se os prováveis mecanismos envolvidos nestas respostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

JPEG 2000 és un estàndard de compressió d'imatges que utilitza tècniques estat de l’art basades en la transformada wavelet. Els principals avantatges són la millor compressió, la possibilitat d’operar amb dades comprimides i que es pot comprimir amb i sense pèrdua amb el mateix mètode. BOI és la implementació de JPEG 2000 del Grup de Compressió Interactiva d’Imatges del departament d’Enginyeria de la Informació i les Comunicacions, pensada per entendre, criticar i millorar les tecnologies de JPEG 2000. La nova versió intenta arribar a tots els extrems de l’estàndard on la versió anterior no va arribar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUM En aquest document es presenta un detector de contorns d’imatges basat en el domini transformat. A partir de la interpretació de la transformada de Fourier de la imatge i la seva formulació matricial en termes dels diferents modes, es realitza una selecció de les components passa baixes a partir de les quals es reconstrueix la component de baixa freqüència que es resta de la imatge original per tal d’obtenir el detector. Aquest detector de contorns no és esbiaixat. L’algorisme pot ser aplicat utilitzant diferents mides del bloc de processament, que pot anar de la imatge sencera a blocs de reduïdes dimensions: 36X36, 16x16 o 8x8, per fer un seguiment de les propietats locals de la imatge quan aquesta és presenta característiques espacials poc uniformes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

JPEG2000 és un estàndard de compressió d’imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo fue la utilización de la tecnología de Infrarrojo cercano por aplicación directa de una fibra óptica en tejido adiposo de cerdos alimentados con diferentes dietas (CONTROL, CÍTRICOS y CLA). Para ello, 265 animales fueron alimentados con tres dietas diferentes y se analizó el perfil de ácidos grasos en la grasa del jamón mediante cromatografía de gases y FT-NIR (espectroscopia de infrarrojo cercano con transformada de Fourier). La adquisición de espectros se realizó con un espectrómetro Optics Matrix-F duplex de Bruker equipado con una sonda de contacto IN-268-2. Los cerdos que fueron alimentados con la dieta enriquecida en CLA mostraron diferencias significativas tanto en la composición de ácidos grasos como en los espectros de NIR ya que la ingesta de CLA aumentó el porcentaje de ácidos grasos saturados (SAT) y poliinsaturados (PUFA) mientras que los monoinsaturados (MUFA) disminuyeron con respecto a las otras dietas. Los resultados sugieren que la espectroscopia de infrarrojo cercano es un método rápido y de fácil implementación para identificar animales alimentados con diferentes dietas.