14 resultados para Método dos momentos generalizados

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hasta el momento no existen datos epidemiológico – moleculares publicados acerca de la coinfección HCV/HIV y su impacto en la región central de Argentina. Este proyecto tiene como objetivos estudiar la prevalencia de infección activa y la distribución de genotipos de HCV en individuos infectados con HIV y evaluar su impacto en la terapia antiretroviral (HAART). Y por otra parte, implementar un método no invasivo, simple y de mayor adhesión, basado en análisis bioquímicos, para predecir grados de fibrosis y cirrosis en individuos infectados con HCV. Dicho método podrá ser transferido a otros laboratorios públicos y privados en un futuro cercano. Se estudiarán (bajo consentimiento informado) muestras de suero de individuos coinfectados HIV/HCV y monoinfectados con HCV. Se realizará el screening de anticuerpos contra HCV (anti-HCV), la confirmación de la infección (RNA HCV) y el diagnóstico suplementario (genotipificación, carga viral y biopsia). Además, se realizarán análisis bioquímicos y se completarán fichas clínico-epidemiológicos. Este proyecto intenta aportar información de la situación de HCV a los programas sanitarios para reforzar el sistema de vigilancia, mejorar el diagnóstico clínico e impulsar a programas de control, prevención y tratamiento para atenuar la diseminación de HCV en nuestro medio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El uso de medicamentos debe ser una practica segura que logre el objetivo terapéutico buscado al realizar la prescripción de los mismos. En el ámbito hospitalario se desempeñan actividades desde el servicio de farmacia que aseguran la calidad de esta actividad. Por medio de la dispensación de medicamentos por dosis unitarias y la validación de la prescripción por un profesional farmacéutico se garantiza el cumplimiento de la correcta prescripción y se racionaliza el uso de los fármacos. Sin embargo el papel del farmacéutico tiene un potencial mayor si este especialista en medicamentos interviene en forma activa en la toma de decisiones terapéuticas con el medico junto a la cama del paciente. La posibilidad de realizar una doble validación de la prescripción, e intervenir asegurando una metodología eficaz y clara seria una estrategia educativa para farmacéuticos que permitiría afianzar las actividades de los mismos en el ámbito hospitalario incorporando este profesional al equipo interdisciplinario de salud

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Loque Americana es la enfermedad de origen bacteriano más grave de la etapa larval de la abeja (Apis melífera). Desde su detección en el país en 1989 ya se ha establecido en 11 provincias incluida Córdoba. Su agente causal es Paenibacillus larvae White y su efecto final, la muerte de todo cría en su estadio de propupa. Es muy contagiosa, puede eliminar a toda la colmena y una vez establecida en una región difícilmente pueda ser erradicada por tratarse de una bacteria formadora de esporas que se diseminan: a través de determinados comportamientos de las abejas, con el polen o la miel y por la actividad del apicultor. Siendo Córdoba una provincia con posibilidades para incrementar esta actividad productiva donde ya la enfermedad está establecida, debe tenerse en cuenta que el manejo intensivo de las colmenas es factor desencadenante de diseminación. Se requiere, por lo tanto, contar con técnicas de control de probada efectividad, factibles de ser utilizadas por los productores en sus apiarios. Una manera de disminuir el grado de difusión es mantener lo más bajo posible los niveles de infección. (...) En Argentina, hasta el presente ninguna técnica por sí sola ha resultado eficaz. Este trabajo tiene como hipótesis demostrar que el enjambrado artificial, con la aplicación de un antibiótico durante el desarrollo inmediato posterior al trasvase de las colonias, puede resultar un método efectivo para el control de la enfermedad y la recuperación de los apiarios afectados de Loque Americana. El Objetivo del proyecto es determinar la eficiencia del Cepillado como método alternativo factible de ser usado para controlar la enfermedad y recuperar las colonias infectadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto consta de dos partes. 1. Modelos exponenciales con dispersión. 2. Ajuste de modelos lineales generalizados para datos de conteo con superdispersión. (...) Objetivos generales y específicos: El estudio de los modelos exponenciales con dispersión conduce a desarrollar y perfeccionar métodos de estimación y de inferencia tanto desde el punto de vista teórico como numérico. (...) i) Presentar, sin sin usar el teorema de Mora, resultados sobre la convergencia de modelos exponenciales con dispersión infinitamente divisibles. ii) Proponer una metodología apropiada para el análisis estadístico de variables aleatorias discretas enteras en función de posibles modelos adoptados para su explicación. Construcción de los algoritmos necesarios para la estimación de los parámetros especificados en el modelo adoptado y presentación de las macros correspondientes para su implementación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El bromato de potasio se ha usado durante muchos años como mejorador en la elaboración de pan. En los últimos años numerosos países han prohibido su utilización debido a su toxicidad y lo han reemplazado exitosamente con otros agentes, tales como ácido ascórbico, azodicarbonamida, yodato de potasio, sulfato cúprico y otros. Debido a los acuerdos del Mercosur esta prohibición se extenderá a Argentina. En nuestro país se utiliza un método de panificación que se caracteriza por los largos tiempos de fermentación y la escasa cantidad de levadura que se añade. En los pocos ensayos realizados con este método de panificación no han encontrado aditivos que puedan suplantar con buenos resultados al bromato. Atendiendo a esta problemática se plantean los siguientes objetivos: * Establecer una mezcla de aditivos, cuyo uso esté autorizado en Argentina, que sea apta para reemplazar el bromato de potasio produciendo la menor cantidad de transformaciones en la tecnología de panificación tradicional- * Estudiar los efectos que producen el bromato de potasio, el ácido, ascórbico, la azodicarbonamida, el yodato de potasio y de calcio, y el sulfato cúprico sobre las proteínas de las harinas. * Realizar un aporte al conocimiento de las modificaciones que provocan los agentes mejoradores sobre los productos de panificación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La utilización de la Resonancia Magnética Nuclear (RMN) como técnica para la caracterización de propiedades físicas de diversos medios es algo bien conocido. Basta mencionar las imágenes de RMN utilizadas en medicina, determinación del campo de velocidades en el flujo de: fluidos en tuberías o de sangre en seres vivos. La caracterización de medios porosos por medio de RMN es un tema que está recibiendo suma atención por su importancia en el área de explotación petrolera. La idea básica consiste en rellenar un medio poroso (sustrato) con algún fluido, usualmente agua o benceno y determinar: la determinación de temperaturas de fusión y temperaturas de solidificación y distribución de constantes de difusión. Estas determinaciones se realizan midiendo los tiempos de relajación y forma de línea de la señal de RMN correspondiente a los núcleos de 1H del fluido utilizado. Las distribuciones obtenidas permiten obtener, en forma indirecta, información acerca de la distribución de tamaño de los poros que alojan al fluido. Sin embargo, los modelos que permiten vincular lo que se mide con la distribución de tamaño de poros, aún no está bien establecida debida a la complejidad y diversidad de los fenómenos involucrados en la interfase fluido-sustrato. Objetivos generales y específicos El objetivo general del presente trabajo es comparar la distribución de tamaño de poros obtenidas por medio de RMN partiendo de muestras con distribución de tamaño de poros caracterizados por microscopía. El fin de esta comparación es optimizar los modelos que vinculan datos de RMN con las distribuciones de tamaños de poros. Los objetivos específicos son: 1- Construcción de muestras y caracterización de tamaño de poros por medio de microscopía. 2- Puesta a punto de un control de temperaturas para termalizar muestras en el equipo de RMN con que cuenta el laboratorio donde se desarrollará el proyecto. 3- Medición de tiempos de relajación y de forma de línea en función de la temperatura, (en un entorno del punto de fusión) en las muestras mencionadas en el objetivo específico 1. 4- Análisis de los modelos existentes que permiten obtener la distribución de tamaño de poros por medio de RMN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto propone extender y generalizar los procesos de estimación e inferencia de modelos aditivos generalizados multivariados para variables aleatorias no gaussianas, que describen comportamientos de fenómenos biológicos y sociales y cuyas representaciones originan series longitudinales y datos agregados (clusters). Se genera teniendo como objeto para las aplicaciones inmediatas, el desarrollo de metodología de modelación para la comprensión de procesos biológicos, ambientales y sociales de las áreas de Salud y las Ciencias Sociales, la condicionan la presencia de fenómenos específicos, como el de las enfermedades.Es así que el plan que se propone intenta estrechar la relación entre la Matemática Aplicada, desde un enfoque bajo incertidumbre y las Ciencias Biológicas y Sociales, en general, generando nuevas herramientas para poder analizar y explicar muchos problemas sobre los cuales tienen cada vez mas información experimental y/o observacional.Se propone, en forma secuencial, comenzando por variables aleatorias discretas (Yi, con función de varianza menor que una potencia par del valor esperado E(Y)) generar una clase unificada de modelos aditivos (paramétricos y no paramétricos) generalizados, la cual contenga como casos particulares a los modelos lineales generalizados, no lineales generalizados, los aditivos generalizados, los de media marginales generalizados (enfoques GEE1 -Liang y Zeger, 1986- y GEE2 -Zhao y Prentice, 1990; Zeger y Qaqish, 1992; Yan y Fine, 2004), iniciando una conexión con los modelos lineales mixtos generalizados para variables latentes (GLLAMM, Skrondal y Rabe-Hesketh, 2004), partiendo de estructuras de datos correlacionados. Esto permitirá definir distribuciones condicionales de las respuestas, dadas las covariables y las variables latentes y estimar ecuaciones estructurales para las VL, incluyendo regresiones de VL sobre las covariables y regresiones de VL sobre otras VL y modelos específicos para considerar jerarquías de variación ya reconocidas. Cómo definir modelos que consideren estructuras espaciales o temporales, de manera tal que permitan la presencia de factores jerárquicos, fijos o aleatorios, medidos con error como es el caso de las situaciones que se presentan en las Ciencias Sociales y en Epidemiología, es un desafío a nivel estadístico. Se proyecta esa forma secuencial para la construcción de metodología tanto de estimación como de inferencia, comenzando con variables aleatorias Poisson y Bernoulli, incluyendo los existentes MLG, hasta los actuales modelos generalizados jerárquicos, conextando con los GLLAMM, partiendo de estructuras de datos correlacionados. Esta familia de modelos se generará para estructuras de variables/vectores, covariables y componentes aleatorios jerárquicos que describan fenómenos de las Ciencias Sociales y la Epidemiología.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto busca profundizar lo incorporado como método de análisis, a partir de lo realizado en el proyecto anterior, relativo a la Fragilidad por Hidrógeno en Metales Ferrosos. Sobre la base de lo actuado, se pretende aplicar el método científico de análisis a las fallas en casos que ocurren en la práctica y que tienen como origen errores en el diseño, construcción o mantenimiento de componentes o sistemas. Procesos industriales que aplican técnicas de fabricación o construcción de componentes, frecuentemente fallan por un uso erróneo de los mismos, ya sea por mala práctica o bien por desconocimiento de las variables que los gobiernan. Mediante la aplicación del método científico se busca llegar a las primeras causas de las fallas y a partir del entendimiento de las mismas generar prevención para futuros casos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El uso de medicamentos debe ser una práctica segura que logre el objetivo terapéutico buscado al realizar la prescripción de los mismos En el ámbito hospitalario se desempeñan actividades desde el servicio de farmacia que aseguran la calidad de esta actividad. Por medio de la dispensación de medicamentos por dosis unitarias y la validación de la prescripción por un profesional farmacéutico se garantiza el cumplimiento de la correcta prescripción y se racionaliza el uso de los fármacos. Sin embargo, el papel del farmacéutico tiene un potencial mayor si este especialista en medicamentos interviene en forma activa en la toma de decisiones terapéuticas con el médico junto a la cama del paciente. La posibilidad de realizar una doble validación de la prescripción, e intervenir asegurando una metodología eficaz y clara sería una estrategia educativa para farmacéuticos que permitiría afianzar las actividades de los mismos en el ámbito hospitalario incorporando este profesional al equipo interdisciplinario de salud.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nuestra preocupación reside en estudiar empíricamente el mecanismo de transmisión internacional de ciclos económicos a economías pequeñas y menos desarrolladas (LDC), evaluando el impacto de los shocks en los términos de intercambio en países dónde existen imperfecciones en el mercado crediticio que imponen severas restricciones en el financiamiento de la inversión doméstica y al crecimiento económico. Primero, analizamos si la cuenta corriente responde de manera asimétrica a movimientos de largo plazo en los términos de intercambio. La hipótesis es que “en los buenos tiempos” cuando se produce una mejora permanente en términos de intercambio (y con ello el nivel de ingreso) los individuos no elevan su consumo en un monto acorde con la mejora de su ingreso (permanente) sino que ahorran una fracción del aumento en su dotación para hacer frente a una reversión en la mejora en los términos de intercambios (aunque ésta sea transitoria) en el futuro. En consecuencia, la cuenta corriente (diferencia entre ingreso y absorción) responde de manera positiva a un shock permanente en los términos de intercambio, ya que el individuo ahorra de manera cautelosa –debido a que sabe que no le prestarán para suavizar consumo - aún suponiendo que en el futuro tendrá una reversión transitoria de su ingreso. Segundo, estudiamos la relación dinámica entre los términos de intercambio y la tasa de interés en la economía pequeña abierta y con imperfecciones en el mercado crediticio (información asimétrica). La hipótesis es que la economía doméstica tiene que soportar una prima de riesgo que eleva el costo de la inversión y retarda el crecimiento (Gertler y Rogoff; 1990). Esta prima de riesgo depende, además, en forma negativa del nivel del colateral que tenga la economía. El colateral es la dotación de recursos naturales, por ejemplo, que la economía posee a los fines garantizar el cumplimiento de las obligaciones contraídas (en el modelo presentado las actividades dónde se invierten son independientes del colateral). La hipótesis establecida indica que los cambios en los términos de intercambio generan un aumento del colateral de la economía y una reducción del riesgo país: aumentos en los términos de intercambio reducen la prima de riesgo de la economía que opera en mercados de capitales con asimetrías de información, y como consecuencia aumentarían los ingresos de capitales. De esta forma, se estaría encontrando una explicación a la denominada “Paradoja de Lucas”. Finalmente, el proyecto estudia la conexión entre dos variables “clave” en la economía de los países emergentes: la relación entre los términos de intercambio y el tipo de cambio real. Argumentamos que los efectos de las mejoras de los términos de intercambio sobre los flujos de capitales externos tienden a ser sobreestimadas si no se consideran los efectos “secundarios” de éstas sobre el tipo de cambio real de la economía pequeña menos desarrollada. En este proyecto se controlan estadísticamente esta relación. La estrategia empírica elegida resulta en aplicar a un panel (constituido por dieciocho países de Latinoamérica) el método generalizado de momentos (GMM) a dos modelos de regresión estadística a los fines de abordar de manera eficiente el problema de la endogeneidad de la variable dependiente que actúa como regresor rezagado. La estrategia de estimación elegida enfatiza el análisis de la relación dinámica de las variables económicas incluidas en el análisis. The paper analyzes the general problem related to the transmission of economic cycles to Small Open Economies. The analysis focuses on terms-of-trade shocks, which are considered one of the major sources of income volatility in developing economies. Specifically, we tackle the problem related to the impact of terms-of-trade shocks in Less Developed SOEs. ‘Less Developed SOEs’ are understood as those countries who have borrowing constraints. First, we put to a test the hypothesis of asymmetric response of current account to terms-of-trade shocks (the impact of the shock on current account differs depending whether it is positive or negative), which originates from considering binding restrictions in international capital markets (Agénor and Aizenman; 2004). Second, we investigate about the main determinants of External Capital Flows (ECF) directed to Developing Countries. We put to a test the Gertler and Rogoff (1990) hypothesis that a “risky rate” arises in that markets because the economy has not sufficient amount of wealth to “collateralize” the capital she needs to borrow to take advantage of the investment opportunities she has and additionally because the lender does not have the chance of observing what the borrowed does with the funds (that is information asymmetry arises because the lender can check the realized output of investment but he can not observe if he really invest in the project or secretly lend abroad). Finally, Following Prasad, E. S., Rajan and R. Subramanian, A (2007) we measure the relationship between external capital flows and domestic currency overvaluation. We run a panel GMM estimation for a set of 18 Latin American Countries during the period 1973-2008.