15 resultados para Web -- Métodos estadísticos

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El campo de las Bio-Ciencias está en pleno desarrollo y expansión. La variedad de tecnologías disponibles y aplicaciones están generando una cantidad abrumadora de datos que necesitan de protocolos, conceptos y métodos que permitan un análisis uniforme y asequible. Otra característica distintiva de estos ámbitos es su condición multidisciplinaria, donde interactúan (y cada vez más) disciplinas como la biología, la matemática, la estadística, la informática, la inteligencia artificial, etc. por lo que cualquier esfuerzo tendiente a aumentar el nivel de comunicación y entendimiento entre las disciplinas redundará en beneficios. La Minería de Datos, concepto que aglutina una variedad de metodologías analíticas, proporciona un marco conceptual y metodológico para el abordaje del análisis de datos y señales de distintas disciplinas. Sin embargo, cada campo de aplicación presenta desafíos específicos que deben ser abordados particularmente desde la racionalización de conceptos específicos del ámbito. La multidisiplinaridad es particularmente importante en aplicaciones biomédicas y biotecnológicas, donde se modelan fenómenos biológicos y se desarrollan métodos analíticos para generar nuevas estrategias diagnósticas, predictivas a partir de los datos recogidos. En este proyecto se integrarán las experiencias y criterios de distintas disciplinas que están involucradas en el desarrollo experimental en bio-ciencias, desde la biología molecular y la bioingeniería hasta la bioinformática y la estadística. La finalidad es elaborar protocolos que permitan extraer conocimiento en problemas biotecnológicos (particularmente experimentos genómicos) que se basan en la investigación sólida de los procedimientos estadísticos / bioinformáticos relevante para el manejo de datos experimentales. EL objetivo general de este proyecto es contribuir a la instauración de un Proceso Unificado de Análisis en Biotecnología generando conocimiento que permita el desarrollo de nuevas metodologías de análisis, con especial énfasis en métodos lineales y no-lineales de clasificación / predicción. La comprensión y estandarización de los requerimientos y etapas de experimentos en bio-ciencias es imprescindible para el éxito de proyectos biotecnológicos / biomédicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto de investigación propuesto tiene como principal objetivo profundizar en el estudio de la Mecánica Estadística y su aplicación a la resolución de problemas en esta área. Los temas de interés son los siguientes: 1. Estudio de la influencia del desorden en las propiedades dinámicas y termodinámicas de sistemas clásicos y cuánticos. 2. Reacciones controladas por difusión; influencia de campos externos aplicados. 3. Estudio de la influencia de la autocorrelación temporal finita sobre un sistema excitado por un ruido (ruido coloreado). 4. Resonancia Estocástica analizada a través de la función de Estructura Dinámica. 5. Estudio de procesos de quimiorrecepción de sistemas biológicos. 6. Cálculo del operador de evolución temporal para sistemas con Hamiltonianos dependientes del tiempo (Fase de Berry). 7. Influencia del desorden en la estadística del tiempo del primer pasaje en sistemas finitos. 8. Estudio del modelo de "Tight Binding" con desorden estático. Objetivos específicos * Se continuará con el estudio de la evolución temporal para sistemas Hamiltonianos dependientes del tiempo (Fase de Berry). * Se estudiará de las propiedades termodinámicas de sistemas Hamiltonianos clásicos y cuánticos con desorden estático. * Se estudiará la probabilidad de supervivencia y los momentos de desplazamientos para partículas que difunden en un sistema unidimensional con trampas estáticas. En particular se tratará el caso de campo fuerte, extendiendo los resultados ya obtenidos en el caso de campo débil; se analizará la conexión con la estadística del tiempo del primer pasaje. * Se continuará con el estudio analítico de los exponentes críticos para Modelos de la Mayoría. (...) * Se realizará un estudio detallado de las propiedades de la función de estructura dinámica asociada con el movimiento uni-dimensional de partículas sometidas a potenciales anarmónicos con múltiples pozos y fricción débil. Se estudiará el fenómeno de resonancia estocástica a través de la función de estructura dinámica. * Se estudiará la estadística del tiempo del primer pasaje en sistemas finitos homogéneos y desordenados con diversas condiciones de entorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La etapa de optimización de una droga denominada "Preformulación" está dirigida a definir el perfil de una droga desde el punto de vista de su identidad, pureza y potencia. Mediante la determinación de las propiedades físico-químicas que son relevantes en la formulación de un agente terapéutico es posible realizar una evaluación preliminar sobre las características de absorción del principio activo, por parte del organismo. (...) En la actualidad se elaboran en la Oficina de Farmacia "Formas Farmacéuticas" de cierta complejidad, que no pueden ser analizadas por los clásicos métodos químicos, sino que requieren de técnicas de instrumental modernas altamente selectivas y sensibles. Este tipo de estudio no puede realizarse fuera de los laboratorios oficiales de Control o del ámbito universitario, en razón del costo del equipamiento y las condiciones necesarias para su correcto funcionamiento. El análisis de los principios activos y de los productos farmacéuticos con ellos elaborados es responsabilidad tanto de la autoridad reguladora como el propio farmacéuticas que serán administradas al paciente. Es por ello que esta propuesta involucra el desarrollo de metodologías analíticas específicas y sensibles que permitan, en forma rápida, determinar la composición de las formas farmacéuticas que se comercializan, para "garantizar", dentro de los límites admisibles, la "calidad", requisito previo para una terapéutica medicamentosa eficaz y racional. Estudios realizados en diferentes países, demuestran el desarrollo significativo que ha tenido la Cromatografía Líquida de Alta Presión (HPLC) y la Espectrofotometría de Derivadas en el campo farmacéutico, permitiendo el análisis de drogas en presencia de sus productos de degradación o bien en mezclas de multicomponentes, aplicando distintas técnicas Espectroscópicas, como IR, RMN y EM en la determinación de estructuras. Por tal motivo, este proyecto apunta a desarrollar metodologías analíticas aplicables al análisis y determinación simultánea de los principios activos contenidos en formulaciones farmacéuticas. En este caso particular se propone el estudio de preparaciones galénicas (comprimidos) utilizadas como complemento en regímenes alimenticios, debido a la acción farmacológica de los ingredientes activos, al uso intensivo de las mismas en la Provincia de Córdoba y a la falta de Control de Calidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya tres décadas se conoce que el neonato, aún desde los primeros minutos de vida, puede responder a una gran variedad de olores, entre los cuales se encuentra el alcohol, con reacciones comportamentales y neurovegetativas específicas y que es capaz también de diferenciarlo de otros estímulos, lo que se puso de manifiesto a través de un proceso de habituación. La habituación, que es un proceso de aprendizaje no asociativo, se ha transformado en un parámetro valioso en el estudio del desarrollo de la plasticidad neurocomportamental en distintas especies, tanto en períodos perinatales como prenatales. En la esfera humana, se ha comprobado que el recién nacido puede habituar o sensitizar una respuesta refleja y responder de manera compleja a estimulación sensorial específica. Estudios realizados con claves olfatorias, tanto nóveles como biológicas, demuestran que el neonato puede reconocer y distinguir distintos olores y que la manera en que éste responde varía de acuerdo ala experiencia previa con el estímulo, manifestando preferencia por el olor que le resulta familiar, sin que necesariamente sea éste un olor materno. Estas tempranas capacidades de aprendizaje han sido útiles para evaluar la integridad del SNC fetal y neonatal, utilizando, por ejemplo, índices de habituación hacia distintos estímulos. Basándose en los resultados de estas investigaciones surge el objetivo general del proyecto: realizar un relevamiento de las capacidades de aprendizaje y memoria neonatales utilizando paradigmas de aprendizaje no asociativo como la habituación a claves olfativas nóveles (alcohol y limón), analizando la respuesta a los olores a través de patrones comportamentales y neurovegetativos presentes en el neonato a término. Este objetivo se irá desarrollando a lo largo de etapas experimentales consecutivas. En la primera de ellas, actualmente en ejecución, el propósito es evaluar respuestas habituatorias y de recuperación espontánea frente a la presentación secuencial de los aromas. En las etapas subsiguientes se pretenderá detectar también deshabituación y habituación ala deshabituación. Este proyecto forma parte de un plan de actividades mayor referido a reconocimiento, retención y discriminación de claves olfativas a nivel neonatológico. A largo plazo se procura diseñar, valiéndose de las tempranas capacidades de aprendizaje presentes en neonatos normales, pruebas que se utilicen para evaluar el desempeño neurocomportamental de recién nacidos donde se sospeche un Sistema Nervioso Central dañado por efectos de la exposición prenatal de alcohol y/o por episodios hipóxicos pre o perinatales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto, enmarcado en el área de metodología de análisis en bioingeniería-biotecnología aplicadas al estudio del cancer, es el análisis y caracterización a través modelos estadísticos con efectos mixtos y técnicas de aprendizaje automático, de perfiles de expresión de proteínas y genes de las vías metabolicas asociadas a progresión tumoral. Dicho estudio se llevará a cabo mediante la utilización de tecnologías de alto rendimiento. Las mismas permiten evaluar miles de genes/proteínas en forma simultánea, generando así una gran cantidad de datos de expresión. Se hipotetiza que para un análisis e interpretación de la información subyacente, caracterizada por su abundancia y complejidad, podría realizarse mediante técnicas estadístico-computacionales eficientes en el contexto de modelos mixtos y técnias de aprendizaje automático. Para que el análisis sea efectivo es necesario contemplar los efectos ocasionados por los diferentes factores experimentales ajenos al fenómeno biológico bajo estudio. Estos efectos pueden enmascarar la información subycente y así perder informacion relavante en el contexto de progresión tumoral. La identificación de estos efectos permitirá obtener, eficientemente, los perfiles de expresión molecular que podrían permitir el desarrollo de métodos de diagnóstico basados en ellos. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, herramientas y procedimientos de análisis que maximicen la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos/proteómicos que permitan extraer información biológica relevante pertinente al análisis, clasificación o predicción de cáncer, el diseño de tratamientos y terapias específicos y el mejoramiento de los métodos de detección como así tambien aportar al entendimieto de la progresión tumoral mediante análisis computacional intensivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las estrategias en el diseño de estructuras estuvieron históricamente limitadas por condicionantes como la eficiencia estructural, la lectura de la estructura explicitando su función, o la estructura planteada a partir de materiales o recursos disponibles. Actualmente, el desarrollo de nuevas tecnologías informáticas, nuevos materiales y la aparición de nuevos paradigmas en cuanto a tecnología sustentable, ha generando una situación de libertad arquitectónica prácticamente total en la que casi cualquier planteo formal puede ser resuelto y construido. Es consecuencia de este proceso la aparición de formas estructurales fracturadas, angulosas, grandes voladizos, y la utilización de materiales y sistemas tecnológicos no convencionales, que requieren de nuevas técnicas auxiliares de proyecto, ejecución y representación, y para las cuales es necesario un nuevo planteamiento y adecuación de estrategias de diseño estructural en relación a la propuesta arquitectónica. Este nuevo escenario proyectual, no está contemplado en los métodos de enseñanza del diseño de estructuras, produciendo un vacío conceptual sobre los futuros profesionales que deberán incursionar en el mundo actual. Es por ello que se propone indagar en diferentes estrategias de diseño para la elaboración de una metodología didáctica que permita descubrir el concepto del proyecto arquitectónico y generar un sistema estructural que se relacione adecuadamente con él, desde una visión integral de la arquitectura como producto cultural complejo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las relaciones intensidad de lluvia-duración-Recurrencia (i-d-T) y el patrón de distribución temporal de las lluvias, requeridos para estimar las "Crecientes de proyecto", empleadas para el proyecto de obras de ingeniería civil y planificación del uso del suelo, solo se pueden extraer de extensos registros de alta frecuencia, normalmente fajas pluviográficas, elemento en general no disponible en Argentina. En cambio, es habitual disponer de otro dato de lluvia provisto por pluviómetros: la lámina diaria total. En la provincia de Córdoba, existe información de relaciones i-d-T para siete estaciones pluviográficas, insuficientes para lograr una buena cobertura espacial de toda la Provincia. En este trabajo, se buscará regionalizar las ternas i-d-T para toda la provincia de Córdoba utilizando una técnica de regionalización la cuál contempla el uso de un modelo predictivo e información pluviométrica la cuál se caracteriza por su mayor densidad espacial. A tal fin se espera plasmar la información disponible en mapas digitales (grillas con resolución espacial acorde a los fines de proyecto) los cuales permitan caracterizar el comportamiento estadístico de la variable lluvia máxima diaria, a través de dos parámetros descriptivos como son la media y desvió estándar de los logaritmos de dichas series, incorporando a través de ellos características locales al modelo predictivo. Toda la información procesada y los mapas elaborados serán conformados en un Sistemas de Información Geográfica (SIG). El proceso metodológico empleado se puede resumir en siete actividades principales, a saber: a) selección de las estaciones pluviométricas disponibles en la provincia de Córdoba en base a la longitud de las series de registros, la verificación sobre las series de valores máximos de lluvias diarias de las hipótesis estadísticas básicas (independencia, estacionalidad y homogeneidad) y detección de datos atípicos. b) Determinación de los parámetros provenientes del análisis de estadística inferencial sobre las series de lluvias máximas diarias registradas en los puestos seleccionados y sobre los logaritmos de ellas. c) Ubicación especial de las distintas estaciones pluviométricas y sus parámetros estadísticos, d) Interpolación de la información puntual, generación de mapas de interpolación y análisis tendencial. e) implementación del Modelo predictivo para la regionalización de las curvas i-d-T. f) cuantificación de las incertidumbres provenientes de las distintas fuentes que permitan determinar el intervalo de confianza de los resultados obtenidos, para ello se espera plantear uno o más de los siguientes enfoques metodológicos, estadística clásica (análisis de primer orden), métodos bayeseanos, principio de pareto y/o principio de equifinalidad. g) Análisis y Validación de los resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el año 2002 el Comité de las Naciones Unidas recomendó al Estado Argentino que, entre otras cuestiones, revise las medidas presupuestarias para garantizar que los recursos disponibles se utilicen de la mejor manera posible para promover y proteger los derechos de los niños a nivel federal, regional y local. La hipótesis de trabajo de esta investigación postula que las investigaciones económicas realizadas hasta el momento sobre el gasto público dirigido a niñez y adolescencia en la provincia de Córdoba y en Argentina no permiten realizar una evaluación social de sus efectos en el bienestar social. Resulta necesario, por lo tanto, obtener indicadores de la valoración social subjetiva de determinadas políticas dirigidas a mejorar el bienestar de niños y adolescentes y a garantizar sus derechos, lo que permitirá completar el enfoque metodológico relacionado al análisis del gasto público como una inversión social que realiza el Estado. Se plantea como objetivo realizar una medición de la valoración social subjetiva de políticas dirigidas a mejorar la situación de vulnerabilidad de derechos de niños y adolescentes en las áreas de: salud, educación, nutrición y condiciones materiales de vida, en la Provincia de Córdoba. La metodología de investigación a utilizar involucra: a) Un estudio exploratorio bibliográfico sobre: metodologías de valuación contingente y diseño de experimentos basados en la teoría de la elección del consumidor, análisis del presupuesto público de la provincia de Córdoba y el sistema de contabilidad pública provincial, derechos de los niños y vulnerabilidad de esos derechos, modelos de elección discreta para estimar la disposición a pagar de los consumidores, el análisis conceptual del problema de asignación del gasto público provincial dirigido a niñez y adolescencia, principalmente en las áreas de salud, educación, nutrición y condiciones materiales de vida. b) El análisis de indicadores de bienestar de niños y adolescentes utilizados en estudios anteriores como el de “Fundación Arcor y Universidad Católica Argentina (2009). Barómetro de la deuda social de la infancia. Argentina 2004-2008: Condiciones de vida de la niñez y la adolescencia” y en la consulta y análisis de expertos, permitirá diseñar encuestas de preferencias declaradas basadas en el diseño de experimentos con alternativa base fija o de “statu quo”, que serán implementadas en formato web a una muestra representativa de jefes de hogar del aglomerado urbano “Gran Córdoba”, complementadas por encuestas personales asistidas por computadora. Se estimarán econométricamente modelos de elección discreta de Valor Extremo Generalizado, que permitirán estimar la valoración social de políticas que mejoren los indicadores de vulnerabilidad de derechos en niños (en las áreas de salud, educación, nutrición y condiciones materiales de vida) y se propondrán medidas de políticas de recaudación y asignación del gasto público provincial destinadas a mejorar la situación de vulnerabilidad de los derechos de los niños y adolescentes. c) Aplicación de la encuesta en los principales aglomerados urbanos del interior de la provincia de Córdoba. d) Análisis de los resultados obtenidos en el Gran Córdoba y en el interior provincial. Se espera realizar publicaciones en revistas científicas y la edición de un libro como producto de la investigación y que complementará el análisis del gasto público dirigido a niñez como inversión pública aportando a la disciplina de la evaluación social de proyectos de inversión. El proyecto resulta de gran importancia tanto a nivel provincial, nacional como internacional, dado hasta el momento no existen a nivel intenacional aplicaciones de métodos de preferencias declaradas para estimar la valoración social subjetiva que la población le atribuye a las políticas destinadas a mejorar el bienestar de los ñiños y promover y proteger sus derechos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trasplante renal es el tratamiento óptimo para personas que sufren estadios terminales de enfermedades renales, presentando una relación costo beneficio a favor del trasplante con respecto a la diálisis. El número de paciente que requieren ser trasplantado se incrementa año a año, pero este incremento no se ve acompañado con el aumento de los órganos disponibles. Según el SINTRA en nuestro país hay 5880 pacientes en lista de espera para recibir un trasplante renal, durante el 2011 se procuraron 1720 riñones con criterios clásicos. Es consecuencia de esta falta de órganos que se comenzó a utilizar órganos marginales, aquellos que no reúnen los criterios clásicos de donantes, el inconveniente que esto genera, es que los órganos a trasplantar presentan un mayor índice de daño celular y de rechazo. Diferentes estudios demostraron que la utilización de máquinas de perfusión en estos órganos mejora la sobrevida del órgano y disminuye el rechazo, algo que no se puede lograr con los métodos de conservación clásicos. El objetivo de este proyecto es: desarrollar y construir una máquina de perfusión renal de flujo continuo / pulsátil, con las innovaciones que consideramos pertinentes para la conservación de órganos con criterios extendidos. La máquina dispondrá de dos cámaras herméticas una dentro de la otra, la interior que contendrá al órgano el cual será conectado por medio de cánulas, a una bomba pulsátil con solución de Wisconsin o similar, estará rodeada de otra con líquido refrigerante bombeado desde una bomba refrigerante eléctrica portátil, estos sistema eléctricos serán a batería de larga duración. Nuestro prototipo aporta además nuevas innovaciones como son; un sistema (GPS) que permitirá conocer la ubicación precisa del dispositivo activado y poder coordinar de mejor manera el procedimiento quirúrgico, una computadora de a bordo con la que se controlará todos los sistemas y se almacenarán los parámetros estadísticos del órgano transportado, consolas y pantalla táctil para el control de los parámetros de funcionamiento, se construirá la carcasa con tecnología LRTM de fibra de vidrio inyectada la cual se está desarrollando en nuestra empresa para aplicaciones varias. Se desarrollarán piezas descartables de bajo costo, acorde a las disponibilidades económicas locales, para lograr de este modo la amplia utilización de esta máquina en todos los centros de trasplante y procuración de órganos del país.