7 resultados para métodos de detecção baseado em modelos
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
El desarrollo de conocimiento empírico sobre cómo la heterogeneidad espacial de un paisaje afecta los patrones de movimiento de una especie animal es considerado una prioridad para el manejo y la conservación de las especies y sus hábitats. En el caso de los insectos plaga, estos estudios resultan importantes ya que aportan las bases teóricas y empíricas fundamentales para su manejo. La persistencia de éstas especies en un paisaje modificado depende de la interrelación entre procesos ecológicos y la estructura del paisaje, tales como la interacción entre especies, la disponibilidad de parches hábitat y la influencia de las prácticas de manejo. El análisis de éstos procesos en un agroecosistema permite simplificar los modelos de heterogeneidad espacial, debido a que los lotes de cultivo son internamente homogéneos y los disturbios antropogénicos generalmente ocurren a la escala de parche, permitiendo determinar las respuestas de los insectos a dicha escala. La alfalfa (Medicago sativa) es un recurso fundamental para la producción agropecuaria y en Argentina, es el recurso forrajero más importante, constituyendo la base de la producción ganadera del país. Actualmente se cultivan alrededor de 5 millones de hectáreas, de las cuales un millón se siembran en la provincia de Córdoba. Además, cumple un rol importante en la sustentabilidad de los sistemas de producción por su función de recuperación de la fertilidad y estabilidad edáfica. La isoca de la alfalfa (Colias lesbia) es la plaga principal del cultivo, produciendo en promedio la pérdida de un corte por año. La hipótesis principal de nuestro trabajo es que los patrones de abundancia y movilidad de la isoca de la alfalfa son afectados por la estructura del paisaje y las prácticas de manejo. Los objetivos específicos del proyecto son: (a) Establecer el efecto de la estructura del paisaje y y el manejo del cultivo en la abundancia de los distintos estadios de Colias lesbia. (b) Determinar los patrones de dispersión de Colias lesbia en relación a la heterogeneidad espacial del paisaje (c) Generar un modelo predictivo de la abundancia de Colias lesbia según la estructura espacial del paisaje, el clima y el manejo del cultivo. (d) Desarrollar un conjunto de recomendaciones de manejo a escala regional para el control de la isoca de la alfalfa. Para ello se elegirán lotes de alfalfa en la región este de la provincia de Córdoba, en el departamento de San Justo, donde se realizará un relevamiento inicial del área de estudio y se dialogará con los productores. Paralelamente, se realizará una clasificación supervisada del área de estudio a partir de escenas de imágenes Landsat TM. En los parches seleccionados, durante 3 años y durante los meses de verano, se muestrearán quincenalmente los distintos estadios de Colias lesbia. Se realizarán análisis de correlación y regresión entre las variables independientes (métricas de la configuración y dinámica del paisaje) y las variables dependientes, (abundancia media de los diferentes estadios de las poblaciones). Asimismo, se realizarán experimentos de marcado-liberación-recaptura para determinar cómo el movimiento de la especie depende de la estructura del paisaje. Para modelar el movimiento inherente de la especie se combinará la información obtenida en el campo con un modelo de difusión utilizando métodos bayesianos. Se espera obtener modelos que permitan comprender los mecanismos que generan los patrones observados. Con esta información se propondrán lineamientos generales y específicos para un manejo de la isoca de la alfalfa a escala regional. En tal sentido, se espera aportar información para restringir la dispersión de la plaga, y reducir los costos y perjuicios del control químico que podrían evitarse con la aplicación de prácticas de manejo integrado y de "manejo de área" que minimicen el impacto de la plaga como también contribuir al conocimiento general de la ecología de insectos.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
El presente proyecto consta de dos partes. 1. Modelos exponenciales con dispersión. 2. Ajuste de modelos lineales generalizados para datos de conteo con superdispersión. (...) Objetivos generales y específicos: El estudio de los modelos exponenciales con dispersión conduce a desarrollar y perfeccionar métodos de estimación y de inferencia tanto desde el punto de vista teórico como numérico. (...) i) Presentar, sin sin usar el teorema de Mora, resultados sobre la convergencia de modelos exponenciales con dispersión infinitamente divisibles. ii) Proponer una metodología apropiada para el análisis estadístico de variables aleatorias discretas enteras en función de posibles modelos adoptados para su explicación. Construcción de los algoritmos necesarios para la estimación de los parámetros especificados en el modelo adoptado y presentación de las macros correspondientes para su implementación.
Resumo:
El proyecto de investigación propuesto tiene como principal objetivo profundizar en el estudio de la Mecánica Estadística y su aplicación a la resolución de problemas en esta área. Los temas de interés son los siguientes: 1. Estudio de la influencia del desorden en las propiedades dinámicas y termodinámicas de sistemas clásicos y cuánticos. 2. Reacciones controladas por difusión; influencia de campos externos aplicados. 3. Estudio de la influencia de la autocorrelación temporal finita sobre un sistema excitado por un ruido (ruido coloreado). 4. Resonancia Estocástica analizada a través de la función de Estructura Dinámica. 5. Estudio de procesos de quimiorrecepción de sistemas biológicos. 6. Cálculo del operador de evolución temporal para sistemas con Hamiltonianos dependientes del tiempo (Fase de Berry). 7. Influencia del desorden en la estadística del tiempo del primer pasaje en sistemas finitos. 8. Estudio del modelo de "Tight Binding" con desorden estático. Objetivos específicos * Se continuará con el estudio de la evolución temporal para sistemas Hamiltonianos dependientes del tiempo (Fase de Berry). * Se estudiará de las propiedades termodinámicas de sistemas Hamiltonianos clásicos y cuánticos con desorden estático. * Se estudiará la probabilidad de supervivencia y los momentos de desplazamientos para partículas que difunden en un sistema unidimensional con trampas estáticas. En particular se tratará el caso de campo fuerte, extendiendo los resultados ya obtenidos en el caso de campo débil; se analizará la conexión con la estadística del tiempo del primer pasaje. * Se continuará con el estudio analítico de los exponentes críticos para Modelos de la Mayoría. (...) * Se realizará un estudio detallado de las propiedades de la función de estructura dinámica asociada con el movimiento uni-dimensional de partículas sometidas a potenciales anarmónicos con múltiples pozos y fricción débil. Se estudiará el fenómeno de resonancia estocástica a través de la función de estructura dinámica. * Se estudiará la estadística del tiempo del primer pasaje en sistemas finitos homogéneos y desordenados con diversas condiciones de entorno.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Las relaciones intensidad de lluvia-duración-Recurrencia (i-d-T) y el patrón de distribución temporal de las lluvias, requeridos para estimar las "Crecientes de proyecto", empleadas para el proyecto de obras de ingeniería civil y planificación del uso del suelo, solo se pueden extraer de extensos registros de alta frecuencia, normalmente fajas pluviográficas, elemento en general no disponible en Argentina. En cambio, es habitual disponer de otro dato de lluvia provisto por pluviómetros: la lámina diaria total. En la provincia de Córdoba, existe información de relaciones i-d-T para siete estaciones pluviográficas, insuficientes para lograr una buena cobertura espacial de toda la Provincia. En este trabajo, se buscará regionalizar las ternas i-d-T para toda la provincia de Córdoba utilizando una técnica de regionalización la cuál contempla el uso de un modelo predictivo e información pluviométrica la cuál se caracteriza por su mayor densidad espacial. A tal fin se espera plasmar la información disponible en mapas digitales (grillas con resolución espacial acorde a los fines de proyecto) los cuales permitan caracterizar el comportamiento estadístico de la variable lluvia máxima diaria, a través de dos parámetros descriptivos como son la media y desvió estándar de los logaritmos de dichas series, incorporando a través de ellos características locales al modelo predictivo. Toda la información procesada y los mapas elaborados serán conformados en un Sistemas de Información Geográfica (SIG). El proceso metodológico empleado se puede resumir en siete actividades principales, a saber: a) selección de las estaciones pluviométricas disponibles en la provincia de Córdoba en base a la longitud de las series de registros, la verificación sobre las series de valores máximos de lluvias diarias de las hipótesis estadísticas básicas (independencia, estacionalidad y homogeneidad) y detección de datos atípicos. b) Determinación de los parámetros provenientes del análisis de estadística inferencial sobre las series de lluvias máximas diarias registradas en los puestos seleccionados y sobre los logaritmos de ellas. c) Ubicación especial de las distintas estaciones pluviométricas y sus parámetros estadísticos, d) Interpolación de la información puntual, generación de mapas de interpolación y análisis tendencial. e) implementación del Modelo predictivo para la regionalización de las curvas i-d-T. f) cuantificación de las incertidumbres provenientes de las distintas fuentes que permitan determinar el intervalo de confianza de los resultados obtenidos, para ello se espera plantear uno o más de los siguientes enfoques metodológicos, estadística clásica (análisis de primer orden), métodos bayeseanos, principio de pareto y/o principio de equifinalidad. g) Análisis y Validación de los resultados.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.