12 resultados para Solo - Métodos
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
Estudios prelimares iniciados en el 2007 (Proyecto Pictor Córdoba 877) están indicando que la resistencia a los antihelmínticos por los nematodes que parasitan a los caprinos es un fenómeno común en el centro-norte de Córdoba. En la región, el género parasitario de mayor prevalencia es Haemonchus spp el cual es considerado mundialmente y desde una perspectiva global, como el problema parasitario de mayor importancia económica para los pequeños rumiantes. Poblaciones de este parásito con resistencia a los antiparasitarios de mayor uso (avermectinas y benzimidazoles) están ampliamente difundidos en la región (incluidos aislamientos con resistencia hacia ambas drogas) y de acuerdo a la información preliminar que se está obteniendo, los productores no están advertidos sobre el problema y en muchos casos están utilizando antiparasitarios totalmente inefectivos. El corolario es que se están produciendo pérdidas productivas (potencialmente de magnitud) y la acumulación de genes resistentes en las majadas y superficies de pastoreo lo cual compromete la eficiencia y sustentabilidad de estos sistemas productivos caprinos. Las técnicas diagnósticas actualmente disponibles se basan en características fenotípicas de las poblaciones parasitarias resistentes las que se expresan cuando las fallas terapéuticas y productivas generalmente ya pueden haber ocurrido. Mientras no se encuentren disponibles técnicas diagnósticas para identificar características genotípicas de estas poblaciones que permitan anticiparnos a estas pérdidas, se hace necesario la implementación continua de evaluaciones para detectar los problemas de eficacia de los antihelmínticos tan pronto como sea posible. La menor capacidad económica relativa de los productores caprinos frente a otras actividades pecuarias exige métodos diagnósticos muy simples si es que se pretende la adopción de esta metodología diagnóstica. En este contexto, el proyecto contempla en este punto específico el estudio de técnicas y alternativas para simplificar y economizar los métodos actuales para el diagnóstico de la resistencia antihelmíntica bajo situaciones de campo. La dispersión de la resistencia surge como una consecuencia inevitable de las actuales prácticas de aplicación de antiparasitarios desarrolladas en la región y exige abandonar en forma urgente la lógica simplista y los tratamientos empíricos sin sustento epidemiológico que están comprometiendo seriamente la sustentabilidad del control de los nematodos gastrointestinales. Se hace necesario contar con información regional no solo sobre la epidemiología de estos parásitos si no también sobre sus efectos sobre los diferentes estados fisiológicos de los hospedadores caprinos. En una aproximación al problema, el proyecto propone el estudio sobre el impacto productivo y sanitario que ocasionan los nematodes en el periparto y lactación de las hembras caprinas y determinar los efectos de tratamientos estratégicos durante este período fisiológico específico.
Resumo:
El uso de robots industriales junto con los sistemas de diseño asistidos por computadora (CAD), y los sistemas de fabricación asistidos por computadora (CAM), son la última tendencia en automatización de los procesos de fabricación. Aunque el crecimiento del mercado de la industria Robótica ha sido lento en comparación con los primeros años de la década de los 80´s, de acuerdo a algunas predicciones, la industria de la robótica está en su infancia. Ya sea que éstas predicciones se realicen completamente, o no, es claro que la industria robótica, en una forma o en otra, permanecerá. En la actualidad el uso de los robots industriales está concentrado en operaciones muy simples, como tareas repetitivas que no requieren tanta precisión. En los 80´s las tareas relativamente simples como las máquinas de inspección, transferencia de materiales, pintado automotriz, y soldadura son económicamente viables para ser robotizadas. Los análisis de mercado en cuanto a fabricación predicen que en ésta década y en las posteriores los robots industriales incrementarán su campo de aplicación, ésto debido a los avances tecnológicos en sensórica, los cuales permitirán tareas mas sofisticadas. El futuro es muy incierto y seguramente los ROBOTS tendrán mucho que ver en nuestra vida diaria en los próximos años y tenemos que lograr que la Argentina no solo este presente, en desarrollos que ameriten una publicación Internacional, si no también que puedan ser, en conjunción con la Universidad, la industria y aportes de capitales privados, diseñados, construidos, aplicados y comercializados según las necesidades de nuestro medio, desde el reemplazo de miembros humanos a personas con discapacidades, el alivio al hombre en tareas inhumanas y también en aplicaciones industriales aun no explotadas. Actualmente la investigación en el área de robótica en la Argentina, esta enfocada a problemas de electrónica y control. La mecánica no forma parte de dicho ambiente científico como puede verse en las 4 últimas Jornadas Argentinas de Robótica. En todos los casos se trabaja en la investigación de algoritmos o métodos de control montados en pequeños robots comerciales. El proyecto ROBOT-01 propone la construcción de un manipulador de 7 grados de libertad, aplicando las mas modernas técnicas de Simulación, diseño, CAD-3D, materiales compuestos, construcción de micro-mecánica, electrónica y software. El brazo manipulador estará diseñado para ser continuado o asociado con una mano robótica y con una base móvil autónoma, las que serán encaradas en proyectos futuros, o con interacción con otros grupos de investigación similares de otras Universidades
Resumo:
El proyecto de investigación propuesto tiene como principal objetivo profundizar en el estudio de la Mecánica Estadística y su aplicación a la resolución de problemas en esta área. Los temas de interés son los siguientes: 1. Estudio de la influencia del desorden en las propiedades dinámicas y termodinámicas de sistemas clásicos y cuánticos. 2. Reacciones controladas por difusión; influencia de campos externos aplicados. 3. Estudio de la influencia de la autocorrelación temporal finita sobre un sistema excitado por un ruido (ruido coloreado). 4. Resonancia Estocástica analizada a través de la función de Estructura Dinámica. 5. Estudio de procesos de quimiorrecepción de sistemas biológicos. 6. Cálculo del operador de evolución temporal para sistemas con Hamiltonianos dependientes del tiempo (Fase de Berry). 7. Influencia del desorden en la estadística del tiempo del primer pasaje en sistemas finitos. 8. Estudio del modelo de "Tight Binding" con desorden estático. Objetivos específicos * Se continuará con el estudio de la evolución temporal para sistemas Hamiltonianos dependientes del tiempo (Fase de Berry). * Se estudiará de las propiedades termodinámicas de sistemas Hamiltonianos clásicos y cuánticos con desorden estático. * Se estudiará la probabilidad de supervivencia y los momentos de desplazamientos para partículas que difunden en un sistema unidimensional con trampas estáticas. En particular se tratará el caso de campo fuerte, extendiendo los resultados ya obtenidos en el caso de campo débil; se analizará la conexión con la estadística del tiempo del primer pasaje. * Se continuará con el estudio analítico de los exponentes críticos para Modelos de la Mayoría. (...) * Se realizará un estudio detallado de las propiedades de la función de estructura dinámica asociada con el movimiento uni-dimensional de partículas sometidas a potenciales anarmónicos con múltiples pozos y fricción débil. Se estudiará el fenómeno de resonancia estocástica a través de la función de estructura dinámica. * Se estudiará la estadística del tiempo del primer pasaje en sistemas finitos homogéneos y desordenados con diversas condiciones de entorno.
Resumo:
La superficie de este proyecto abarca unos 2000 Km, comprendiendo no solo el Gran Córdoba, sino también sectores adyacentes al mismo. En toda la zona involucrada, desde la década del 40, viene desarrollándose un descontrolado proceso de urbanización que ha traído como consecuencia, la aparición de importantes situaciones de inestabilidad. Ante esta realidad, las investigaciones integrales del medio natural resultan imprescindibles para encarar la planificación territorial. Por ello en el proyecto se destaca al medio físico como la componente ambiental que más interactúa con la edificación e infraestructura, determinando gran parte de los problemas territoriales. A los fines de conocer los problemas generados por esta situación y, subsecuentemente, aportar en forma concreta y definitiva las correspondientes soluciones, se ha desarrollado el presente proyecto el cual constituye una investigación Aplicada (...) El desarrollo de Cartas Geotécnicas aplicadas, incluyendo las memorias técnicas y mapas temáticos correspondientes, constituyen una herramienta de aplicación del conocimiento que congrega métodos y técnicas procurando establecer "Unidades Territoriales Homogéneas" y formulando Directrices para la Ocupación de cada una de esas unidades. (...) El objetivo general del proyecto es por lo tanto la evaluación y caracterización integral: Geológica, Geotécnica e Hidrológica del área Urbana y Metropolitana de la ciudad de Córdoba. El objetivo científico-tecnológico es: el "Know-how" multidisciplinario para evaluaciones territoriales integrales orientadas a la Planificación Urbana y Aprovechamiento Integral de Recursos del Medio Físico. Como objetivos específicos dentro del marco Económico Social pueden mencionarse: * La orientación del proyecto tiende a satisfacer una necesidad del Estado en lo que hace a la planificación del territorio, proporcionando una completa información actualizada de los procesos y riesgos actuales y potenciales a que está expuesto el ambiente. Por lo tanto, se espera que mediante la prevención de una adecuada planificación se obtengan altos beneficios sociales y económicos. * Aportes al Ordenamiento Territorial abordando la interacción entre ocupación y medio físico, posibilitando del desarrollo de directrices de ocupación (Planos Directrices E 1:5000) y minimizando riesgos geoambientales. * Documentos Técnicos aplicados al cuidado y mejora de Recursos Paisajísticos de alta belleza escénica del área metropolitana de la ciudad de Córdoba.
Resumo:
El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)
Resumo:
La etapa de optimización de una droga denominada "Preformulación" está dirigida a definir el perfil de una droga desde el punto de vista de su identidad, pureza y potencia. Mediante la determinación de las propiedades físico-químicas que son relevantes en la formulación de un agente terapéutico es posible realizar una evaluación preliminar sobre las características de absorción del principio activo, por parte del organismo. (...) En la actualidad se elaboran en la Oficina de Farmacia "Formas Farmacéuticas" de cierta complejidad, que no pueden ser analizadas por los clásicos métodos químicos, sino que requieren de técnicas de instrumental modernas altamente selectivas y sensibles. Este tipo de estudio no puede realizarse fuera de los laboratorios oficiales de Control o del ámbito universitario, en razón del costo del equipamiento y las condiciones necesarias para su correcto funcionamiento. El análisis de los principios activos y de los productos farmacéuticos con ellos elaborados es responsabilidad tanto de la autoridad reguladora como el propio farmacéuticas que serán administradas al paciente. Es por ello que esta propuesta involucra el desarrollo de metodologías analíticas específicas y sensibles que permitan, en forma rápida, determinar la composición de las formas farmacéuticas que se comercializan, para "garantizar", dentro de los límites admisibles, la "calidad", requisito previo para una terapéutica medicamentosa eficaz y racional. Estudios realizados en diferentes países, demuestran el desarrollo significativo que ha tenido la Cromatografía Líquida de Alta Presión (HPLC) y la Espectrofotometría de Derivadas en el campo farmacéutico, permitiendo el análisis de drogas en presencia de sus productos de degradación o bien en mezclas de multicomponentes, aplicando distintas técnicas Espectroscópicas, como IR, RMN y EM en la determinación de estructuras. Por tal motivo, este proyecto apunta a desarrollar metodologías analíticas aplicables al análisis y determinación simultánea de los principios activos contenidos en formulaciones farmacéuticas. En este caso particular se propone el estudio de preparaciones galénicas (comprimidos) utilizadas como complemento en regímenes alimenticios, debido a la acción farmacológica de los ingredientes activos, al uso intensivo de las mismas en la Provincia de Córdoba y a la falta de Control de Calidad.
Resumo:
Desde hace ya tres décadas se conoce que el neonato, aún desde los primeros minutos de vida, puede responder a una gran variedad de olores, entre los cuales se encuentra el alcohol, con reacciones comportamentales y neurovegetativas específicas y que es capaz también de diferenciarlo de otros estímulos, lo que se puso de manifiesto a través de un proceso de habituación. La habituación, que es un proceso de aprendizaje no asociativo, se ha transformado en un parámetro valioso en el estudio del desarrollo de la plasticidad neurocomportamental en distintas especies, tanto en períodos perinatales como prenatales. En la esfera humana, se ha comprobado que el recién nacido puede habituar o sensitizar una respuesta refleja y responder de manera compleja a estimulación sensorial específica. Estudios realizados con claves olfatorias, tanto nóveles como biológicas, demuestran que el neonato puede reconocer y distinguir distintos olores y que la manera en que éste responde varía de acuerdo ala experiencia previa con el estímulo, manifestando preferencia por el olor que le resulta familiar, sin que necesariamente sea éste un olor materno. Estas tempranas capacidades de aprendizaje han sido útiles para evaluar la integridad del SNC fetal y neonatal, utilizando, por ejemplo, índices de habituación hacia distintos estímulos. Basándose en los resultados de estas investigaciones surge el objetivo general del proyecto: realizar un relevamiento de las capacidades de aprendizaje y memoria neonatales utilizando paradigmas de aprendizaje no asociativo como la habituación a claves olfativas nóveles (alcohol y limón), analizando la respuesta a los olores a través de patrones comportamentales y neurovegetativos presentes en el neonato a término. Este objetivo se irá desarrollando a lo largo de etapas experimentales consecutivas. En la primera de ellas, actualmente en ejecución, el propósito es evaluar respuestas habituatorias y de recuperación espontánea frente a la presentación secuencial de los aromas. En las etapas subsiguientes se pretenderá detectar también deshabituación y habituación ala deshabituación. Este proyecto forma parte de un plan de actividades mayor referido a reconocimiento, retención y discriminación de claves olfativas a nivel neonatológico. A largo plazo se procura diseñar, valiéndose de las tempranas capacidades de aprendizaje presentes en neonatos normales, pruebas que se utilicen para evaluar el desempeño neurocomportamental de recién nacidos donde se sospeche un Sistema Nervioso Central dañado por efectos de la exposición prenatal de alcohol y/o por episodios hipóxicos pre o perinatales.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Las estrategias en el diseño de estructuras estuvieron históricamente limitadas por condicionantes como la eficiencia estructural, la lectura de la estructura explicitando su función, o la estructura planteada a partir de materiales o recursos disponibles. Actualmente, el desarrollo de nuevas tecnologías informáticas, nuevos materiales y la aparición de nuevos paradigmas en cuanto a tecnología sustentable, ha generando una situación de libertad arquitectónica prácticamente total en la que casi cualquier planteo formal puede ser resuelto y construido. Es consecuencia de este proceso la aparición de formas estructurales fracturadas, angulosas, grandes voladizos, y la utilización de materiales y sistemas tecnológicos no convencionales, que requieren de nuevas técnicas auxiliares de proyecto, ejecución y representación, y para las cuales es necesario un nuevo planteamiento y adecuación de estrategias de diseño estructural en relación a la propuesta arquitectónica. Este nuevo escenario proyectual, no está contemplado en los métodos de enseñanza del diseño de estructuras, produciendo un vacío conceptual sobre los futuros profesionales que deberán incursionar en el mundo actual. Es por ello que se propone indagar en diferentes estrategias de diseño para la elaboración de una metodología didáctica que permita descubrir el concepto del proyecto arquitectónico y generar un sistema estructural que se relacione adecuadamente con él, desde una visión integral de la arquitectura como producto cultural complejo.
Resumo:
Las relaciones intensidad de lluvia-duración-Recurrencia (i-d-T) y el patrón de distribución temporal de las lluvias, requeridos para estimar las "Crecientes de proyecto", empleadas para el proyecto de obras de ingeniería civil y planificación del uso del suelo, solo se pueden extraer de extensos registros de alta frecuencia, normalmente fajas pluviográficas, elemento en general no disponible en Argentina. En cambio, es habitual disponer de otro dato de lluvia provisto por pluviómetros: la lámina diaria total. En la provincia de Córdoba, existe información de relaciones i-d-T para siete estaciones pluviográficas, insuficientes para lograr una buena cobertura espacial de toda la Provincia. En este trabajo, se buscará regionalizar las ternas i-d-T para toda la provincia de Córdoba utilizando una técnica de regionalización la cuál contempla el uso de un modelo predictivo e información pluviométrica la cuál se caracteriza por su mayor densidad espacial. A tal fin se espera plasmar la información disponible en mapas digitales (grillas con resolución espacial acorde a los fines de proyecto) los cuales permitan caracterizar el comportamiento estadístico de la variable lluvia máxima diaria, a través de dos parámetros descriptivos como son la media y desvió estándar de los logaritmos de dichas series, incorporando a través de ellos características locales al modelo predictivo. Toda la información procesada y los mapas elaborados serán conformados en un Sistemas de Información Geográfica (SIG). El proceso metodológico empleado se puede resumir en siete actividades principales, a saber: a) selección de las estaciones pluviométricas disponibles en la provincia de Córdoba en base a la longitud de las series de registros, la verificación sobre las series de valores máximos de lluvias diarias de las hipótesis estadísticas básicas (independencia, estacionalidad y homogeneidad) y detección de datos atípicos. b) Determinación de los parámetros provenientes del análisis de estadística inferencial sobre las series de lluvias máximas diarias registradas en los puestos seleccionados y sobre los logaritmos de ellas. c) Ubicación especial de las distintas estaciones pluviométricas y sus parámetros estadísticos, d) Interpolación de la información puntual, generación de mapas de interpolación y análisis tendencial. e) implementación del Modelo predictivo para la regionalización de las curvas i-d-T. f) cuantificación de las incertidumbres provenientes de las distintas fuentes que permitan determinar el intervalo de confianza de los resultados obtenidos, para ello se espera plantear uno o más de los siguientes enfoques metodológicos, estadística clásica (análisis de primer orden), métodos bayeseanos, principio de pareto y/o principio de equifinalidad. g) Análisis y Validación de los resultados.