11 resultados para Derecho-España-Bases de datos en línea
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
La erosión es, de los procesos degradativos de suelo, el mayor impacto negativo que provoca, tanto por su extensión como por la magnitud. En Córdoba, cerca de 2 millones de ha están infectadas por erosión hídrica con grados moderados a graves. Este fenómeno está regido por una serie de factores: tipo de suelo, lluvias, tipo de cultivo, labores culturales, época de siembra, etc. Los Sistemas de Información Georreferenciada (SIG) son herramientas que permitan manipular gran cantidad de datos; el potencial de un SIG se amplía cuando se asocia un Sistema de Base de Datos Relacional (SBDR). Este último puede almacenar, transformar y analizar datos en formato de tablas y producir planos de atributos correspondiente a áreas delimitadas por polígonos en un plano base que se relacionan por medio de identificadores lógicos. Existen diversos modelos que describen el proceso de erosión hídrica, los parámetros de ellos tienen distribución geográfica y temporal lo que posibilita su aplicación dentro de un ambiente SIG asociado a un SBDR. Se propone el uso de SIG asociado a un SBDR en los estudios de Erosión Hídrica, para lo cual se deberán implementar una Base de Datos con formación extraída de Sensores Remotos, relevamiento de campo, encuesta a productores, análisis de laboratorio, etc. Se confeccionará un mapa base con polígonos identificados los que se asociarán a la base de datos y se crearán los planos de información por medio de ecuaciones de búsqueda. Se espera que el SIG y el SBDR sea una herramienta útil en este tipo de estudio y quedará a disposición de otros investigadores para su actualización, incorporándose nuevos datos y nuevos campos cuando se necesite. Se proyecta realizar en años posteriores estudios multitemporales al incorporar datos de diferentes épocas lo que posibilitará prevenir efectos de degradación.
Resumo:
El campo de las Bio-Ciencias está en pleno desarrollo y expansión. La variedad de tecnologías disponibles y aplicaciones están generando una cantidad abrumadora de datos que necesitan de protocolos, conceptos y métodos que permitan un análisis uniforme y asequible. Otra característica distintiva de estos ámbitos es su condición multidisciplinaria, donde interactúan (y cada vez más) disciplinas como la biología, la matemática, la estadística, la informática, la inteligencia artificial, etc. por lo que cualquier esfuerzo tendiente a aumentar el nivel de comunicación y entendimiento entre las disciplinas redundará en beneficios. La Minería de Datos, concepto que aglutina una variedad de metodologías analíticas, proporciona un marco conceptual y metodológico para el abordaje del análisis de datos y señales de distintas disciplinas. Sin embargo, cada campo de aplicación presenta desafíos específicos que deben ser abordados particularmente desde la racionalización de conceptos específicos del ámbito. La multidisiplinaridad es particularmente importante en aplicaciones biomédicas y biotecnológicas, donde se modelan fenómenos biológicos y se desarrollan métodos analíticos para generar nuevas estrategias diagnósticas, predictivas a partir de los datos recogidos. En este proyecto se integrarán las experiencias y criterios de distintas disciplinas que están involucradas en el desarrollo experimental en bio-ciencias, desde la biología molecular y la bioingeniería hasta la bioinformática y la estadística. La finalidad es elaborar protocolos que permitan extraer conocimiento en problemas biotecnológicos (particularmente experimentos genómicos) que se basan en la investigación sólida de los procedimientos estadísticos / bioinformáticos relevante para el manejo de datos experimentales. EL objetivo general de este proyecto es contribuir a la instauración de un Proceso Unificado de Análisis en Biotecnología generando conocimiento que permita el desarrollo de nuevas metodologías de análisis, con especial énfasis en métodos lineales y no-lineales de clasificación / predicción. La comprensión y estandarización de los requerimientos y etapas de experimentos en bio-ciencias es imprescindible para el éxito de proyectos biotecnológicos / biomédicos.
Resumo:
En la actualidad la información es uno de los elementos de mayor valor agregado, más cuando es expresión novedosa y útil que permite acelerar el proceso de toma de decisiones o aumentar el conocimiento sobre determinados elementos. Los volúmenes de información que se generan en forma permanente (por ej. en el ámbito hospitalario, experimento genómicos, epidimeológicos, etc.) están creciendo considerablemente. El análisis y procesos diagnósticos exitosos implican la utilización de un número cada vez mayor de variables a asociar. Por otra parte, el formato digital está reemplazando cada vez más el papel en todos los ambientes, desde el empresarial hasta el de salud, pasando indudablemente por el de los experimentos científicos, particularmente los experimentos genéticos. Estos procesos de recolección o generación de información producen volúmenes tales que superan las capacidades humanas para analizarlas. Esta limitación se debe a varios factores, entre los que podemos mencionar, la disponibilidad en tiempo y la incapacidad de relacionar grandes volúmenes con eventos y una gran cantidad de variables. Entonces ¿Qué hacer con toda la información disponible? ¿Cómo extraer conocimiento de dicha información? El Descubrimiento de Información en Bases de Datos (DIBD) y las técnicas de Minería de Datos (MD) (entre las que podemos mencionar aquellas provenientes del campo de la Inteligencia Artificial, tales como los modelos Neuronales Artificiales) son metodologías asociadas, tendientes a resolver los problemas de la extracción de información novel y útil sobre un conjunto de datos y/o señales biomédicas. Este proyecto trata sobre el desarrollo y aplicación de metodologías de análisis de datos para el descubrimiento de información en bases de datos biológicas y biomédicas, tendientes a mejorar y/o desarrollar nuevas técnicas de diagnóstico, como también para el análisis de señales e información biomédica.
Resumo:
La enfermedad de Chagas representa uno de los graves problemas de salud pública en América Latina, con alto impacto socio-económico al afectar mayoritariamente a sectores vulnerables y a grupo poblacional en edad productiva. Es una enfermedad de vigilancia epidemiológica activa, a lo que se suma los retos que plantean las diferencias y falta de articulación entre los sistemas de vigilancia implementados en la región, como así también la incorporación de las Tecnologías de Información y Comunicación (TICs) como herramientas disponibles y cada vez más utilizadas en el ámbito de la salud Objetivo: Fortalecer, a través del uso de las TICs, la vigilancia epidemiológica de la enfermedad de Chagas con el objeto de mejorar el control de las mismas, acortando los tiempos entre la notificación y la toma de decisiones por parte de los responsables, mejorar el seguimiento y control del tratamiento de los infectados en zonas piloto de Argentina. Metodología: El presente proyecto tendrá cuatro etapas. Etapa 1: Diseño y desarrollo de bases y herramientas del Sistema de Vigilancia Epidemiológica para Chagas facilitado por TICs (SVEC-TICs), constituido por: 1-Componente “Sistema de Vigilancia para teléfonos móviles”: 2-Componente “Sistema de Vigilancia Online”. 3-Componente “Servicios Móviles”: 4-Componente “Portal Web”. Etapa 2. Implementación del SVEC-TICs Se realizará en zona piloto de la Provincia de Córdoba (Argentina) en el ámbito de las instituciones de salud pública (Centros de Atención Primaria, Hospitales, Área de epidemiología, Ministerio de Salud) trabajando en forma conjunta con los equipos de salud locales. Etapa 3. Medición de impacto del SVEC-TICs y comparación de resultados en los escenarios regionales. Se realizará con una estrategia complementaria de análisis cuantitativo y cualitativo. ANÁLISIS CUANTITATIVO: Al inicio de las actividades de implementación del proyecto, se realizará una línea de base mediante la cual se recopilará información de los sistemas de vigilancia actuales para Chagas: instrumentos de aplicación para vigilancia, utilización o no de TICs y niveles de desarrollo, flujos del sistema de vigilancia, toma de decisiones en los diferentes niveles, devolución de la información a los niveles locales y tiempos utilizados, calidad, integralidad y oportunidad de la información en los diferentes niveles del sistema de vigilancia. Con esta información se elaborará un documento de análisis con debilidades y fortalezas en los sistemas de vigilancia actuales. Se evaluará el impacto del SVEC-TICs, realizando análisis comparativo entre los resultados previos y posteriores a la implementación del proyecto teniendo en cuenta los indicadores planteados. En todos los casos descriptos los datos obtenidos serán analizados según la naturaleza de la variable aplicando ANOVA para las mensurables y datos categorizados para las variables categóricas. ANÁLISIS CUALITATIVO: Se propone analizar específicamente el uso, la apropiación y los procesos de implementación de la incorporación de un sistema de informatización en el sistema de vigilancia de la enfermedad de Chagas, con un enfoque complementario al análisis de las bases de datos digitales que proporciona este instrumento, a fin de poder integrar y complementar resultados de ambas fuentes. La propuesta metodológica cualitativa se sustentará en entrevistas en profundidad y grupos focales a los agentes de salud, directores de los centros de salud. La modalidad de análisis de la información obtenida será realizada a través del método comparativo constante (Strauss y Glaser). Etapa 4. Diseminación del proyecto y sus resultados. Se espera que los pacientes incluidos en el grupo de vigilancia favorecida por las TICS presentarán una mayor oportunidad en la notificación, mejor calidad en el diagnóstico y mejor calidad en la respuesta que los que fueron vigilados sin el apoyo de las mismas.
Resumo:
La Vigilancia Tecnológica es un proceso sistemático de captación y análisis de información científico-tecnológica que sirve de apoyo en los procesos de toma de decisiones, en especial en las empresas de base tecnológica y en las instituciones de investigación y desarrollo. A través de los estudios de Vigilancia Tecnológica, se detectan fuentes de información esenciales para hacer frente a las decisiones tecnológicas, se extrae información relevante sobre tendencias tecnológicas, novedades, invenciones, potenciales socios o competidores, aplicaciones tecnológicas emergentes, a la vez que se contemplan aspectos regulatorios y de mercado que pueden condicionar el éxito de una innovación tecnológica. Toda esta información codificada y analizada brinda a un gestor, ya sea una empresa o institución científica, la posibilidad de trazar planes y formular estrategias tecnológicas, minimizando la incertidumbre. Este proyecto se propone desarrollar un sistema de vigilancia tecnológica, especializado en biotecnología, que permita realizar de forma sistemática la captura, el análisis, la difusión y la explotación de las informaciones técnicas útiles para el desarrollo y el crecimiento de las empresas de biotecnología en la provincia de Córdoba. Se partirá del análisis de los recursos disponibles en el sistema de innovación de la provincia de Córdoba (bases de datos, red de bibliotecas, servicios de documentación bibliográfica, etc.) y se determinarán los recursos específicos que son necesarios incorporar o desarrollar para poner en marcha el sistema. El diseño del sistema, basado en las aplicaciones informáticas disponibles y en las que se desarrollen en forma específica, pondrá a disposición de las instituciones científicas y de las empresas participantes la información analizada y estructurada. Como complemento se desarrollará un servicio de alertas sobre noticias de biotecnología, nuevos productos y tecnologías, novedades legislativas, ayudas y subvenciones, proyectos en desarrollo, etc. Como base del sistema se creará y se mantendrá una biblioteca on-line, donde se clasificarán y actualizarán las novedades tecnológicas, documentos clave y prospectivos, ofertas y demandas tecnológicas, eventos, boletines, etc. Como productos de este proyecto se dispondrá, además del diseño completo del sistema, de un portal básico que permitirá iniciar las actividades búsqueda, captura y de difusión. Se elaborará un documento final que expondrá, como resultados de la investigación realizada, las características del sistema, los recursos disponibles, los que deben ser adquiridos y/o desarrollados y que superan las posibilidades presupuestarias del propio proyecto.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
El presente plan de trabajo consiste en el desarrollo de un modelo numérico para la simulación de la hidrodinamia en lagos, así como de los procesos de transporte turbulentos asociados que rigen la calidad del recurso. Este modelo a su vez se apoyará en mediciones de campo propias que permitan la verificación de resultados de simulación. Inicialmente se simulará y caracterizará la respuesta hidrodinámica, termodinámica y química (biológica) de un volumen de control bidimensional a un "input" atmosférico representado tanto por variaciones en la radiación solar como en la acción del viento sobre la superficie libre del cuerpo de agua, o por el efecto de efluentes/afluentes líquidos a un embalse con diferentes temperaturas medias. (...) El objetivo a largo alcance del proyecto lo constituye la modelación tridimensional de corrientes en cuerpos de agua, inducidas tanto por el viento como por estratificaciones térmicas así como por flujos líquidos de entrada/salida, para finalmente acoplarla con modelos de calidad de agua que resuelvan ecuaciones de transporte para oxígeno disuelto, demanda biológica de oxígeno, fósforo, nitrógeno, etc., considerando asimismo procesos de intercambio de calor y masa (oxígeno) en los contornos del sistema (principalmente en su superficie libre). Como sistema de estudio para los trabajo de campo se selecciona el embalse del Lago San Roque, donde se desarrollarán campañas de monitoreo periódico empleando la infraestructura del CIHRSA y la experiencia de su personal. Para la calibración y verificación del código numérico se emplearán también bases de datos externas y, dependiendo del grado de avance del proyecto PIC, se incorporarán resultados inéditos de laboratorio, los que serán claves para la especificación del rol desempeñado por estructuras turbulentas coherentes.
Resumo:
Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
Esta iniciativa está orientada a proponer soluciones plausibles a dos problemas básicos que enfrenta la conservación de la biodiversidad en la provincia de Córdoba: 1) establecer el grado de representación del sistema existente de áreas protegidas de la provincia de Córdoba; y 2) proponer nuevas áreas que deberían protegerse para alcanzar un grado completo de representación de la diversidad de Córdoba. Este nuevo sistema incluirá tanto las áreas estatales que puedan incorporarse, como propuestas de áreas de conservación privadas. A juzgar por estudios previos de los integrantes de la Red, la provincia de Córdoba no difiere de lo reportado para sistemas de áreas protegidas de otros lugares del mundo, y se predice que el sistema actual no conserva adecuadamente la biodiversidad de la región, y que un sistema de áreas protegidas privadas permitiría completar y complementar al sistema de reservas estatales existentes. Con el propósito de establecer la representatividad de la biodiversidad de la región por parte del sistema actual de áreas protegidas, se procederá a realizar la cartografía de la vegetación de toda la provincia, listados florísticos y descripciones de las comunidades vegetales de esas áreas. A través del empleo de indicadores de la biodiversidad (tipo de hábitat y grupos taxonómicos particulares), se establecerá el grado en que el sistema actual es representativo de la diversidad florística de la provincia. Finalmente se establecerán vacíos en el sistema de conservación existente y se propondrán nuevas áreas para ser incorporadas al sistema provincial de áreas protegidas. Además, el Proyecto proveerá una base de datos florístico-corológica en la cual se incorporarán todas las especies y comunidades vegetales registradas en las áreas protegidas del territorio provincial. Además de la cartografía, las listas de especies y comunidades, las bases de datos y la propuesta de un nuevo sistema de áreas protegidas, el proyecto producirá material gráfico (2 libros) de alcance científico-técnico y de divulgación, respectivamente. A los efectos de la ejecución del proyecto, se conformará una Red integrada por científicos, docentes y técnicos de las Universidades Nacionales de Córdoba y Río Cuarto, de una Unidad Ejecutora del CONICET y de integrantes de una Organización No Gubernamental con alto impacto en localidades del interior provincial. Los miembros de la Red registran numerosos antecedentes en relación a estudios florísticos, fitogeográficos y fitosociológicos del territorio de Córdoba, lo que confiere alta factibilidad a esta iniciativa.