11 resultados para Complexidade : Algoritmos recursivos : Equações características
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware.
Resumo:
La metodología actual de diseño de celdas analógicas embebidas se basa en una tecnología CMOS fija, no teniendo dichos módulos características de reutilización y de migración hacia otras tecnologías. Para avanzar a un mayor nivel de productividad en el diseño se necesita un cambio de paradigma. Este cambio en la metodología necesita reducir tiempo y esfuerzo en el desarrollo, incrementar la predictibilidad y reducir el riesgo involucrado en el diseño y la fabricación de complejos sistemas en un chip (SOC). Las celdas digitales embebidas se han aplicado al diseño VLSI digital debido a que la síntesis a través de lenguajes de descripción de hardware (HDL) permite mapear complejos algoritmos en una descripción sintáctica digital, la cual puede luego ser automáticamente colocada e interconectada (place&route). Sin embargo, dada la falta de automatización del diseño electrónico en el dominio analógico, como así también por factores como el ruido, el corrimiento y falta de apareamiento, el uso de los circuitos analógicos ha sido muy bajo en la medida de lo posible, por lo que las celdas analógicas embebidas son ahora un cuello de botella en el diseño de SOC. Por lo expuesto, en el proyecto que se propone se planea diseñar celdas analógicas embebidas con características de: bajo consumo, reutilización, bajo costo y alta performance para satisfacer el notable crecimiento del mercado de los sistemas portables alimentados por batería y el de sistemas de identificación remotamente energizados (RFID). Conjuntamente con el Área de Comunicaciones, se propone un generador de tensión de alimentación a partir de una señal de RF.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
La vegetación silvestre de la provincia de Córdoba incluye plantas medicinales y aromáticas con valor ecológico, económico, social y cultural de donde surge la importancia de su uso sustentable. La demanda de las empresas es cubierta exclusivamente por la recolección silvestre, en su mayor parte proveniente de zonas marginales para la producción agrícola-ganadera. “marcela” [Achyrocline satureioides (Lam.) DC.] y “poleo” (Lippia turbinata Griseb.) son especies nativas y crecen en sierras y llanura de Córdoba con valor medicinal y aromatizante. Hoy en día la droga cruda de marcela y poleo que se comercializa es heterogénea, condicionando la calidad y cantidad del material con uso farmacológico e industrial. Ello depende en parte del genoma de la especie, de su interacción con el ambiente, y también de las prácticas de recolección. Es por ello que la industria demanda material cultivado, genéticamente homogéneo y de establecimientos donde se apliquen buenas practicas de manejo. Nuestra hipótesis es que el resultado de la interacción del genoma de marcela y de poleo con el ambiente, el disturbio y las practicas de manejo condiciona su establecimiento y rendimiento. Ello nos permite predecir que: las variables dependientes del genoma se expresarán al crecer distintas poblaciones en un mismo ambiente, y practicas de manejo que semegen condiciones ambientales de las poblaciones silvestres de mejor rendimiento permitirán obtener mayor rendimiento en cultivo. Nuestro objetivo general es evaluar en marcela y poleo las características biológicas, productivas y ambientales que condicionan su establecimiento y rendimiento en condiciones silvestres y de cultivo. Y los específicos para marcela y poleo son: Identificar las principales variables ambientales y de disturbio asociadas a su establecimiento y rendimiento en condiciones silvestres. Establecer buenas prácticas de recolección y rendimientos de referencia en condiciones silvestres. Identificar y evaluar de poblaciones silvestres con mayor establecimiento y sobrevivencia, y menor variabilidad de rendimento en condiciones de cultivo. Caracterizar el desarrollo y la arquitectura de las poblaciones en condiciones de cultivo. Se realizarán de censos de vegetación y la caracterización del ambiente abiótico, régimen de disturbio en sierras de Comechingones y Las Peñas (Córdoba). Caracterización de poblaciones de marcela y poleo: recuento de individuos, y registro del estado fenológico, altura y cobertura, y evaluación de biomasa y fitoquímica. Mantenimiento e instalación de experimentos factoriales (origen y densidad), y caracterización del desarrollo y arquitectura de marcela y poleo. Elaboración de protocolo de recolección y propagación. Los datos serán analizados mediante técnicas uni y multivariadas. En áreas de vegetación silvestre de la serranía se espera obtener: la distribución y abundancia de estas poblaciones; rendimientos de referencia para al menos 7 poblaciones de marcela y poleo; condiciones ambientales y de disturbio relacionados con la distribución, crecimiento y rendimiento; un protocolo de buenas prácticas de recolección; y un listado, distribución y abundancia de otras especies con uso medicinal y aromático. En cultivo se espera obtener: condiciones ambientales y de manejo asociadas al establecimiento y rendimiento de referencia de al menos 5 poblaciones de marcela y 3 poblaciones de poleo; y características del desarrollo y arquitectura de las poblaciones. Los organismos públicos y privados contaran con información sobre la distribución de marcela y poleo, y de las principales variables ambientales, de disturbio, recolección y manejo que condicionan su establecimiento y rendimiento en condiciones silvestres y en cultivo. Tanto recolectores como profesionales relacionados con la domesticación, comercialización o industrialización, dispondrán de criterios biológicos y productivos de referencia para evaluar la calidad y cantidad del material y así mejorar su valor comercial.
Resumo:
Toxocara canis es un nematode ascárido con importante potencial zoonótico. El hombre puede infectarse accidentalmente al ingerir huevos que contaminan el ambiente y al actuar como hospedador paraténico, el parásito permanece en él durante largos períodos en estado larval provocando daños y síntomas de acuerdo al tejido donde se encuentre. Respecto a las manifestaciones clínicas se reconocen formas viscerales: síndrome de Larva Migrans Visceral, Toxocariosis encubierta y Toxocariosis asintomática. El síndrome de Larva Migrans Ocular y Neurotoxocariosis son formas compartimentadas. La respuesta inmune en el hombre es compleja, en pacientes susceptibles se ha observado asociación de la infección por T. canis con la ocurrencia de asma bronquial, atopía y urticaria crónica. La evolución de la respuesta inmune a la resolución o a la etapa crónica de la infección depende en gran parte del balance de citoquinas y mediadores inflamatorios como el ON producidos durante la estimulación antigénica. El incremento de Inmunoglobulina E específica anti T. canis y la eosinofilia en la Toxocariosis podrían contribuir a la exacerbación del asma y posiblemente al eczema atópico. El objetivo general del presente proyecto es determinar el perfil de citoquinas y óxido nítrico en suero de niños y adolescentes con anticuerpos específicos anti T. canis provenientes de poblaciones con diferentes características socioambientales. Con los resultados obtenidos se pretende aportar información sobre el patrón de respuesta inmune característico en esta infección y transmitir al equipo de salud la importancia de esta zoonosis como probable agente asociado a enfermedades atópicas.
Resumo:
Toxocara canis es un nematode ascárido con importante potencial zoonótico. El hombre puede infectarse accidentalmente al ingerir huevos que contaminan el ambiente y al actuar como hospedador paraténico, el parásito permanece en él durante largos períodos en estado larval provocando daños y síntomas de acuerdo al tejido donde se encuentre. Respecto a las manifestaciones clínicas se reconocen formas viscerales: síndrome de Larva Migrans Visceral, Toxocariosis encubierta y Toxocariosis asintomática. El síndrome de Larva Migrans Ocular y Neurotoxocariosis son formas compartimentadas. La respuesta inmune en el hombre es compleja, en pacientes susceptibles se ha observado asociación de la infección por T. canis con la ocurrencia de asma bronquial, atopía y urticaria crónica. La evolución de la respuesta inmune a la resolución o a la etapa crónica de la infección depende en gran parte del balance de citoquinas y mediadores inflamatorios como el ON producidos durante la estimulación antigénica. El incremento de Inmunoglobulina E específica anti T. canis y la eosinofilia en la Toxocariosis podrían contribuir a la exacerbación del asma y posiblemente al eczema atópico. El objetivo general del presente proyecto es determinar el perfil de citoquinas y óxido nítrico en suero de niños y adolescentes con anticuerpos específicos anti T. canis provenientes de poblaciones con diferentes características socioambientales. Con los resultados obtenidos se pretende aportar información sobre el patrón de respuesta inmune característico en esta infección y transmitir al equipo de salud la importancia de esta zoonosis como probable agente asociado a enfermedades atópicas.
Resumo:
El incremento poblacional a nivel mundial y los intereses económicos, provoco en el sector agropecuario un aumento en la superficie destinada a la agricultura, principalmente en el cultivo de soja, desencadenando la incorporación de prácticas tecnológicas para mejorar la producción con mayor eficiencia. La herramienta que presento un fuerte impacto fue la adquisición de sojas con tecnología resistente a Glifosato, que por su uso desmedido surgieron las malezas resistentes; conjuntamente con la escasez de las precipitaciones y la falta de cultivos de invierno, provoco dificultades en el control de aquellas, y por consiguiente un aumento en los costos productivos. Se plantea de este modo la incógnita de pensar si los cultivos de cobertura que presentan características alelopáticas ¿Pueden ser una herramienta para el control de malezas y disminuir el uso de herbicidas, en la zona semiárida del centro de Argentina? Como respuesta presentamos en el presente proyecto, el análisis de los beneficios de la incorporación de prácticas agropecuarias, como el desarrollo de cultivos de cobertura con propiedades alelopáticas, con el fin de mejorar el control y manejo de malezas y lograr de este modo menores costos y contaminación ambiental. Este desafío comprende dos etapas, la primera consiste en la siembra de tres cultivos de invierno Cebada, Centeno y Avena (15 variedades) y la consiguiente selección de aquellos que presenten mejores propiedades alelopáticas para el control de malezas. En una segunda etapa, del cultivo seleccionado se estudian variedades comerciales y la posterior elección de aquel con mejor competitividad, evaluando las características optimas de densidad de siembra, a la cual se alcanzan la mayor captación de agua de lluvia y menor consumo de agua y además la fecha optima en la que debemos interferir en el desarrollo del cultivo (secado o destrucción). La investigación nos ayudara a contar con mayor información, para lograr mejores niveles productivos, preservando el suelo, ambiente y cuidado de todo el sistema productivo.
Resumo:
El objetivo general de este proyecto es contribuir al desarrollo de metodologías bioinformáticas que integren la información sobre niveles de expresión de genes obtenida mediante el uso de tecnologías de alto rendimiento en proteómica, microarreglos de ADN y/o secuenciamiento de nueva generación, junto con información clínica y funcional, a los efectos de mejorar la comprensión del fenómeno biológico bajo estudio. Como modelo de trabajo utilizaremos el cáncer de mama; sin embargo, las herramientas resultantes serán de aplicación más general. El proyecto consta de dos objetivos específicos: 1. Integrar información de expresión genómica, clínica y ontológica, para establecer si existen características funcionales que distinguen los diferentes tipos moleculares definidos para el cáncer de mama, y que puedan ser determinables utilizando las variables mencionadas. Los algoritmos de integración de los datos se desarrollarán en forma independiente de la plataforma tecnológica y población bajo estudio, utilizando información disponible en repositorios de libre acceso. 2. Aplicar la metodología de integración surgida del objetivo 1 para caracterizar los diferentes tipos de cáncer de mama de la población argentina, utilizando datos clínicos e información de diferentes tecnologías de alto rendimiento (proteómica, transcriptómica y genómica).