21 resultados para Programación no lineal
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
Objetivos generales: • Desarrollo de un código utilizando programación orientada objeto y Fortran 2003 para simulación de flujos de gases de alta entalpía incluyendo efectos químicos. • Mejora de técnicas numéricas con la finalidad de simular flujos gas dinámicos con alta entalpía y químicamente activos. • Mejora de la comprensión del fenómeno de intermitencia caótica. • Mejorar en la comprensión, implementación y utilización del código openFOAM para la simulación de flujos de interés en la industria aeroespacial. Objetivos específicos: • Poseer la capacidad de simular las ecuaciones de la dinámica de gases tridimensionales, químicamente activas y dependientes del tiempo usando volúmenes finitos mediante códigos propios. • Continuar con el desarrollo de la nueva teoría que permite una descripción más adecuada y precisa del fenómeno de intermitencia como una de las rutas hacia el caos. • Adaptar el código openFoam para la simulación de la dinámica del flujo de gases con elevada entalpía y/o reactivos. • Aplicación de los códigos desarrollados a la simulación de flujos de interés aeronáutico tales como chorros supersónicos, flujos supersónicos alrededor de objetos en vuelo atmosférico y procesos de combustión difusiva. Resultados esperados • Obtención de un código numérico en volúmenes finitos mediante programación orientada a objeto desarrollado en la UNC con la capacidad de simular flujos gas-dinámicos, tridimensionales, viscosos, químicamente activos y dependientes del tiempo. Este código será la base para un programa de multifísica en flujos gaseosos que en un futuro deberá incluir ionización y simulación de flujos magnetohidrodinámicos compresibles. • Desarrollo y/o mejora de técnicas numéricas para la solución de flujos gas-dinámicos químicamente activos. Se continuará con la investigación que usa distintas funciones limitadoras para distintas ondas. • Mejora del conocimiento sobre fenómenos que presentan intermitencia caótica. Se continuará con la teoría que está actualmente en desarrollo por integrantes del grupo en colaboración con investigadores de universidades de España. Principalmente se pondrá énfasis para obtener una formulación más general de la teoría mediante el desarrollo de una técnica de perturbación que permita aproximar cualquier función no lineal que gobierna el proceso de reinyección. • Implementación del código openFOAM para simular flujos supersónicos y procesos de combustión. Se generarán librerías específicas para utilizar este software en aplicaciones de flujos compresibles. • Se espera alcanza una mejor descripción numérica del fenómeno de chorros supersónicos sub-expandidos que impactan sobre paredes sólidas.
Resumo:
El presente proyecto se enmarca en el área de métodos formales para computación; el objetivo de los métodos formales es asegurar, a través de herramientas lógicas y matemáticas, que sistemas computacionales satisfacen ciertas propiedades. El campo de semántica de lenguajes de programación trata justamente de construir modelos matemáticos que den cuenta de las diferentes características de cada lenguaje (estado mutable, mecanismos de paso de parámetros, órdenes de ejecución, etc.); permitiendo razonar de una manera abstracta, en vez de lidiar con las peculiaridades de implementaciones o las vaguezas de descripciones informales. Como las pruebas formales de corrección son demasiado intrincadas, es muy conveniente realizar estos desarrollos teóricos con la ayuda de asistentes de prueba. Este proceso de formalizar y corrobar aspectos semánticos a través de un asistente se denomina mecanización de semántica. Este proyecto – articulado en tres líneas: semántica de teoría de tipos, implementación de un lenguaje con tipos dependientes y semántica de lenguajes imperativos con alto orden - se propone realizar avances en el estudio semántico de lenguajes de programación, mecanizar dichos resultados, e implementar un lenguaje con tipos dependientes con la intención de que se convierta, en un mediano plazo, en un asistente de pruebas. En la línea de semántica de teoría de tipos los objetivos son: (a) extender el método de normalización por evaluación para construcciones no contempladas aun en la literatura, (b) probar la adecuación de la implementación en Haskell de dicho método de normalización, y (c) construir nuevos modelos categóricos de teoría de tipos. El objetivo de la segunda línea es el diseño e implementación de un lenguaje con tipos dependientes con la intención de que el mismo se convierta en un asistente de pruebas. Una novedad de esta implementación es que el algoritmo de chequeo de tipos es correcto y completo respecto al sistema formal, gracias a resultados ya obtenidos; además la implementación en Haskell del algoritmo de normalización (fundamental para el type-checking) también tendrá su prueba de corrección. El foco de la tercera línea está en el estudio de lenguajes de programación que combinan aspectos imperativos (estado mutable) con características de lenguajes funcionales (procedimientos y funciones). Por un lado se avanzará en la mecanización de pruebas de corrección de compiladores para lenguajes Algollike. El segundo aspecto de esta línea será la definición de semánticas operacional y denotacional del lenguaje de programación Lua y la posterior caracterización del mismo a partir de ellas. Para lograr dichos objetivos hemos dividido las tareas en actividades con metas graduales y que constituyen en sí mismas aportes al estado del arte de cada una de las líneas. La importancia académica de este proyecto radica en los avances teóricos que se propone en la línea de semántica de teoría de tipos, en las contribución para la construcción de pruebas mecanizadas de corrección de compiladores, en el aporte que constituye la definición de una semántica formal para el lenguaje Lua, y en el desarrollo de un lenguaje con tipos dependientes cuyos algoritmos más importantes están respaldados por pruebas de corrección. Además, a nivel local, este proyecto permitirá incorporar cuatro integrantes al grupo de “Semántica de la programación”.
Resumo:
El consumo de sustancias está aumentando en todos los lugares del mundo. Un grupo especialmente vulnerable, es el que sufre los efectos de la exposición prenatal a drogas de abuso. Si bien no se conocen exactamente los mismos, existe evidencia científica que demuestra que tienen mayores tasas de prematurez, retraso del crecimiento intrauterino, disminución del perímetro cefálico, malformaciones cerebrales, cardíacas, esqueléticas, gastrointestinales y genitourinarias, complicaciones obstétricas, muerte súbita, retardo psicomotor y trastornos en el desarrollo neurológico y neuroconductual. La identificación de estos pacientes brinda por una parte, la oportunidad de un seguimiento acorde, así como la detección de madres que podrían insertarse en programas de recuperación. Como dato orientador, basta con indicar que en el año 1994 se calculaba que en las zonas urbanas de EEUU entre un 10-15% de los recién nacidos habían estado expuestos a cocaína intra-útero. En Argentina el primer Estudio Nacional sobre Uso de Drogas – 1999 – realizado por la Secretaría de Programación para la prevención de la Drogadicción y la Lucha contra el Narcotráfico (SEDRONAR) arrojó, como dato principal, que tres de cada diez personas mayores de 16 años consumen sustancias ilegales en Argentina, lo que representa más de 600 mil personas en todo el país. A la misma cifra, arribó el estudio realizado por un grupo de investigadores del Programa de Epidemiología Psiquiátrica del CONICET en el año 2000. A la luz de la información presente, la dimensión del abuso hace necesario reevaluar el foco de atención sanitaria puesto casi exclusivamente en la problemática de adicción, para empezar a recabar datos respecto a la exposición prenatal a drogas. Diversas metodologías han sido utilizadas como método de pesquisa de exposición prenatal a drogas. La entrevista materna y los diferentes dosajes de drogas en sangre, orina, cabello y meconio han sido las más utilizadas y, más recientemente, el estudio en líquido amniótico y aspirado gástrico. De estos procedimientos, la detección de drogas de abuso en meconio es el método ideal para la detección perinatal de drogas por su elevada sensibilidad y la facilidad para recogerlo. Su principal limitación reside en el hecho de que sólo se detecta a partir del primer trimestre de embarazo, ya que la formación de meconio empieza en la semana doce. Por las razones previamente señaladas, es que decidimos utilizar esta metodología de pesquisa para estudiar la prevalencia de uso prenatal de drogas de abuso en la ciudad de Córdoba.
Resumo:
El objetivo general de este proyecto es examinar cómo las estructuras de las redes políticas que se forman para gestionar recursos hídricos compartidos en la provincia de Córdoba disponen las actitudes cooperativas de los actores que participan en dichas redes. Dado el deterioro de los recursos hídricos en el país este proyecto cobra importancia, debido a que trabaja desde el supuesto que las actitudes cooperativas facilitan –aunque no de manera lineal- el logro de políticas que protejan efectivamente dichos recursos. Los objetivos específicos para el primer año del proyecto son: 1. Identificar los actores gubernamentales y no gubernamentales activos en los últimos cinco años en los procesos de gestión de recursos hídricos en las cuencas de los lagos San Roque, y Los Molinos (ambos ubicados en la provincia de Córdoba), 2. Identificar las demandas de coordinación y cooperación por parte de dichos actores, 3. Describir las características estructurales de las redes de gestión de los recursos hídricos y su relación con la percepción de los actores acerca de los problemas a enfrentar en las cuencas. El estudio de las redes de gestión en las dos cuencas lacustres seleccionadas es relevante desde el punto de vista de la generación de conocimiento aplicado sobre estos cuerpos de agua que constituyen un ejemplo típico de “recursos compartidos” (common-pool resource) donde la falta de actividades de cooperación y/o coordinación entre los usuarios del recurso se traducen en dilemas de acción colectiva
Resumo:
La vivienda es un bien duradero y por ello debe cumplir una vida útil que está condicionada por los pasos anteriores a su construcción, por la construcción misma y por su uso posterior. En este proceso económico-técnico la vivienda constituye el capital y sus habitantes son los consumidores. Un 60% de la población, incluidos los sectores de bajos recursos, prioritariamente realizan sus viviendas, mejoras, ampliaciones y modificaciones sin ningún tipo de asesoramiento técnico-profesional. Esto produce obra clandestina con numerosas irregularidades al no respetar normas, ordenanzas, reglamentaciones y condiciones mínimas de habitabilidad. Debe haber mayor información, darse difusión a todas las ordenanzas, dar a conocer y agilizar tramitaciones. (...) Objetivos generales *Producir nuevos servicios a la comunidad; el resultado a largo alcance es el de crear un sistema de información y asesoramiento que contribuya a mejorar la calidad de vida de los sectores de menores recursos mediante el correcto uso y mantenimiento de la vivienda y el barrio. * Generar un proceso de Investigación Acción entendida como prestación de Servicios de Asesoramiento e información utilizando los medios de comunicación, los recursos humanos y comunitarios brindados por las instituciones públicas y privadas que contribuyan al desarrollo barrial. (...) Objetivos específicos * Proveer información que oriente y facilite el mantenimiento de los sectores sociales en la vivienda de bajos recursos. * Crear condiciones técnicas y de diseño para que la inversión económica del esfuerzo familiar sea redituable a largo plazo, mediante la programación de la vida útil de la vivienda. * Lograr operatorias de autoconstrucción para realizar trabajos de completamiento, modificaciones, ampliaciones, refacciones, etc. a nivel barrial. * Colaborar mediante la utilización de criterios de diseño diversos a la adaptación a nuevos usos o necesidades de los usuarios a través del tiempo. Adecuación a las distintas etapas de la vida familiar. * Transferir los resultados de la investigación y experiencias realizadas al sector productivo para su desarrollo y adecuación a las necesidades de los usuarios. * Generar estudios sobre la calidad residencial, cambios y transformaciones en la vivienda social. * Lograr la transferencia de conocimientos de la Facultad hacia el medio y la retroalimentación hacia el proceso de enseñanza-aprendizaje.
Resumo:
El movimiento de grandes masas de aire en la atmósfera en las latitudes medias, está controlado principalmente por el llamado balance geostrófico. Este es un balance entre la fuerza de Coriolis y el gradiente de presión matemáticamente análogo al balance hidrostático que da lugar a las ecuaciones de Saint Venant en el estudio de ondas de gravedad en aguas poco profundas. La utilización de este balance como primer término en la expansión asintótica sistemática de las ecuaciones de movimiento, da lugar a una evolución temporal que está controlada por las llamadas ecuaciones cuasi-geostróficas. La dinámica regida por las ecuaciones cuasi-geostróficas da lugar a la formación de frentes entre masas de aire a distintas temperaturas. Se puede conjeturar que estos frentes corresponden a los observados efectivamente en la atmósfera. Dichos frentes pueden emitir ondas de gravedad, que evolucionan en escalas de longitud y tiempo mucho menores que las mesoescalas del balance geostrófico y corresponden por lo tanto, a mecanismos físicos ignorados por el modelo cuasi-geostrófico. Desde un punto de vista matemático la derivación del modelo cuasi-geostrófico "filtra" las frecuencias altas, en particular las ondas de gravedad. Esto implica que, para entender el proceso de formación de estas ondas es necesario desarrollar un modelo mucho más amplio que contemple la interacción de las mesoescalas cuasi-geostróficas y las microescalas de las ondas de gravedad. Este es un problema análogo al estudio de los efectos de la inclusión de un término dispersivo pequeño en una ecuación hiperbólica no lineal. En este contexto, cuando la parte hiperbólica genera un frente de choque, la dispersión produce oscilaciones de alta frecuencia cuyo estudio es un problema abierto y de mucho interés. Con la combinación de cuidadosas expansiones asintóticas, estudios numéricos y análisis teóricos, desarrollaremos y estudiaremos un modelo matemático simplificado para el estudio de los fenómenos mencionados.
Resumo:
El empleo intensivo de computadoras constituye para las investigaciones en los campos de diseño, arte y arquitectura, como así también en las investigaciones formales y/o generativas de cualquier tipo una constante en nuestra actividad. Todo ello trae aparejadas ventajas innegables (velocidad y diversidad de resultados) como también una nueva estructura de costos. (...) Todas nuestras investigaciones tradicionales se valen de recursos muy semejantes a los mecanismos de las computadoras por tratarse de crecimientos o desarrollos numéricos como también leyes de color (tablas cromáticas). Ahora estamos trabajando bajo el sistema de operativo de Windows (empleando herramientas de programación los lenguajes Pascal y C++) empleados equipos PC 486. Paralelamente continuamos las Investigaciones Tradicionales no-computarizadas en lo referido a Color por considerarlas absolutamente indispensables como complemento de las resoluciones que nos brindan las Computadoras. Objetivo general: Avance y ampliación de posibilidades investigativas en el campo de la Geometría Generativa (Creación de Formas) y Cromogénesis (Estudio sistemático y generación del color). Objetivos específicos: 1. Creación y utilización de programas computarizados sobre Puntos Generadores sobre Circunferencia. 2.Creación de obras pictórico-investigativas con base numérica.
Resumo:
El aumento de los sistemas productivos intensivos y el inadecuado manejo de los residuos domiciliarios ha traído consigo un problema de disposición de desechos y un aumento de la contaminación ambiental. De este modo se hace imprescindible aplicar tecnologías alternativas para superar los inevitables inconvenientes que genera la mayor producción de residuos. La liberación de diversos desechos y contaminantes en el ambiente provoca en muchos casos problemas en la salud pública y animal, y pueden impedir hasta el aprovechamiento de tierras y acuíferos, siendo necesario realizar un estricto control de las variables que intervienen en el complejo proceso del reciclaje. Los desechos orgánicos pueden ser reciclados a través de la crianza intensiva de la especie Eisenis foetida, la que es capaz de transformar los desechos consumidos en humus y proteína animal. El presente trabajo tiene como objetivo general adquirir conocimientos en la transformación de desechos orgánicos que permitan el desarrollo de técnicas acordes a situaciones problemáticas específicas. Los objetivos específicos son: 1) Analizar químicamente los desechos pecuarios y domiciliarios; 2) Investigar los microorganismos indicadores y patógenos en desechos orgánicos, compost y evaluar su supervivencia en E. foetida. Analizar en el tiempo las variables temperatura y pH y ajuste de un modelo no lineal; 3) Evaluar la importancia del humus como enmienda orgánica. Este trabajo brindará conocimientos para el reciclaje y compostaje con producción de humus, lo que permitirá implementar esta técnica con las seguridades que la legislación actual requiere.
Resumo:
Existe actualmente un interés muy difundido por los fluidos anisotrópicos (cristales líquidos, polímeros) debido a la gran cantidad de aplicaciones que se pueden realizar con ellos (por ejemplo en la fabricación de displays, en medicina, biología, etc.). Su estudio también planea interesantes problemas desde un punto de vista de la física fundamental. Sin embargo, a pesar de esto es muy poco lo que se conoce acerca de la dinámica molecular, y el problema está abierto. Las técnicas más apropiadas en este campo son el estudio de las propiedades dieléctricas y la RMN (relajación spin-red). En esta última, hay una gran actividad en el campo experimental con el desarrollo de numerosas técnicas nuevas. Sin embargo, desde el punto de vista de la teoría de la relajación se continúa utilizando aproximaciones semiclásicas. Entonces, es necesario revisar las hipótesis fundamentales de la teoría de la RMN con el fin de extender su campo de aplicación a problemas complejos como los que plantean los fluidos anistrópicos. El propósito general de esta línea de trabajo es el de extender la teoría semiclásica de relajación nuclear en RMN para incluir la naturaleza cuántica del fenómeno. Al cabo de esta investigación se espera poder describir la relajación del orden dipolar en mesofaces ordenadas como los cristales líquidos, ferrofluídos, etc. (...) Al cabo de este período se espera avanzar en las siguientes tareas: 1. Contar con una ecuación maestra para la matriz densidad de spin lo suficientemente general para incluir los efectos mencionados, pero que a la vez permita la comparación con los resultados experimentales. Dejando de lado las suposiciones clásicas de alta temperatura y orden débil, y en el marco de la suposición de temperatura de spin, se estudiará una expansión de la ecuación maestra en inversas de las temperaturas de la red y de spin. Conservando términos de orden mayor que lineal (aproximación clásica) e introduciendo las interacciones spin-spin durante el tiempo de correlación de la red (memoria microscópica) se analizará la dependencia con la frecuencia de Larmor de T1D y T1Z. Las interacciones spin-spin se introducirán mediante un método perturbativo de operadores. 2. Comprender la razón física de la diferencia de comportamiento con la frecuencia de Larmor de los parámetros T1D y T1Z. 3. Generalizar el análisis para aplicarlo al tiempo de relajación spin-red en el sistema rotante T1r.
Resumo:
Una de las notas distintivas de América Latina, ha sido su condición de región periférica, inserta en un sistema de relaciones cada vez más marcada de naciones hegemónicas. En el marco de esta situación, las presiones e intereses de las potencias industrializadas, coadyuvaron a la desigualdad en el desarrollo de las relaciones internacionales entre los países latinoamericanos, lo que influyó de manera decisiva en la programación de vínculos continentales, ya sea a nivel multilateral o regional. Desde la Primera Guerra Mundial el avance de la influencia económica de los Estados Unidos sobre América Latina, fue sumamente rápido. (...) El carácter asimétrico de las relaciones inter-latinoamericanas se ponía de manifiesto en la afirmación de la hegemonía de los países latinoamericanos más "poderosos", sobre los más débiles, observándose además el protagonismo de las dirigencias de los países centrales, en acuerdo con sus homólogas locales. La presencia de tres países con aspiraciones hegemónicas en el Cono Sur, esto es Argentina, Brasil y Chile, hizo que la región se constituyera en un factor de importancia respecto de los objetivos de las naciones centrales, así como en función de los cambios sociopolíticos que comenzaban a proyectarse en el sistema vinculaciones interregional. De este modo, el aumento del poderío estadounidense, el conflicto mundial y las diferentes políticas llevadas a cabo por los gobiernos Argentina, Brasil y Chile constituyeron variables fundamentales en la estructuración del sistema de relaciones inter-latinoamericano. Con este contexto se intenta, a partir de las categorías de análisis propuestas, comprender y explicar la red de relaciones estructuradas en el Cono Sur de América Latina durante el período que transcurre desde 1914 hasta el fin de la guerra y los profundos cambios que esta fenómeno produjo posteriormente en el orden internacional. Objetivos generales 1. Introducir en el análisis la dimensión regional como categoría válida para un intento de clasificar el espacio latinoamericano, pues proporciona una representación de la realidad socioeconómica y sociocultural que puede alcanzar su institucionalización a través de formas políticas y jurídicas. 2. Aproximarse al concepto de sistema Latinoamericano de naciones, el cual se haría más inteligible cuando se presenta en él una situación conflictiva y cuya dinámica permitiría aprehender la realidad regional como una unidad de análisis.
Resumo:
Glucogenina es el nombre asignado a la proteína de 38 kDa que se encuentra unida covalentemente al glucógeno y que inicia la biosíntesis de navo del polisacárido. El aporte del grupo en el tema comprende: la identificación en retina bovina de fracciones de a-1,4- glucanoproteína distinguibles por su solubilidad e insolubilidad en ácido tricloroacético; la demostración de que el glucógeno posee proteína covalentemente unida al glucano; la identificación del arninoácido involucrado en la unión proteína-polisacárido; la caracterización de la fracción de glucógeno insoluble en ácido tricloroacético corno proteoglucógeno; la descripción de proteoglucógeno asociado a membranas microsomales en retina; la demostración de que en organismos primitivos como Neuraspara crassa y Escherichia coli el glucógeno se halla covalentemente unido a una proteína de 31 kDa que llamamos M-glucogenina; que no es reconocida por anticuerpo policlonal anti-glucogenina de 38 kDa de mamífero, y cuya secuencia de diez aminoácidos del extremo N-terminal es distinta a la de la glucogenina de 38 kDa. El objetivo general está dirigido a interrogantes acerca de aspectos estructurales funcionales de la glucogenia, la proteína de 38 kDa que se encuentra unida covalentemente al glucógeno y que inicia la biosíntesis de novo del polisacárido. Dentro del aspecto funcional la pregunta fundamental es si la vía que se inicia con la glucogenina y termina con proteoglucógeno constituye la única alternativa para la biosíntesis del glucógeno celular. Con respecto al aspecto estructural, el mecanismo involucrado en su actividad autoglucosiltransferasa acapara la atención, tanto en lo referente a la identificación del sitio o sitios activos responsable(s) de la formación de uniones glucosil-a-l,4-glucosa como en lo referente a la causa determinante de la incorporación de no mas de ocho a once glucosas, formando un oligoglucano lineal unido al residuo tirosina 194 que actuará como primer de la glucógeno sintetasa.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.