12 resultados para Computación Efímera

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto denominado “EICAR, Electrónica, Informática, Comunicaciones, Automática y Robótica para la Producción de Bienes y Servicios” asocia estratégicamente a un importante grupo de instituciones del sector científico-tecnológico, privado y gobierno con el objetivo de formar recursos humanos altamente capacitados, desarrollar conocimiento y tecnología de punta, en el campo convergente de la electrónica, informática y computación industrial, comunicaciones y automática, y su transferencia para el desarrollo activo de sectores estratégicos del país, a través de la ejecución de seis Programas: 1) Desarrollo de sistemas inteligentes para eficientizar el uso racional de la energía; 2) I+D para el desarrollo de sistemas complejos de aeronáutica y aeroespacio; 3) Desarrollos para la plataforma de TV Digital y su integración a Internet; 4) Trazabilidad de productos agropecuarios y agroindustriales; 5) Elaboración de un plan estratégico para el desarrollo de infraestructura en TICs del Corredor Bioceánico del Centro basado en sistemas GPS y Proyecto Galileo; 6) Monitoreo de las tendencias tecnológicas de los Programas propuestos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La enseñanza de la estadística se puede complementar con herramientas computacionales. Este proyecto posee como objetivos desarrollar un programa de computación (“Applet”) basado en interactividades como complemento tecnológico de la Enseñanza de la Estadística, crear la estructura de un programa “Complemento Tecnológico de la Enseñanza de la Estadística”, de modo tal que sea susceptible de incorporarse tantos módulos como lo requiera e incorporar un primer módulo referido a los Conceptos de Probabilidad y Variables Aleatorias. Para ello se realizará un relevamiento bibliográfico y se creará dicho soft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parte I. Este proyecto tiene como objetivo general contribuir la eficiencia de las terapias PDT e Hipertermia. Luego, con los resultados se ensayarán los efectos de su combinación y con todo esto lograr resultados que aporten a su evaluación clínica. Los objetivos específicos son: 1) Estudio de las propiedades ópticas de los tejidos de interés que permita realizar una dosimetría de radiaciones láser (ultravioleta, visible e infrarroja). Aspectos teóricos: Búsqueda bibliográfica y estudio de modelos de propagación de "luz" en tejidos, etc. Aspectos experimentales: Desarrollo y sistematización de equipos de medición, mediciones experimentales en los diversos tipos de tejidos. Contrastación de los resultados teóricos y experimentales logrados. 2) Estudio de las propiedades térmicas de los tejidos de interés para establecer la evolución temporal de las temperaturas. Aspectos teóricos: Búsqueda bibliográfica y estudio de modelos de difusión de calor en tejidos, etc. Aspectos experimentales: Desarrollo y sistematización de equipos de medición, mediciones en los diversos tipos de tejidos. Contrastación de los resultados teóricos y experimentales logrados. 3) Desarrollo de un modelo analítico y/o numérico que contemple los aspectos ópticos y térmicos de la interacción de la radiación láser con tejidos biológicos. Aspectos teóricos: Búsqueda bibliográfica y estudio de los resultados propios y publicados tendientes a unificar la parte óptica con la térmica. Aspectos experimentales: Mediciones experimentales en los diversos tipos de tejidos y situaciones teóricas analizadas. Contrastación de los resultados teóricos y experimentales logrados. 4) Presenta los resultados obtenidos a través de un sistema experto. Esto permitirá a los cirujanos que utilizan láser acceder fácilmente a esta información. Aspectos teóricos: Búsqueda bibliográfica y estudio lenguajes de computación de alto nivel. Desarrollo de software del programa experto. Incorporación de los resultados obtenidos y publicados en revistas especializadas. Contraste y prueba del sistema experto con resultados clínicos. Parte II. El presente proyecto plantea inicialmente la instalación y puesta a punto de un espectrómetro de rayos X con capacidad para efectuar análisis de trazas con resolución espacial y análisis de ultratrazas en régimen de reflexión total. Los distintos temas a tratar se detallan a continuación: 1) Instalación y puesta a punto del espectrómetro. Instalación del tubo de rayos X. Montaje del sistema óptico. Acople del sistema global. Caracterización experimental del equipo. 2) Análisis de muestras biológicas. Análisis de factibilidad. Selección de muestras para análisis con resolución espacial. Estudios espectroquímicos con resolución espacial. Selección de muestras para análisis por reflexión total. Estudios espectroquímicos por reflexión total.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Tecnologías de la Información y la Comunicación (TIC) han alcanzando una fuerte expansión en la última década y se convierten en una estrategia clave para la educación científica y tecnológica. Actualmente se realizan significativas inversiones en computadoras e insumos acordes a esta tecnología lo que no garantiza que éstas mejores disponibilidades sean necesariamente conducentes a propuestas educativas aceptables, ya que la incorporación de las TIC en la educación científica no puede consistir en un mero cambio de soporte sin que esto se acompañe de una renovación constructivista del aprendizaje. También se observa un escaso desarrollo y aplicación de las TIC tanto en la formación de grado de las carreras científicas, como en la formación permanente de los docentes. A partir de lo expuesto, nos planteamos los siguientes problemas: ¿cómo generar cursos de formación docente con alternativas virtuales que garanticen la construcción, actualización y transferencia de conocimientos en las disciplinas científicas? ¿qué diseño de materiales se requiere para potenciar aprendizajes flexibles de calidad?, ¿qué dimensiones, variables e indicadores dan cuenta de procesos de comunicación en estos entornos?, ¿Cuáles son las principales estrategias que promueven los desarrollos tecnológicos? ¿De qué manera se lleva a cabo el seguimiento y evaluación de los desarrollos tecnológicos? Para dar respuesta a estos interrogantes nos planteamos este proyecto que tiene por objetivos: diseñar, desarrollar, implementar y evaluar materiales basados en un modelo constructivista que utiliza como soporte las TIC el marco de la "Enseñanza para la Comprensión". Analizar las relaciones que se establecen en el intercambio comunicativo a través de las TIC, ya sea de manera síncrona o asíncrona e identificar las estrategias de aprendizaje utilizadas por los estudiantes cuando trabajan con entornos virtuales. Se profundizará en los siguientes temas: "La materia y sus cambios", "Biotecnología" y "Dilemas investigativos a los que se enfrentan los científicos". Los dos primeros módulos estarán destinados a la formación de futuros docentes en Ciencias y a la formación permanente de docentes en ejercicio. Los usuarios del tercer módulo serán los estudiantes del ciclo de nivelacion. Se propone desarrollar instrumentos de evaluación, adaptando indicadores que sirvan para evaluar el modelo, el diseño de los materiales, el medio tecnológico, la eficiencia de estos programas con TIC. Se van a definir variables que permitan identificar las estrategias de aprendizaje utilizadas por los usuarios de estos desarrollos tecnológicos y las relaciones que se establecen en el intercambio comunicativo de los entornos virtuales, haciendo hincapié en la lecto-escritura científica. Se utilizará la plataforma Moodle que permite la administración de los estudiantes, las interacciones sociales necesarias para integrar una comunidad de aprendizaje a través de los foros y correo electrónico y la evaluación continua de los aprendizajes. El desarrollo de los contenidos específicos y las actividades de aprendizaje se hará en CD interactivos elaborados con diferentes programas de computación. En el desarrollo de los materiales se incluyen algunas simulaciones interactivas que permiten comprender conceptos que habitualmente requerían experimentación fáctica. El estudio se enmarca en la combinación de dos enfoques metodológicos que integran técnicas y procedimientos de análisis tanto cuantitativos como cualitativos. Consideramos que esta investigación es una contribución teórica importante ya que propone mejorar un modelo para la enseñanza de las Ciencias Naturales introduciendo las TIC. Se espera realizar un aporte novedoso al campo de la Didáctica de las Ciencias con la obtención de los resultados y acciones tendientes a establecer una red de comunicaciones entre los docentes participantes y los investigadores involucrados en el programa, instalada en forma progresiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto se plantea el siguiente problema de investigación:¿Cuál es la eficacia de los entornos virtuales de enseñanza para optimizar los aprendizajes de Química? Se sostiene la hipótesis de que los entornos virtuales de enseñanza, empleados como mediación instrumental, son eficaces para optimizar los aprendizajes de química, particularmente facilitando la vinculación y reversibilidad entre "mundo micro y macroscópico"; capacidad que usualmente sólo se atribuye al trabajo experimental de laboratorio. Los objetivos propuestos son: Determinar la eficacia de entornos virtuales de enseñanza, como mediaciones instrumentales, para optimizar los aprendizajes de química en estudiantes de ingeniería. Implementar un entrono virtual de enseñanza de química, diseñado como mediación instrumental y destinado a estudiantes de dos carreras de ingeniería del IUA. Evaluar el desarrollo y los resultados de la innovación introducida. Comparar los resultados de la innovación con los resultados de la enseñanza usual. Derivar conclusiones acerca de la eficacia de la innovación propuesta. Socializar el conocimiento producido en ámbitos científico-tecnológicos reconocidos. Se generará un aula virtual en plataforma Educativa y utilidzando el laboratorio de computación de la institución se buscará desarrollar laboratorios virtuales donde se propondrán actividades de simulación de trabajo experimental. Los resultados esperados son: - Un Aula Virtual que cumpla funciones análogas a las de un laboratorio experimental. - Información válida y confiable acerca de la eficacia de la misma como medio para optimizar los aprendizajes de química. - Publicaciones en ámbitos científico-tecnológicos reconocidos que sometan a juicio público la innovación y la investigación efectuadas. La importancia del proyecto radica principalmente en poner a prueba la eficacia de los entornos virtuales para optimizar los aprendizajes de química, analogando tareas usualmente limitadas al trabajo experimental de laboratorio. Su pertinencia apunta a un replanteo del curriculo de los cursos de Química para estudiantes de Ingeniería.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se investigan 3 subáreas de Inteligencia Artificial y sus aplicaciones en contextos educativos. Las 3 áreas son 1) agentes conversacionales automatizados que actúan como instructores virtuales o sistemas de tutoring automatizado, 2) asistentes virtuales que llevan a cabo una tarea dada bajo la instrucción de un aprendiz avanzado, y 3) plataformas de programación de chatbots como una herramienta educativa para enseñar conceptos básicos de ciencias de la computación. La hipótesis de este proyecto es que tanto los tutores como los asistentes conversacionales automatizados deben incluir una representación contextual rica que identifique lo entendido por el aprendiz hasta el momento y ser capaces de realizar inferencias sobre ella para poder guiar mejor su aprendizaje. Los objetivos de este proyecto incluyen el desarrollo de algoritmos de inferencia contextuales apropiados para instructores y asistentes virtuales, el desarrollo de algoritmos para la programación simplificada de chatbots, la evaluación de estos algoritmos en pruebas piloto en escuelas y la realización de un curso online abierto masivo para estudiantes de secundario del programa Conectar Igualdad que quieran aprender sobre Inteligencia Artificial y Ciencias de la Computación. El método a utilizar será la realización de recolección de corpus (interacciones humano-humano de las interacciones tutor-aprendiz), la aplicación de técnicas de procesamiento de lenguaje natural como la generación por selección y la interpretación por clustering y maximum entropy models usando características sintácticas, semánticas y pragmáticas. Se desarrollarán los algoritmos siguiendo una metodología estándar de Ingeniería de Software y se evaluarán en experiencias piloto en escuelas secundarias así como en un curso online abierto y masivo. Además se dictará un curso de capacitación docente para la incorporación de las tecnologías producidas a sus cursos. Como resultado se espera la contribución al área de Inteligencia Artificial con aplicaciones en Educación de algoritmos evaluados empíricamente en entornos educativos reales del nivel medio. Además, se espera contribuir a las metodologías de enseñanza de Ciencias de la Computación en el nivel medio. Este proyecto es relevante a la realidad nacional y mundial de falta de recursos humanos formados en las Ciencias de la Computación y al crecimiento mundial que el área de Inteligencia Artificial en general y de Sistemas de diálogo (o interfaces conversacionales) en particular ha tenido en los últimos años con el crecimiento exponencial de la tecnología en la vida diaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas críticos son aquellos utilizados en áreas en las cuales las fallas, o los eventos inesperados, pueden ocasionar grandes perdidas de dinero; o quizás peor aún, daños a vidas humanas. Esta clase de sistemas juegan un rol importante en actividades esenciales de la sociedad tales como la medicina y las comunicaciones. Los sistemas críticos, cada vez son más usuales en la vida real, algunos ejemplos de estos son los sistemas de aviones, sistemas para automóviles y sistemas utilizados en telefonia móvil. Para minimizar las fallas, y las perdidas materiales o humanas ocasionadas por el funcionamiento incorrecto de dichos sistemas, se utilizan técnicas de tolerancia a fallas. Estas técnicas permiten que los sistemas continúen funcionando aún bajo la ocurrencia de fallas, o eventos inesperados. Existen diversas técnicas para lograr tolerancia a fallas utilizando, por ejemplo, redundancia a diferentes niveles de abstracción, como, por ejemplo, al nivel de hardware. Sin embargo, estas técnicas dependen fuertemente del sistema, y del contexto en las que se utilizan. Más aún, la mayoría de la técnicas de tolerancia a fallas son usadas a bajo nivel (código fuente o hardware), estimamos que el uso de formalismos rigurosos (con fundamentos matemáticos) pueden llevar al diseño de sistemas tolerantes a fallas y robustos a un nivel de abstracción más alto, a la vez que la utilización de técnicas de verificación que han sido exitosas en la práctica tales como model checking, o la síntesis de controladores, pueden llevar a una verificación y producción automática de sistemas robustos. El objetivo del presente proyecto es estudiar tanto marcos teóricos, que permitan la construcción de sistemas más robustos, como también herramientas automáticas que hagan posible la utilización de estos formalismos en escenarios complejos. Para lograr estos objetivos, será necesario considerar casos de estudios de diferente complejidad, y además que sean relevantes en la práctica. Por ejemplo: bombas de insulina, protocolos de comunicación, sistemas de vuelo y sistemas utilizados con fines médicos. Planeamos obtener prototipos de algunos de estos casos de estudio para evaluar los marcos teóricos propuestos. En los últimos años diferentes formalismos han sido utilizados para razonar sobre sistemas tolerantes a fallas de una forma rigurosa, sin embargo, la mayoría de estos son ad hoc, por lo cual sólo son aplicables a contextos específicos. Planeamos utilizar ciertas lógicas modales, en conjunto con nociones probabilísticas, para obtener un conjunto de herramientas suficientemente generales para que puedan ser utilizadas en diferentes contextos y aplicaciones. Los materiales a utilizar son equipos informáticos, en particular computadoras portátiles para el equipo de trabajo y computadoras más potentes para el testeo y desarrollo del software necesario para lograr los objetivos del proyecto. Para construir los prototipos mencionados se utilizarán equipos de computación estándar (el equipo investigación cuenta con computadoras intel y mac) en conjunto con lenguajes de programación modernos como JAVA o C#. En el caso de que los sistemas de software sean sistemas embebidos; se piensa desarrollar un motor de simulación que permita evaluar el desempeño del software cuando es ejecutado en el dispositivo mencionado. Se espera desarrollar, e investigar, las propiedades de formalismos matemáticos que permitan el desarrollo de sistemas tolerantes a fallas. Además, se desarrollarán herramientas de software para que estos sistemas tolerantes a fallas puedan verificarse, o obtenerse automáticamente. Los resultados obtenidos serán difundidos por medio de publicaciones en revistas del área. El desarrollo de sistemas tolerantes a fallas por medio de técnicas rigurosas, a diferentes niveles de abstracción (captura de requisitos, diseño, implementación y validación), permitirá minimizar los riesgos inherentes en actividades críticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto se enmarca en el área de métodos formales para computación; el objetivo de los métodos formales es asegurar, a través de herramientas lógicas y matemáticas, que sistemas computacionales satisfacen ciertas propiedades. El campo de semántica de lenguajes de programación trata justamente de construir modelos matemáticos que den cuenta de las diferentes características de cada lenguaje (estado mutable, mecanismos de paso de parámetros, órdenes de ejecución, etc.); permitiendo razonar de una manera abstracta, en vez de lidiar con las peculiaridades de implementaciones o las vaguezas de descripciones informales. Como las pruebas formales de corrección son demasiado intrincadas, es muy conveniente realizar estos desarrollos teóricos con la ayuda de asistentes de prueba. Este proceso de formalizar y corrobar aspectos semánticos a través de un asistente se denomina mecanización de semántica. Este proyecto – articulado en tres líneas: semántica de teoría de tipos, implementación de un lenguaje con tipos dependientes y semántica de lenguajes imperativos con alto orden - se propone realizar avances en el estudio semántico de lenguajes de programación, mecanizar dichos resultados, e implementar un lenguaje con tipos dependientes con la intención de que se convierta, en un mediano plazo, en un asistente de pruebas. En la línea de semántica de teoría de tipos los objetivos son: (a) extender el método de normalización por evaluación para construcciones no contempladas aun en la literatura, (b) probar la adecuación de la implementación en Haskell de dicho método de normalización, y (c) construir nuevos modelos categóricos de teoría de tipos. El objetivo de la segunda línea es el diseño e implementación de un lenguaje con tipos dependientes con la intención de que el mismo se convierta en un asistente de pruebas. Una novedad de esta implementación es que el algoritmo de chequeo de tipos es correcto y completo respecto al sistema formal, gracias a resultados ya obtenidos; además la implementación en Haskell del algoritmo de normalización (fundamental para el type-checking) también tendrá su prueba de corrección. El foco de la tercera línea está en el estudio de lenguajes de programación que combinan aspectos imperativos (estado mutable) con características de lenguajes funcionales (procedimientos y funciones). Por un lado se avanzará en la mecanización de pruebas de corrección de compiladores para lenguajes Algollike. El segundo aspecto de esta línea será la definición de semánticas operacional y denotacional del lenguaje de programación Lua y la posterior caracterización del mismo a partir de ellas. Para lograr dichos objetivos hemos dividido las tareas en actividades con metas graduales y que constituyen en sí mismas aportes al estado del arte de cada una de las líneas. La importancia académica de este proyecto radica en los avances teóricos que se propone en la línea de semántica de teoría de tipos, en las contribución para la construcción de pruebas mecanizadas de corrección de compiladores, en el aporte que constituye la definición de una semántica formal para el lenguaje Lua, y en el desarrollo de un lenguaje con tipos dependientes cuyos algoritmos más importantes están respaldados por pruebas de corrección. Además, a nivel local, este proyecto permitirá incorporar cuatro integrantes al grupo de “Semántica de la programación”.