18 resultados para Lenguajes de programación

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto se enmarca en el área de métodos formales para computación; el objetivo de los métodos formales es asegurar, a través de herramientas lógicas y matemáticas, que sistemas computacionales satisfacen ciertas propiedades. El campo de semántica de lenguajes de programación trata justamente de construir modelos matemáticos que den cuenta de las diferentes características de cada lenguaje (estado mutable, mecanismos de paso de parámetros, órdenes de ejecución, etc.); permitiendo razonar de una manera abstracta, en vez de lidiar con las peculiaridades de implementaciones o las vaguezas de descripciones informales. Como las pruebas formales de corrección son demasiado intrincadas, es muy conveniente realizar estos desarrollos teóricos con la ayuda de asistentes de prueba. Este proceso de formalizar y corrobar aspectos semánticos a través de un asistente se denomina mecanización de semántica. Este proyecto – articulado en tres líneas: semántica de teoría de tipos, implementación de un lenguaje con tipos dependientes y semántica de lenguajes imperativos con alto orden - se propone realizar avances en el estudio semántico de lenguajes de programación, mecanizar dichos resultados, e implementar un lenguaje con tipos dependientes con la intención de que se convierta, en un mediano plazo, en un asistente de pruebas. En la línea de semántica de teoría de tipos los objetivos son: (a) extender el método de normalización por evaluación para construcciones no contempladas aun en la literatura, (b) probar la adecuación de la implementación en Haskell de dicho método de normalización, y (c) construir nuevos modelos categóricos de teoría de tipos. El objetivo de la segunda línea es el diseño e implementación de un lenguaje con tipos dependientes con la intención de que el mismo se convierta en un asistente de pruebas. Una novedad de esta implementación es que el algoritmo de chequeo de tipos es correcto y completo respecto al sistema formal, gracias a resultados ya obtenidos; además la implementación en Haskell del algoritmo de normalización (fundamental para el type-checking) también tendrá su prueba de corrección. El foco de la tercera línea está en el estudio de lenguajes de programación que combinan aspectos imperativos (estado mutable) con características de lenguajes funcionales (procedimientos y funciones). Por un lado se avanzará en la mecanización de pruebas de corrección de compiladores para lenguajes Algollike. El segundo aspecto de esta línea será la definición de semánticas operacional y denotacional del lenguaje de programación Lua y la posterior caracterización del mismo a partir de ellas. Para lograr dichos objetivos hemos dividido las tareas en actividades con metas graduales y que constituyen en sí mismas aportes al estado del arte de cada una de las líneas. La importancia académica de este proyecto radica en los avances teóricos que se propone en la línea de semántica de teoría de tipos, en las contribución para la construcción de pruebas mecanizadas de corrección de compiladores, en el aporte que constituye la definición de una semántica formal para el lenguaje Lua, y en el desarrollo de un lenguaje con tipos dependientes cuyos algoritmos más importantes están respaldados por pruebas de corrección. Además, a nivel local, este proyecto permitirá incorporar cuatro integrantes al grupo de “Semántica de la programación”.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Los sistemas críticos son aquellos utilizados en áreas en las cuales las fallas, o los eventos inesperados, pueden ocasionar grandes perdidas de dinero; o quizás peor aún, daños a vidas humanas. Esta clase de sistemas juegan un rol importante en actividades esenciales de la sociedad tales como la medicina y las comunicaciones. Los sistemas críticos, cada vez son más usuales en la vida real, algunos ejemplos de estos son los sistemas de aviones, sistemas para automóviles y sistemas utilizados en telefonia móvil. Para minimizar las fallas, y las perdidas materiales o humanas ocasionadas por el funcionamiento incorrecto de dichos sistemas, se utilizan técnicas de tolerancia a fallas. Estas técnicas permiten que los sistemas continúen funcionando aún bajo la ocurrencia de fallas, o eventos inesperados. Existen diversas técnicas para lograr tolerancia a fallas utilizando, por ejemplo, redundancia a diferentes niveles de abstracción, como, por ejemplo, al nivel de hardware. Sin embargo, estas técnicas dependen fuertemente del sistema, y del contexto en las que se utilizan. Más aún, la mayoría de la técnicas de tolerancia a fallas son usadas a bajo nivel (código fuente o hardware), estimamos que el uso de formalismos rigurosos (con fundamentos matemáticos) pueden llevar al diseño de sistemas tolerantes a fallas y robustos a un nivel de abstracción más alto, a la vez que la utilización de técnicas de verificación que han sido exitosas en la práctica tales como model checking, o la síntesis de controladores, pueden llevar a una verificación y producción automática de sistemas robustos. El objetivo del presente proyecto es estudiar tanto marcos teóricos, que permitan la construcción de sistemas más robustos, como también herramientas automáticas que hagan posible la utilización de estos formalismos en escenarios complejos. Para lograr estos objetivos, será necesario considerar casos de estudios de diferente complejidad, y además que sean relevantes en la práctica. Por ejemplo: bombas de insulina, protocolos de comunicación, sistemas de vuelo y sistemas utilizados con fines médicos. Planeamos obtener prototipos de algunos de estos casos de estudio para evaluar los marcos teóricos propuestos. En los últimos años diferentes formalismos han sido utilizados para razonar sobre sistemas tolerantes a fallas de una forma rigurosa, sin embargo, la mayoría de estos son ad hoc, por lo cual sólo son aplicables a contextos específicos. Planeamos utilizar ciertas lógicas modales, en conjunto con nociones probabilísticas, para obtener un conjunto de herramientas suficientemente generales para que puedan ser utilizadas en diferentes contextos y aplicaciones. Los materiales a utilizar son equipos informáticos, en particular computadoras portátiles para el equipo de trabajo y computadoras más potentes para el testeo y desarrollo del software necesario para lograr los objetivos del proyecto. Para construir los prototipos mencionados se utilizarán equipos de computación estándar (el equipo investigación cuenta con computadoras intel y mac) en conjunto con lenguajes de programación modernos como JAVA o C#. En el caso de que los sistemas de software sean sistemas embebidos; se piensa desarrollar un motor de simulación que permita evaluar el desempeño del software cuando es ejecutado en el dispositivo mencionado. Se espera desarrollar, e investigar, las propiedades de formalismos matemáticos que permitan el desarrollo de sistemas tolerantes a fallas. Además, se desarrollarán herramientas de software para que estos sistemas tolerantes a fallas puedan verificarse, o obtenerse automáticamente. Los resultados obtenidos serán difundidos por medio de publicaciones en revistas del área. El desarrollo de sistemas tolerantes a fallas por medio de técnicas rigurosas, a diferentes niveles de abstracción (captura de requisitos, diseño, implementación y validación), permitirá minimizar los riesgos inherentes en actividades críticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El empleo intensivo de computadoras constituye para las investigaciones en los campos de diseño, arte y arquitectura, como así también en las investigaciones formales y/o generativas de cualquier tipo una constante en nuestra actividad. Todo ello trae aparejadas ventajas innegables (velocidad y diversidad de resultados) como también una nueva estructura de costos. (...) Todas nuestras investigaciones tradicionales se valen de recursos muy semejantes a los mecanismos de las computadoras por tratarse de crecimientos o desarrollos numéricos como también leyes de color (tablas cromáticas). Ahora estamos trabajando bajo el sistema de operativo de Windows (empleando herramientas de programación los lenguajes Pascal y C++) empleados equipos PC 486. Paralelamente continuamos las Investigaciones Tradicionales no-computarizadas en lo referido a Color por considerarlas absolutamente indispensables como complemento de las resoluciones que nos brindan las Computadoras. Objetivo general: Avance y ampliación de posibilidades investigativas en el campo de la Geometría Generativa (Creación de Formas) y Cromogénesis (Estudio sistemático y generación del color). Objetivos específicos: 1. Creación y utilización de programas computarizados sobre Puntos Generadores sobre Circunferencia. 2.Creación de obras pictórico-investigativas con base numérica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología actual de diseño de celdas analógicas embebidas se basa en una tecnología CMOS fija, no teniendo dichos módulos características de reutilización y de migración hacia otras tecnologías. Para avanzar a un mayor nivel de productividad en el diseño se necesita un cambio de paradigma. Este cambio en la metodología necesita reducir tiempo y esfuerzo en el desarrollo, incrementar la predictibilidad y reducir el riesgo involucrado en el diseño y la fabricación de complejos sistemas en un chip (SOC). Las celdas digitales embebidas se han aplicado al diseño VLSI digital debido a que la síntesis a través de lenguajes de descripción de hardware (HDL) permite mapear complejos algoritmos en una descripción sintáctica digital, la cual puede luego ser automáticamente colocada e interconectada (place&route). Sin embargo, dada la falta de automatización del diseño electrónico en el dominio analógico, como así también por factores como el ruido, el corrimiento y falta de apareamiento, el uso de los circuitos analógicos ha sido muy bajo en la medida de lo posible, por lo que las celdas analógicas embebidas son ahora un cuello de botella en el diseño de SOC. Por lo expuesto, en el proyecto que se propone se planea diseñar celdas analógicas embebidas con características de: bajo consumo, reutilización, bajo costo y alta performance para satisfacer el notable crecimiento del mercado de los sistemas portables alimentados por batería y el de sistemas de identificación remotamente energizados (RFID). Conjuntamente con el Área de Comunicaciones, se propone un generador de tensión de alimentación a partir de una señal de RF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El consumo de sustancias está aumentando en todos los lugares del mundo. Un grupo especialmente vulnerable, es el que sufre los efectos de la exposición prenatal a drogas de abuso. Si bien no se conocen exactamente los mismos, existe evidencia científica que demuestra que tienen mayores tasas de prematurez, retraso del crecimiento intrauterino, disminución del perímetro cefálico, malformaciones cerebrales, cardíacas, esqueléticas, gastrointestinales y genitourinarias, complicaciones obstétricas, muerte súbita, retardo psicomotor y trastornos en el desarrollo neurológico y neuroconductual. La identificación de estos pacientes brinda por una parte, la oportunidad de un seguimiento acorde, así como la detección de madres que podrían insertarse en programas de recuperación. Como dato orientador, basta con indicar que en el año 1994 se calculaba que en las zonas urbanas de EEUU entre un 10-15% de los recién nacidos habían estado expuestos a cocaína intra-útero. En Argentina el primer Estudio Nacional sobre Uso de Drogas – 1999 – realizado por la Secretaría de Programación para la prevención de la Drogadicción y la Lucha contra el Narcotráfico (SEDRONAR) arrojó, como dato principal, que tres de cada diez personas mayores de 16 años consumen sustancias ilegales en Argentina, lo que representa más de 600 mil personas en todo el país. A la misma cifra, arribó el estudio realizado por un grupo de investigadores del Programa de Epidemiología Psiquiátrica del CONICET en el año 2000. A la luz de la información presente, la dimensión del abuso hace necesario reevaluar el foco de atención sanitaria puesto casi exclusivamente en la problemática de adicción, para empezar a recabar datos respecto a la exposición prenatal a drogas. Diversas metodologías han sido utilizadas como método de pesquisa de exposición prenatal a drogas. La entrevista materna y los diferentes dosajes de drogas en sangre, orina, cabello y meconio han sido las más utilizadas y, más recientemente, el estudio en líquido amniótico y aspirado gástrico. De estos procedimientos, la detección de drogas de abuso en meconio es el método ideal para la detección perinatal de drogas por su elevada sensibilidad y la facilidad para recogerlo. Su principal limitación reside en el hecho de que sólo se detecta a partir del primer trimestre de embarazo, ya que la formación de meconio empieza en la semana doce. Por las razones previamente señaladas, es que decidimos utilizar esta metodología de pesquisa para estudiar la prevalencia de uso prenatal de drogas de abuso en la ciudad de Córdoba.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vivienda es un bien duradero y por ello debe cumplir una vida útil que está condicionada por los pasos anteriores a su construcción, por la construcción misma y por su uso posterior. En este proceso económico-técnico la vivienda constituye el capital y sus habitantes son los consumidores. Un 60% de la población, incluidos los sectores de bajos recursos, prioritariamente realizan sus viviendas, mejoras, ampliaciones y modificaciones sin ningún tipo de asesoramiento técnico-profesional. Esto produce obra clandestina con numerosas irregularidades al no respetar normas, ordenanzas, reglamentaciones y condiciones mínimas de habitabilidad. Debe haber mayor información, darse difusión a todas las ordenanzas, dar a conocer y agilizar tramitaciones. (...) Objetivos generales *Producir nuevos servicios a la comunidad; el resultado a largo alcance es el de crear un sistema de información y asesoramiento que contribuya a mejorar la calidad de vida de los sectores de menores recursos mediante el correcto uso y mantenimiento de la vivienda y el barrio. * Generar un proceso de Investigación Acción entendida como prestación de Servicios de Asesoramiento e información utilizando los medios de comunicación, los recursos humanos y comunitarios brindados por las instituciones públicas y privadas que contribuyan al desarrollo barrial. (...) Objetivos específicos * Proveer información que oriente y facilite el mantenimiento de los sectores sociales en la vivienda de bajos recursos. * Crear condiciones técnicas y de diseño para que la inversión económica del esfuerzo familiar sea redituable a largo plazo, mediante la programación de la vida útil de la vivienda. * Lograr operatorias de autoconstrucción para realizar trabajos de completamiento, modificaciones, ampliaciones, refacciones, etc. a nivel barrial. * Colaborar mediante la utilización de criterios de diseño diversos a la adaptación a nuevos usos o necesidades de los usuarios a través del tiempo. Adecuación a las distintas etapas de la vida familiar. * Transferir los resultados de la investigación y experiencias realizadas al sector productivo para su desarrollo y adecuación a las necesidades de los usuarios. * Generar estudios sobre la calidad residencial, cambios y transformaciones en la vivienda social. * Lograr la transferencia de conocimientos de la Facultad hacia el medio y la retroalimentación hacia el proceso de enseñanza-aprendizaje.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parte I. Este proyecto tiene como objetivo general contribuir la eficiencia de las terapias PDT e Hipertermia. Luego, con los resultados se ensayarán los efectos de su combinación y con todo esto lograr resultados que aporten a su evaluación clínica. Los objetivos específicos son: 1) Estudio de las propiedades ópticas de los tejidos de interés que permita realizar una dosimetría de radiaciones láser (ultravioleta, visible e infrarroja). Aspectos teóricos: Búsqueda bibliográfica y estudio de modelos de propagación de "luz" en tejidos, etc. Aspectos experimentales: Desarrollo y sistematización de equipos de medición, mediciones experimentales en los diversos tipos de tejidos. Contrastación de los resultados teóricos y experimentales logrados. 2) Estudio de las propiedades térmicas de los tejidos de interés para establecer la evolución temporal de las temperaturas. Aspectos teóricos: Búsqueda bibliográfica y estudio de modelos de difusión de calor en tejidos, etc. Aspectos experimentales: Desarrollo y sistematización de equipos de medición, mediciones en los diversos tipos de tejidos. Contrastación de los resultados teóricos y experimentales logrados. 3) Desarrollo de un modelo analítico y/o numérico que contemple los aspectos ópticos y térmicos de la interacción de la radiación láser con tejidos biológicos. Aspectos teóricos: Búsqueda bibliográfica y estudio de los resultados propios y publicados tendientes a unificar la parte óptica con la térmica. Aspectos experimentales: Mediciones experimentales en los diversos tipos de tejidos y situaciones teóricas analizadas. Contrastación de los resultados teóricos y experimentales logrados. 4) Presenta los resultados obtenidos a través de un sistema experto. Esto permitirá a los cirujanos que utilizan láser acceder fácilmente a esta información. Aspectos teóricos: Búsqueda bibliográfica y estudio lenguajes de computación de alto nivel. Desarrollo de software del programa experto. Incorporación de los resultados obtenidos y publicados en revistas especializadas. Contraste y prueba del sistema experto con resultados clínicos. Parte II. El presente proyecto plantea inicialmente la instalación y puesta a punto de un espectrómetro de rayos X con capacidad para efectuar análisis de trazas con resolución espacial y análisis de ultratrazas en régimen de reflexión total. Los distintos temas a tratar se detallan a continuación: 1) Instalación y puesta a punto del espectrómetro. Instalación del tubo de rayos X. Montaje del sistema óptico. Acople del sistema global. Caracterización experimental del equipo. 2) Análisis de muestras biológicas. Análisis de factibilidad. Selección de muestras para análisis con resolución espacial. Estudios espectroquímicos con resolución espacial. Selección de muestras para análisis por reflexión total. Estudios espectroquímicos por reflexión total.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de las notas distintivas de América Latina, ha sido su condición de región periférica, inserta en un sistema de relaciones cada vez más marcada de naciones hegemónicas. En el marco de esta situación, las presiones e intereses de las potencias industrializadas, coadyuvaron a la desigualdad en el desarrollo de las relaciones internacionales entre los países latinoamericanos, lo que influyó de manera decisiva en la programación de vínculos continentales, ya sea a nivel multilateral o regional. Desde la Primera Guerra Mundial el avance de la influencia económica de los Estados Unidos sobre América Latina, fue sumamente rápido. (...) El carácter asimétrico de las relaciones inter-latinoamericanas se ponía de manifiesto en la afirmación de la hegemonía de los países latinoamericanos más "poderosos", sobre los más débiles, observándose además el protagonismo de las dirigencias de los países centrales, en acuerdo con sus homólogas locales. La presencia de tres países con aspiraciones hegemónicas en el Cono Sur, esto es Argentina, Brasil y Chile, hizo que la región se constituyera en un factor de importancia respecto de los objetivos de las naciones centrales, así como en función de los cambios sociopolíticos que comenzaban a proyectarse en el sistema vinculaciones interregional. De este modo, el aumento del poderío estadounidense, el conflicto mundial y las diferentes políticas llevadas a cabo por los gobiernos Argentina, Brasil y Chile constituyeron variables fundamentales en la estructuración del sistema de relaciones inter-latinoamericano. Con este contexto se intenta, a partir de las categorías de análisis propuestas, comprender y explicar la red de relaciones estructuradas en el Cono Sur de América Latina durante el período que transcurre desde 1914 hasta el fin de la guerra y los profundos cambios que esta fenómeno produjo posteriormente en el orden internacional. Objetivos generales 1. Introducir en el análisis la dimensión regional como categoría válida para un intento de clasificar el espacio latinoamericano, pues proporciona una representación de la realidad socioeconómica y sociocultural que puede alcanzar su institucionalización a través de formas políticas y jurídicas. 2. Aproximarse al concepto de sistema Latinoamericano de naciones, el cual se haría más inteligible cuando se presenta en él una situación conflictiva y cuya dinámica permitiría aprehender la realidad regional como una unidad de análisis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La indudable influencia que ejercen las Tecnologías en la sociedad en general y en el ámbito infantil en particular, se manifiesta de diferentes formas y adquiere tantos sentidos como interpretaciones podamos darle. Con este estudio nos proponemos dar cuenta de este fenómeno social y comprender su alcance en un ámbito específico, a la vez que intentamos llevar adelante una serie de acciones que propendan a la constitución de un sujeto crítico en relación con los medios de comunicación masivos. Para ello, nos ubicamos en la perspectiva semiótica de Análisis de Discursos multimediales para reconstruir representaciones sociales que surgen de los medios con los que conviven los niños en su etapa inicial. Este procedimiento nos permitirá indagar acerca de cuáles son las estrategias de seducción que se imponen desde la producción discursiva multimedial, capaces de generar representaciones sociales.En esta línea, la Semiótica es la disciplina que nos ofrece las mayores posibilidades de contribuir a la generación de conocimiento. Creemos que el análisis de los procesos de significación provenientes de diferentes semiosis es fundamental para entender procesos cognitivos. Intentamos abordar la pluralidad de lenguajes con los que permanentemente interactúa el niño en este siglo, portadora de sentidos y movilizadora en la construcción de determinadas representaciones sociales, especialmente aquellas que se vinculan con la bioética. A los fines de comprender la circulación de sentidos, abordaremos también las condiciones de recepción de los multimedios analizados a partir de entrevistas semiestructuradas a niños que cursan el nivel inicial en instituciones públicas y privadas de la ciudad de Río Cuarto, considerando que en los discursos se hacen explícitos los campos representacionales por lo que resulta importante el análisis de las huellas discursivas que den cuenta de las condiciones de producción y de recepción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo contempla el estudio del comportamiento termomecánico de un motor monopropelente, cuyo funcionamiento se basa en la descomposición catalítica del combustible, produciendo la gasificación del mismo, con su consecuente generación de calor. Estos gases, al ser conducidos convenientemente a través de una tobera con el fin de generar su apropiada expansión, producirán la acción deseada. Un diseño erróneo del sistema de alimentación podría producir el acortamiento de la vida útil del catalizador, la degradación de los sellos de la válvula, vaporizaciones indeseadas del propelente, etc.El objetivo que se persigue es construir un modelo computacional que permita visualizar el comportamiento conjunto de los diversos fenómenos, la influencia de los diversos componentes y su interacción, a fin de identificar los elementos críticos, y poder así tomar acciones correctivas u operar sobre aspectos de diseño del sistema para un mejor acondicionamiento del combustible. Para la aplicación del método, se modelizarán cada uno de los fenómenos que gobiernan el comportamiento del sistema y se les codificará en lenguaje de programación, prestando especial atención al comportamiento del fluido tanto en régimen estable como durante los transitorios. Una vez validado el programa se correrán simulaciones para determinar la influencia de los parámetros básicos de diseño sobre los procesos termomecánicos mediante un análisis de sensitividad, a fin de mitigar los posibles efectos adversos. Sin embargo, durante la ejecución de proyectos de ingeniería de este tipo, una de las cuestiones de mayor importancia es el uso racional de materiales. Una adecuada utilización de los mismos tiene diversas ventajas, dentro de las cuales podemos citar como a las de mayor relevancia a: (i) mejor aprovechamiento de las capacidades de los materiales, (ii) elementos estructurales de menor tamaño, lo que genera una economía de espacio, (iii) menor costo económico y financiero del proyecto y (iv) menor impacto ambiental. En este sentido, una de las maneras más difundidas para el uso racional de materiales es, utilizar materiales con propiedades constitutivas que se adapten mejor a las características del proyecto en desarrollo. Sin embargo, cuando se está frente a la imposibilidad de cambiar de material o mejorar las propiedades existentes, es importante comenzar a utilizar otras metodologías que permitan un mejor aprovechamiento del mismo. Aquí surge naturalmente la necesidad de introducir cambios en la forma de los componentes estructurales que integran el proyecto ejecutivo. Para realizar una adecuada optimización de los componentes estructurales, es necesario previamente definir cual o cuales van a ser las características a optimizar y como van a ser medidas esas características durante el proceso de análisis. Por lo tanto, se propone aplicar el análisis de sensibilidad topológica para problemas termo-mecánicos para optimizar los componentes estructurales del motor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.