214 resultados para COMPUTADORAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de las comunicaciones rápidas a nivel internacional (...) es un desafío a tener en cuenta en la enseñanza universitaria en general y en la enseñanza de las lenguas extranjeras en especial. Las nuevas tecnologías de comunicación ejercen un gran impacto en el diseño y distribución de la educación y también generan cambios en la concepción de la enseñanza-aprendizaje. Entre estos nuevos desarrollos cabe mencionar el correo electrónico, sistema de comunicación que consiste en el envío de mensajes a individuos o grupos de usuarios a través de redes de computadoras. Los intercambios pueden ser tanto la simple comunicación entre colegas o entre "Key pals" como los más sofisticados proyectos de participación en educación a distancia. (...) Entre las preguntas que surgen respecto a esta temática se puede mencionar: ¿qué estrategias utiliza el alumno universitario al leer el texto escrito en inglés a través del correo electrónico?, ¿utiliza las mismas estrategias que en la clase convencional, alcanza los mismos resultados en el nivel de comprensión en las dos situaciones de lectura anteriormente mencionadas? Teniendo en cuenta estos interrogantes y la posibilidad de que surjan otros en el curso de la investigación este trabajo se propone: a) explorar las estrategias de lectura que utiliza el lector al leer textos en inglés a través del correo electrónico y b) compararlas con las utilizadas para leer el texto en la situación convencional de clase. (...) Se considera que esta investigación arrojará resultados que permitirán dilucidar nuevos modos de aprendizaje, que harán posible desarrollar innovaciones metodológicas que puedan mejorar el proceso de enseñanza-aprendizaje del idioma inglés. Objetivos generales - Mejorar la calidad de la enseñanza del idioma inglés como lengua extranjera en la Universidad. - Fomentar el uso de nuevas tecnologías de la información en el marco de la enseñanza de idiomas extranjeros. - Estudiar los nuevos modos de aprendizaje impuestos por las nuevas tecnologías. Objetivos específicos - Avanzar en el estudio de las estrategias de lectura comprensiva utilizadas para leer el texto escrito en inglés. - Estudiar las características de la comunicación a través de medios electrónicos. - Explorar las estrategias de lectura que utiliza el lector para leer textos recibidos a través del correo electrónico. - Comparar las estrategias de lectura comprensiva utilizadas para leer el texto escrito en inglés, en el contexto convencional de clase, con las utilizadas para leer el texto recibido a través del correo electrónico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El empleo intensivo de computadoras constituye para las investigaciones en los campos de diseño, arte y arquitectura, como así también en las investigaciones formales y/o generativas de cualquier tipo una constante en nuestra actividad. Todo ello trae aparejadas ventajas innegables (velocidad y diversidad de resultados) como también una nueva estructura de costos. (...) Todas nuestras investigaciones tradicionales se valen de recursos muy semejantes a los mecanismos de las computadoras por tratarse de crecimientos o desarrollos numéricos como también leyes de color (tablas cromáticas). Ahora estamos trabajando bajo el sistema de operativo de Windows (empleando herramientas de programación los lenguajes Pascal y C++) empleados equipos PC 486. Paralelamente continuamos las Investigaciones Tradicionales no-computarizadas en lo referido a Color por considerarlas absolutamente indispensables como complemento de las resoluciones que nos brindan las Computadoras. Objetivo general: Avance y ampliación de posibilidades investigativas en el campo de la Geometría Generativa (Creación de Formas) y Cromogénesis (Estudio sistemático y generación del color). Objetivos específicos: 1. Creación y utilización de programas computarizados sobre Puntos Generadores sobre Circunferencia. 2.Creación de obras pictórico-investigativas con base numérica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto, enmarcado en el área de metodología de análisis en bioingeniería-biotecnología aplicadas al estudio del cancer, es el análisis y caracterización a través modelos estadísticos con efectos mixtos y técnicas de aprendizaje automático, de perfiles de expresión de proteínas y genes de las vías metabolicas asociadas a progresión tumoral. Dicho estudio se llevará a cabo mediante la utilización de tecnologías de alto rendimiento. Las mismas permiten evaluar miles de genes/proteínas en forma simultánea, generando así una gran cantidad de datos de expresión. Se hipotetiza que para un análisis e interpretación de la información subyacente, caracterizada por su abundancia y complejidad, podría realizarse mediante técnicas estadístico-computacionales eficientes en el contexto de modelos mixtos y técnias de aprendizaje automático. Para que el análisis sea efectivo es necesario contemplar los efectos ocasionados por los diferentes factores experimentales ajenos al fenómeno biológico bajo estudio. Estos efectos pueden enmascarar la información subycente y así perder informacion relavante en el contexto de progresión tumoral. La identificación de estos efectos permitirá obtener, eficientemente, los perfiles de expresión molecular que podrían permitir el desarrollo de métodos de diagnóstico basados en ellos. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, herramientas y procedimientos de análisis que maximicen la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos/proteómicos que permitan extraer información biológica relevante pertinente al análisis, clasificación o predicción de cáncer, el diseño de tratamientos y terapias específicos y el mejoramiento de los métodos de detección como así tambien aportar al entendimieto de la progresión tumoral mediante análisis computacional intensivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los eventos transitorios únicos analógicos (ASET, Analog Single Event Transient) se producen debido a la interacción de un ión pesado o un protón de alta energía con un dispositivo sensible de un circuito analógico. La interacción del ión con un transistor bipolar o de efecto de campo MOS induce pares electrón-hueco que provocan picos que pueden propagarse a la salida del componente analógico provocando transitorios que pueden inducir fallas en el nivel sistema. Los problemas más graves debido a este tipo de fenómeno se dan en el medioambiente espacial, muy rico en iones pesados. Casos típicos los constituyen las computadoras de a bordo de satélites y otros artefactos espaciales. Sin embargo, y debido a la continua contracción de dimensiones de los transistores (que trae aparejado un aumento de sensibilidad), este fenómeno ha comenzado a observarse a nivel del mar, provocado fundamentalmente por el impacto de neutrones atmosféricos. Estos efectos pueden provocar severos problemas a los sistemas informáticos con interfaces analógicas desde las que obtienen datos para el procesamiento y se han convertido en uno de los problemas más graves a los que tienen que hacer frente los diseñadores de sistemas de alta escala de integración. Casos típicos son los Sistemas en Chip que incluyen módulos de procesamiento de altas prestaciones como las interfaces analógicas.El proyecto persigue como objetivo general estudiar la susceptibilidad de sistemas informáticos a ASETs en sus secciones analógicas, proponiendo estrategias para la mitigación de los errores.Como objetivos específicos se pretende: -Proponer nuevos modelos de ASETs basados en simulaciones en el nivel dispositivo y resueltas por el método de elementos finitos.-Utilizar los modelos para identificar las secciones más propensas a producir errores y consecuentemente para ser candidatos a la aplicación de técnicas de endurecimiento a radiaciones.-Utilizar estos modelos para estudiar la naturaleza de los errores producidos en sistemas de procesamiento de datos.-Proponer soluciones novedosas para la mitigación de estos efectos en los mismos circuitos analógicos evitando su propagación a las secciones digitales.-Proponer soluciones para la mitigación de los efectos en el nivel sistema.Para llevar a cabo el proyecto se plantea un procedimiento ascendente para las investigaciones a realizar, comenzando por descripciones en el nivel físico para posteriormente aumentar el nivel de abstracción en el que se encuentra modelado el circuito. Se propone el modelado físico de los dispositivos MOS y su resolución mediante el Método de Elementos Finitos. La inyección de cargas en las zonas sensibles de los modelos permitirá determinar los perfiles de los pulsos de corriente que deben inyectarse en el nivel circuito para emular estos efectos. Estos procedimientos se realizarán para los distintos bloques constructivos de las interfaces analógicas, proponiendo estrategias de mitigación de errores en diferentes niveles.Los resultados esperados del presente proyecto incluyen hardware para detección de errores y tolerancia a este tipo de eventos que permitan aumentar la confiabilidad de sistemas de tratamiento de la información, así como también nuevos datos referentes a efectos de la radiación en semiconductores, nuevos modelos de fallas transitorias que permitan una simulación de estos eventos en el nivel circuito y la determinación de zonas sensibles de interfaces analógicas típicas que deben ser endurecidas para radiación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Tecnologías de la Información y la Comunicación (TIC) han alcanzando una fuerte expansión en la última década y se convierten en una estrategia clave para la educación científica y tecnológica. Actualmente se realizan significativas inversiones en computadoras e insumos acordes a esta tecnología lo que no garantiza que éstas mejores disponibilidades sean necesariamente conducentes a propuestas educativas aceptables, ya que la incorporación de las TIC en la educación científica no puede consistir en un mero cambio de soporte sin que esto se acompañe de una renovación constructivista del aprendizaje. También se observa un escaso desarrollo y aplicación de las TIC tanto en la formación de grado de las carreras científicas, como en la formación permanente de los docentes. A partir de lo expuesto, nos planteamos los siguientes problemas: ¿cómo generar cursos de formación docente con alternativas virtuales que garanticen la construcción, actualización y transferencia de conocimientos en las disciplinas científicas? ¿qué diseño de materiales se requiere para potenciar aprendizajes flexibles de calidad?, ¿qué dimensiones, variables e indicadores dan cuenta de procesos de comunicación en estos entornos?, ¿Cuáles son las principales estrategias que promueven los desarrollos tecnológicos? ¿De qué manera se lleva a cabo el seguimiento y evaluación de los desarrollos tecnológicos? Para dar respuesta a estos interrogantes nos planteamos este proyecto que tiene por objetivos: diseñar, desarrollar, implementar y evaluar materiales basados en un modelo constructivista que utiliza como soporte las TIC el marco de la "Enseñanza para la Comprensión". Analizar las relaciones que se establecen en el intercambio comunicativo a través de las TIC, ya sea de manera síncrona o asíncrona e identificar las estrategias de aprendizaje utilizadas por los estudiantes cuando trabajan con entornos virtuales. Se profundizará en los siguientes temas: "La materia y sus cambios", "Biotecnología" y "Dilemas investigativos a los que se enfrentan los científicos". Los dos primeros módulos estarán destinados a la formación de futuros docentes en Ciencias y a la formación permanente de docentes en ejercicio. Los usuarios del tercer módulo serán los estudiantes del ciclo de nivelacion. Se propone desarrollar instrumentos de evaluación, adaptando indicadores que sirvan para evaluar el modelo, el diseño de los materiales, el medio tecnológico, la eficiencia de estos programas con TIC. Se van a definir variables que permitan identificar las estrategias de aprendizaje utilizadas por los usuarios de estos desarrollos tecnológicos y las relaciones que se establecen en el intercambio comunicativo de los entornos virtuales, haciendo hincapié en la lecto-escritura científica. Se utilizará la plataforma Moodle que permite la administración de los estudiantes, las interacciones sociales necesarias para integrar una comunidad de aprendizaje a través de los foros y correo electrónico y la evaluación continua de los aprendizajes. El desarrollo de los contenidos específicos y las actividades de aprendizaje se hará en CD interactivos elaborados con diferentes programas de computación. En el desarrollo de los materiales se incluyen algunas simulaciones interactivas que permiten comprender conceptos que habitualmente requerían experimentación fáctica. El estudio se enmarca en la combinación de dos enfoques metodológicos que integran técnicas y procedimientos de análisis tanto cuantitativos como cualitativos. Consideramos que esta investigación es una contribución teórica importante ya que propone mejorar un modelo para la enseñanza de las Ciencias Naturales introduciendo las TIC. Se espera realizar un aporte novedoso al campo de la Didáctica de las Ciencias con la obtención de los resultados y acciones tendientes a establecer una red de comunicaciones entre los docentes participantes y los investigadores involucrados en el programa, instalada en forma progresiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuestro grupo de investigación trabaja desde hace unos años en plantear soluciones a problemas de medicamentos con conflictos de disponibilidad. Esta situación generalmente está asocada a las enfermedades huérfanas (raras y olvidadas). Desde la investigación básica y aplicada se intenta lograr una interacción entre la Farmacoquímica y la Farmacoepidemiología, estrategia que justamente usa la industria farmacéutica cuando quiere desarrollar un nuevo medicamento. Esto nos ha permitido consolidar un grupo de investigación con la experiencia suficiente para encarar actividades de campo y experimentales. Para los primeros se utilizan métodos descriptivos cualitativos y cuantitativos, de observación y de intervención. Se trabaja en colaboración con los 14 Hospitales Públicos de la ciudad de Córdoba y con algunas clínicas privadas (6), con ANMAT y con las bases de datos de Agencias Oficiales de Medicamentos de países de referencia (EEUU y Europa), entre otros. A continuación, se analizan los factores que causan la “orfandad” de los medicamentos, la significancia clínica y el impacto sanitario, social y económico originado por su falta de disponibilidad. Respecto al diseño y desarrollo de nuevas entidades químicas farmacológicas, se decidió enfocar el estudio en fármacos para enfermedades huérfanas, principalmente las parasitarias (malaria, Chagas, leishmaniasis). Estas enfermedades son raras en países desarrollados y olvidadas o desatendidas en países pobres o menos desarrollados como el nuestro. En este sentido, se utilizan las metodologías propias de la Química Medicinal, como son el descubrimiento y optimización de prototipos. Se recurre a las estrategias más racionales actualmente utilizadas, como son el diseño y preparación de una quimioteca focalizada, su evaluación biológica, la identificación de líderes y su optimización utilizando la farmacomodulación, el diseño directo e indirecto asistido por computadoras y el estudio de las REA, QSAR y 3D-QSAR. La quimioteca actual está compuesta de derivados bencenosulfonilos de heterocíclicos, y cuenta actualmente con 105 compuestos, muchos de los cuales demostraron actividad antiparasitaria. La quimioteca se la diseñó utilizando la estrategia denominada "diseño de fármacos basada en fragmentos". La hipótesis es que tanto la fracción bencenosulfonilo como la heterocíclica han probado ser bioactivas. El objetivo general del proyecto es contribuir al mejoramiento de la salud humana, al avance científico y tecnológico y a la formación de recursos humanos por medio del diseño y desarrollo de Drogas y Medicamentos Huérfanos. Proponemos los siguientes objetivos específicos: 1) Incrementar el número de compuestos de la quimioteca de N-bencenosulfonilos de heterociclos. 2) Evaluar la actividad antiparasitaria in vitro. 3) Estudiar las propiedades del estado sólido de los derivados. 4) Usar la información adquirida en los puntos 1-3 para estudios de cribado virtual y mejorar la solubilidad de los compuestos seleccionados. 4) Continuar con los estudios farmacoepidmiológicos sobre medicamentos huérfanos o no disponibles en nuestro país, que retroalimenta y complementa los estudios farmacoquímicos. El proyecto presenta un impacto científico y socio-económico importante, ya que abarca varios aspectos de la problemática de medicamentos no disponibles o huérfanos, desde el diagnóstico de la situación en nuestro medio, pasando por la identificación de nuevas entidades químicas y el desarrollo de posibles soluciones para su transferencia a la industria. Esto se debe a su enfoque original (en academias) al plantearse la retroalimentación entre la farmacoquímica y la farmacoepidemiología. Esta experiencia es muy estimulante, el contacto con los profesionales del equipo de salud enriquece el intercambio de opiniones y la consolidación de proyectos multidisciplinarios, permitiendo abordar el problema de un modo integral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudios epidemiológicos, reportan que la fobia social es uno de los trastornos de ansiedad de alta prevalencia en la población mundial, que oscila entre el 7 y el 13%. La incidencia de este trastorno se ubica entre el 13 y 14% en personas de 15 a 54 años, manifestándose antes de los 25 años (Furmark,et al 2002). De esta manera, se destaca la importancia de el estudio y abordaje de este trastorno en adolecentes, considerando que es en esta etapa del desarrollo donde se empieza a manifestar, y donde la intervención temprana se torna fundamental. Este trastorno afecta la vida familiar, social y laboral de una persona, dado que la persona evita exponerse a lugares públicos o a situaciones donde anticipa la evaluación negativa. Las consecuencias del trastorno son variadas, ya que los individuos pueden perder su trabajo por miedo a la exposición, fracasar en los estudios o fracazar en la concertación de citas y la vida en pareja. El miedo a hablar en público, por otro lado, es una forma particular de ansiedad social que implica la preocupación de que el público va a pensar que el rendimiento de uno es inadecuado (o que evaluaranm negativamente la persona o el rendimiento de la misma). La relevancia social de esta problemática requiere de tratamientos más eficientes, dada la creciente prevalencia de estos trastornos en los últimos años a nivel internacional. En este sentido la terapia de exposición en diferentes modalidades, acompañada dereestructuración cognitiva se ha transformado en un abordjae de elección para estos trastornos ara el tratamiento de fobia social. Entre las modalidades más novedosas en la actualidad, se destaca la utilización de programas basados en escenarios virtuales y la utilización de la telepsicología para el tratamiento de la fobia social y el miedo a hablar en público. La exposición con realidad virtual o mediante simulaciones no sólo da la oportunidad de capitalizar las habilidades de imaginación del paciente sino también las suplementa con experiencias visuales y auditivas simuladas. Además expone al paciente a un ambiente virtual que contiene la situación temida en vez de llevar al paciente a una situación real o pedirle que imagine los estímulos asociados, aumentando de esta manera la eficiencia del tratamiento En particular en nuestro país, la investigación en este campo es inexistente y sus aplicaciones son incipientes, por lo que la adaptación, desarrollo y evaluación de programas de tratamiento clínico utilizando modalidades terapéuticas innovadoras, a la vez de otorgar atención a la comunidad que padece este tipo de trastornos, es fundamental Por esto, el propósito del presente proyecto es el desarrollo, la instrumentación y evaluación de software de telepsicología y tecnologías de realidad virtual orientados a la valoración y tratamiento de la Fobia Social y el miedo a Hablar en Público. Específicamente, el objetivo es adaptar, instrumentar y evaluar un sistema de tratamiento con base en ambientes virtuales para el tratamiento de la Fobia Social transferidos a nuestro equpio de investigación por el grupo de investigación del Laboratorio de Enseñanza Virtual y Ciberpsicología de la UNAM. También nos proponemos desarrollar dos softwares de telepsicología con videos digitales para la valoración y tratamiento del miedo a hablar en público. Finalmente, otro objetivo es el desarrollo de un instrumento de evaluación diagnóstica de la Fobia Social y el Miedo a Hablar en Público en estudiantes universitarios, el cual será incorporado a un software junto a los videos digitales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Treball de fi de carrera d'enginyeria tècnica en informàtica de sistemes. El treball s'estructura en introducció, anàlisi, implementació, manual d'instal·lació, joc de proves... del treball. Aquest Treball Final de Carrera s'inclou dins de l'àrea de Xarxes deComputadors. Consisteix en la realització d'una aplicació gràfica en entornGNU que faci un anàlisi del tràfic d'una xarxa informàtica; això es coneix ambel nom de Sniffer.