735 resultados para COMPUTACIÓN
Resumo:
Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.
Resumo:
Los resultados presentados en la memoria de esta tesis doctoral se enmarcan en la denominada computación celular con membranas una nueva rama de investigación dentro de la computación natural creada por Gh. Paun en 1998, de ahí que habitualmente reciba el nombre de sistemas P. Este nuevo modelo de cómputo distribuido está inspirado en la estructura y funcionamiento de la célula. El objetivo de esta tesis ha sido analizar el poder y la eficiencia computacional de estos sistemas de computación celular. En concreto, se han analizado dos tipos de sistemas P: por un lado los sistemas P de neuronas de impulsos, y por otro los sistemas P con proteínas en las membranas. Para el primer tipo, los resultados obtenidos demuestran que es posible que estos sistemas mantengan su universalidad aunque muchas de sus características se limiten o incluso se eliminen. Para el segundo tipo, se analiza la eficiencia computacional y se demuestra que son capaces de resolver problemas de la clase de complejidad ESPACIO-P (PSPACE) en tiempo polinómico. Análisis del poder computacional: Los sistemas P de neuronas de impulsos (en adelante SN P, acrónimo procedente del inglés «Spiking Neural P Systems») son sistemas inspirados en el funcionamiento neuronal y en la forma en la que los impulsos se propagan por las redes sinápticas. Los SN P bio-inpirados poseen un numeroso abanico de características que ha cen que dichos sistemas sean universales y por tanto equivalentes, en poder computacional, a una máquina de Turing. Estos sistemas son potentes a nivel computacional, pero tal y como se definen incorporan numerosas características, quizás demasiadas. En (Ibarra et al. 2007) se demostró que en estos sistemas sus funcionalidades podrían ser limitadas sin comprometer su universalidad. Los resultados presentados en esta memoria son continuistas con la línea de trabajo de (Ibarra et al. 2007) y aportan nuevas formas normales. Esto es, nuevas variantes simplificadas de los sistemas SN P con un conjunto mínimo de funcionalidades pero que mantienen su poder computacional universal. Análisis de la eficiencia computacional: En esta tesis se ha estudiado la eficiencia computacional de los denominados sistemas P con proteínas en las membranas. Se muestra que este modelo de cómputo es equivalente a las máquinas de acceso aleatorio paralelas (PRAM) o a las máquinas de Turing alterantes ya que se demuestra que un sistema P con proteínas, es capaz de resolver un problema ESPACIOP-Completo como el QSAT(problema de satisfacibilidad de fórmulas lógicas cuantificado) en tiempo polinómico. Esta variante de sistemas P con proteínas es muy eficiente gracias al poder de las proteínas a la hora de catalizar los procesos de comunicación intercelulares. ABSTRACT The results presented at this thesis belong to membrane computing a new research branch inside of Natural computing. This new branch was created by Gh. Paun on 1998, hence usually receives the name of P Systems. This new distributed computing model is inspired on structure and functioning of cell. The aim of this thesis is to analyze the efficiency and computational power of these computational cellular systems. Specifically there have been analyzed two different classes of P systems. On the one hand it has been analyzed the Neural Spiking P Systems, and on the other hand it has been analyzed the P systems with proteins on membranes. For the first class it is shown that it is possible to reduce or restrict the characteristics of these kind of systems without loss of computational power. For the second class it is analyzed the computational efficiency solving on polynomial time PSACE problems. Computational Power Analysis: The spiking neural P systems (SN P in short) are systems inspired by the way of neural cells operate sending spikes through the synaptic networks. The bio-inspired SN Ps possess a large range of features that make these systems to be universal and therefore equivalent in computational power to a Turing machine. Such systems are computationally powerful, but by definition they incorporate a lot of features, perhaps too much. In (Ibarra et al. in 2007) it was shown that their functionality may be limited without compromising its universality. The results presented herein continue the (Ibarra et al. 2007) line of work providing new formal forms. That is, new SN P simplified variants with a minimum set of functionalities but keeping the universal computational power. Computational Efficiency Analisys: In this thesis we study the computational efficiency of P systems with proteins on membranes. We show that this computational model is equivalent to parallel random access machine (PRAM) or alternating Turing machine because, we show P Systems with proteins can solve a PSPACE-Complete problem as QSAT (Quantified Propositional Satisfiability Problem) on polynomial time. This variant of P Systems with proteins is very efficient thanks to computational power of proteins to catalyze inter-cellular communication processes.
Resumo:
La premisa inicial de la tesis examina cómo las secuelas de Segunda Guerra mundial motivaron una revisión general de la Ciencia y procuraron una nueva relación entre el hombre y su entorno. Matemáticas, Física y Biología gestaron las Ciencias de la Computación como disciplina de convergencia. En un momento de re-definición del objeto científico, una serie de arquitectos vislumbraron la oportunidad para transformar ciertas convenciones disciplinares. Mediante la incorporación de ontologías y procedimientos de cibernética y computación, trazaron un nuevo espacio arquitectónico. Legitimados por un despegue tecnológico incuestionable, desafían los límites de la profesión explorando campos abiertos a nuevos programas y acciones; amplían el dominio natural de la Arquitectura más allá del objeto(terminado) hacia el proceso(abierto). Se da inicio a la tesis describiendo los antecedentes que conducen a ese escenario de cambio. Se anotan aspectos de Teoría de Sistemas, Computación, Biología y de ciertos referentes de Arquitectura con relevancia para esa nuevo planteamiento. En esos antecedentes residen los argumentos para orientar la disciplina hacia el trabajo con procesos. La linea argumental central del texto aborda la obra de Christopher Alexander, Nicholas Negroponte y Cedric Price a través de una producción teórica y práctica transformada por la computación, y examina la contribución conceptual de cada autor. El análisis comparado de sus modelos se dispone mediante la disección de tres conceptos convergentes: Sistema, Código y Proceso. La discusión crítica se articula por una triangulación entre los autores, donde se identifican comparando por pares las coincidencias y controversias entre ellos. Sirve este procedimiento al propósito de tender un puente conceptual con el escenario arquitectónico actual estimando el impacto de sus propuestas. Se valora su contribución en la deriva del programa cerrado a la especulación , de lo formal a lo informal, de lo único a lo múltiple; del estudio de arquitectura al laboratorio de investigación. Para guiar ese recorrido por la significación de cada autor en el desarrollo digital de la disciplina, se incorporan a la escena dos predicados esenciales; expertos en computación que trabajaron de enlace entre los autores, matizando el significado de sus modelos. El trabajo de Gordon Pask y John Frazer constituye el vehículo de transmisión de los hallazgos de aquellos años, prolonga los caminos iniciados entonces, en la arquitectura de hoy y la que ya se está diseñando para mañana. ABSTRACT The initial premise of the thesis examines how the aftermath of second world war motivated a general revision of science and procure the basis of a new relation between mankind and its environment. Mathematics, Physics, and Biology gave birth to the Computer Sciences as a blend of different knowledge and procedures. In a time when the object of major sciences was being redefined, a few architects saw a promising opportunity for transforming the Architectural convention. By implementing the concepts, ontology and procedures of Cybernetics, Artificial Intelligence and Information Technology, they envisioned a new space for their discipline. In the verge of transgression three prescient architects proposed complete architectural systems through their writings and projects; New systems that challenged the profession exploring open fields through program and action, questioning the culture of conservatism; They shifted architectural endeavor from object to process. The thesis starts describing the scientific and architectural background that lead to that opportunity, annotating aspects of Systems Theory, Computing, Biology and previous Architecture form the process perspective. It then focuses on the Works of Christopher Alexander, Nicholas Negroponte and Cedric Price through their work, and examines each authors conceptual contribution. It proceeds to a critical analysis of their proposals on three key converging aspects: system, architectural encoding and process. Finally, the thesis provides a comparative discussion between the three authors, and unfolds the impact of their work in todays architectural scenario. Their contribution to shift from service to speculation, from formal to informal , from unitary to multiple; from orthodox architecture studio to open laboratories of praxis through research. In order to conclude that triangle of concepts, other contributions come into scene to provide relevant predicates and complete those models. A reference to Gordon Pask and John Frazer is then provided with particular interest in their role as link between those pioneers and todays perspective, pushing the boundaries of both what architecture was and what it could become.
Resumo:
Comunicación presentada en SCETA, Seminario Sobre Computación Evolutiva, celebrado en la VII Conferencia de la Asociación Española para la Inteligencia Artificial, CAEPIA, Málaga, 12-14 noviembre 1997.
Resumo:
Doctor en Medicina y Cirugía
Resumo:
La ciencia de la computación arrancó con la era de las máquinas tabulables para después pasar a las programables. Sin embargo el mundo actual vive una transformación radical de la información. Por un lado la avalancha masiva de datos, el llamado Big Data hace que los sistemas requieran de una inteligencia adicional para extraer conocimiento válido de los datos. Por otro lado demandamos cada día más ordenadores que nos entiendan y se comuniquen mejor con nosotros. La computación cognitiva, la nueva era de la computación, viene a responder a estas necesidades: sistemas que utilizan la inteligencia biológica como modelo para establecer una relación más satisfactoria con los seres humanos. El lenguaje natural, la capacidad de moverse en un mundo ambiguo y el aprendizaje son características de los sistemas cognitivos, uno de los cuales, IBM Watson es el ejemplo más elocuente en la actualidad de este nuevo paradigma.
Resumo:
Los progresos de la informática están íntimamente ligados a los desarrollos de la arquitectura de los procesadores que, a su vez, son posibles gracias a los progresos logrados en otras ramas de la ciencia. La arquitectura de los procesadores $urgió de la conjunción de la electrónica y la noción de "máquina secuencial de programa registrado" formulada por el matemático John von Newman. Este modelo está constituido por dos partes básicas: una memoria 'central y un procesador, que a su vez posee dos partes: la unidad de procesamiento y la unidad de control.
Resumo:
La Computación Efímera (Eph-C , por sus siglas en inglés, Ephemerical Computing) es un nuevo paradigma de computación de reciente creación que pretende sacar provecho de la naturaleza pasajera (o sea, asociada a un tiempo de vida limitado) de los recursos computacionales. En este trabajo se introducirá este nuevo paradigma Eph-C de forma general, y se irá poco a poco enfocando específicamente dentro del contexto del proceso de desarrollo de videojuegos, mostrando posibles aplicaciones y beneficios dentro de las principales líneas de investigación asociadas a la creación de los mismos. Se trata de un trabajo preliminar que intenta indagar en las posibilidades de aplicar la computación efímera en la creación de productos en la industria del videojuego. Lo que presentamos aquí debe ser valorado como un trabajo preliminar que intenta a su vez servir de inspiración para otros posibles investigadores o desarrolladores de videojuegos.
Resumo:
OBJETIVOS: Desenvolver uma proposta educacional on-line sobre o tema úlcera por pressão para alunos e profissionais de enfermagem. MÉTODOS: Pesquisa aplicada, de produção tecnológica, composta pelas etapas de concepção/ planejamento e desenvolvimento, caracterizadas por um conjunto de procedimentos, documentação, digitalização de informações e de imagens. Foram utilizados recursos computacionais didáticos interativos como: o Cybertutor e o Homem Virtual. RESULTADOS: Desenvolvimento de uma proposta educacional virtual sobre úlcera por pressão (UP) dividida em módulos de aprendizagem, contendo lista de discussão, estudos de casos e recursos didáticos, tais como fotos e o Homem Virtual. CONCLUSÕES: Utilizou-se de novas tecnologias educacionais, com a finalidade de promover o aprendizado sobre UP a estudantes de graduação de enfermagem e possibilitar a educação continuada de enfermeiros, uma vez que as UP representam um desafio aos profissionais da saúde e aos serviços de saúde.
Resumo:
El presente proyecto denominado “EICAR, Electrónica, Informática, Comunicaciones, Automática y Robótica para la Producción de Bienes y Servicios” asocia estratégicamente a un importante grupo de instituciones del sector científico-tecnológico, privado y gobierno con el objetivo de formar recursos humanos altamente capacitados, desarrollar conocimiento y tecnología de punta, en el campo convergente de la electrónica, informática y computación industrial, comunicaciones y automática, y su transferencia para el desarrollo activo de sectores estratégicos del país, a través de la ejecución de seis Programas: 1) Desarrollo de sistemas inteligentes para eficientizar el uso racional de la energía; 2) I+D para el desarrollo de sistemas complejos de aeronáutica y aeroespacio; 3) Desarrollos para la plataforma de TV Digital y su integración a Internet; 4) Trazabilidad de productos agropecuarios y agroindustriales; 5) Elaboración de un plan estratégico para el desarrollo de infraestructura en TICs del Corredor Bioceánico del Centro basado en sistemas GPS y Proyecto Galileo; 6) Monitoreo de las tendencias tecnológicas de los Programas propuestos.
Resumo:
La enseñanza de la estadística se puede complementar con herramientas computacionales. Este proyecto posee como objetivos desarrollar un programa de computación (“Applet”) basado en interactividades como complemento tecnológico de la Enseñanza de la Estadística, crear la estructura de un programa “Complemento Tecnológico de la Enseñanza de la Estadística”, de modo tal que sea susceptible de incorporarse tantos módulos como lo requiera e incorporar un primer módulo referido a los Conceptos de Probabilidad y Variables Aleatorias. Para ello se realizará un relevamiento bibliográfico y se creará dicho soft.
Resumo:
Parte I. Este proyecto tiene como objetivo general contribuir la eficiencia de las terapias PDT e Hipertermia. Luego, con los resultados se ensayarán los efectos de su combinación y con todo esto lograr resultados que aporten a su evaluación clínica. Los objetivos específicos son: 1) Estudio de las propiedades ópticas de los tejidos de interés que permita realizar una dosimetría de radiaciones láser (ultravioleta, visible e infrarroja). Aspectos teóricos: Búsqueda bibliográfica y estudio de modelos de propagación de "luz" en tejidos, etc. Aspectos experimentales: Desarrollo y sistematización de equipos de medición, mediciones experimentales en los diversos tipos de tejidos. Contrastación de los resultados teóricos y experimentales logrados. 2) Estudio de las propiedades térmicas de los tejidos de interés para establecer la evolución temporal de las temperaturas. Aspectos teóricos: Búsqueda bibliográfica y estudio de modelos de difusión de calor en tejidos, etc. Aspectos experimentales: Desarrollo y sistematización de equipos de medición, mediciones en los diversos tipos de tejidos. Contrastación de los resultados teóricos y experimentales logrados. 3) Desarrollo de un modelo analítico y/o numérico que contemple los aspectos ópticos y térmicos de la interacción de la radiación láser con tejidos biológicos. Aspectos teóricos: Búsqueda bibliográfica y estudio de los resultados propios y publicados tendientes a unificar la parte óptica con la térmica. Aspectos experimentales: Mediciones experimentales en los diversos tipos de tejidos y situaciones teóricas analizadas. Contrastación de los resultados teóricos y experimentales logrados. 4) Presenta los resultados obtenidos a través de un sistema experto. Esto permitirá a los cirujanos que utilizan láser acceder fácilmente a esta información. Aspectos teóricos: Búsqueda bibliográfica y estudio lenguajes de computación de alto nivel. Desarrollo de software del programa experto. Incorporación de los resultados obtenidos y publicados en revistas especializadas. Contraste y prueba del sistema experto con resultados clínicos. Parte II. El presente proyecto plantea inicialmente la instalación y puesta a punto de un espectrómetro de rayos X con capacidad para efectuar análisis de trazas con resolución espacial y análisis de ultratrazas en régimen de reflexión total. Los distintos temas a tratar se detallan a continuación: 1) Instalación y puesta a punto del espectrómetro. Instalación del tubo de rayos X. Montaje del sistema óptico. Acople del sistema global. Caracterización experimental del equipo. 2) Análisis de muestras biológicas. Análisis de factibilidad. Selección de muestras para análisis con resolución espacial. Estudios espectroquímicos con resolución espacial. Selección de muestras para análisis por reflexión total. Estudios espectroquímicos por reflexión total.
Resumo:
Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.
Resumo:
Las Tecnologías de la Información y la Comunicación (TIC) han alcanzando una fuerte expansión en la última década y se convierten en una estrategia clave para la educación científica y tecnológica. Actualmente se realizan significativas inversiones en computadoras e insumos acordes a esta tecnología lo que no garantiza que éstas mejores disponibilidades sean necesariamente conducentes a propuestas educativas aceptables, ya que la incorporación de las TIC en la educación científica no puede consistir en un mero cambio de soporte sin que esto se acompañe de una renovación constructivista del aprendizaje. También se observa un escaso desarrollo y aplicación de las TIC tanto en la formación de grado de las carreras científicas, como en la formación permanente de los docentes. A partir de lo expuesto, nos planteamos los siguientes problemas: ¿cómo generar cursos de formación docente con alternativas virtuales que garanticen la construcción, actualización y transferencia de conocimientos en las disciplinas científicas? ¿qué diseño de materiales se requiere para potenciar aprendizajes flexibles de calidad?, ¿qué dimensiones, variables e indicadores dan cuenta de procesos de comunicación en estos entornos?, ¿Cuáles son las principales estrategias que promueven los desarrollos tecnológicos? ¿De qué manera se lleva a cabo el seguimiento y evaluación de los desarrollos tecnológicos? Para dar respuesta a estos interrogantes nos planteamos este proyecto que tiene por objetivos: diseñar, desarrollar, implementar y evaluar materiales basados en un modelo constructivista que utiliza como soporte las TIC el marco de la "Enseñanza para la Comprensión". Analizar las relaciones que se establecen en el intercambio comunicativo a través de las TIC, ya sea de manera síncrona o asíncrona e identificar las estrategias de aprendizaje utilizadas por los estudiantes cuando trabajan con entornos virtuales. Se profundizará en los siguientes temas: "La materia y sus cambios", "Biotecnología" y "Dilemas investigativos a los que se enfrentan los científicos". Los dos primeros módulos estarán destinados a la formación de futuros docentes en Ciencias y a la formación permanente de docentes en ejercicio. Los usuarios del tercer módulo serán los estudiantes del ciclo de nivelacion. Se propone desarrollar instrumentos de evaluación, adaptando indicadores que sirvan para evaluar el modelo, el diseño de los materiales, el medio tecnológico, la eficiencia de estos programas con TIC. Se van a definir variables que permitan identificar las estrategias de aprendizaje utilizadas por los usuarios de estos desarrollos tecnológicos y las relaciones que se establecen en el intercambio comunicativo de los entornos virtuales, haciendo hincapié en la lecto-escritura científica. Se utilizará la plataforma Moodle que permite la administración de los estudiantes, las interacciones sociales necesarias para integrar una comunidad de aprendizaje a través de los foros y correo electrónico y la evaluación continua de los aprendizajes. El desarrollo de los contenidos específicos y las actividades de aprendizaje se hará en CD interactivos elaborados con diferentes programas de computación. En el desarrollo de los materiales se incluyen algunas simulaciones interactivas que permiten comprender conceptos que habitualmente requerían experimentación fáctica. El estudio se enmarca en la combinación de dos enfoques metodológicos que integran técnicas y procedimientos de análisis tanto cuantitativos como cualitativos. Consideramos que esta investigación es una contribución teórica importante ya que propone mejorar un modelo para la enseñanza de las Ciencias Naturales introduciendo las TIC. Se espera realizar un aporte novedoso al campo de la Didáctica de las Ciencias con la obtención de los resultados y acciones tendientes a establecer una red de comunicaciones entre los docentes participantes y los investigadores involucrados en el programa, instalada en forma progresiva.
Resumo:
El presente proyecto se plantea el siguiente problema de investigación:¿Cuál es la eficacia de los entornos virtuales de enseñanza para optimizar los aprendizajes de Química? Se sostiene la hipótesis de que los entornos virtuales de enseñanza, empleados como mediación instrumental, son eficaces para optimizar los aprendizajes de química, particularmente facilitando la vinculación y reversibilidad entre "mundo micro y macroscópico"; capacidad que usualmente sólo se atribuye al trabajo experimental de laboratorio. Los objetivos propuestos son: Determinar la eficacia de entornos virtuales de enseñanza, como mediaciones instrumentales, para optimizar los aprendizajes de química en estudiantes de ingeniería. Implementar un entrono virtual de enseñanza de química, diseñado como mediación instrumental y destinado a estudiantes de dos carreras de ingeniería del IUA. Evaluar el desarrollo y los resultados de la innovación introducida. Comparar los resultados de la innovación con los resultados de la enseñanza usual. Derivar conclusiones acerca de la eficacia de la innovación propuesta. Socializar el conocimiento producido en ámbitos científico-tecnológicos reconocidos. Se generará un aula virtual en plataforma Educativa y utilidzando el laboratorio de computación de la institución se buscará desarrollar laboratorios virtuales donde se propondrán actividades de simulación de trabajo experimental. Los resultados esperados son: - Un Aula Virtual que cumpla funciones análogas a las de un laboratorio experimental. - Información válida y confiable acerca de la eficacia de la misma como medio para optimizar los aprendizajes de química. - Publicaciones en ámbitos científico-tecnológicos reconocidos que sometan a juicio público la innovación y la investigación efectuadas. La importancia del proyecto radica principalmente en poner a prueba la eficacia de los entornos virtuales para optimizar los aprendizajes de química, analogando tareas usualmente limitadas al trabajo experimental de laboratorio. Su pertinencia apunta a un replanteo del curriculo de los cursos de Química para estudiantes de Ingeniería.