12 resultados para enseñanza en computación

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La incidencia de las nuevas tecnologías en el futuro de la enseñanza fue el hilo argumentativo de la ponencia presentada por el catedrático de la Escuela Técnica Superior de Ingenieros de Telecomunicaciones, Fernando Sáez Vacas, en el curso de las Jornadas sobre Informática y Educación en la Enseñanza Básica y Media que, entre los días 26 al 28 de noviembre, tuvieron lugar en Madrid, bajo el patrocinio del Ministerio de Educación y Ciencia, el de Industria y Energía y el Consejo Superior de informática.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La incidencia de las nuevas tecnologías en el futuro de la enseñanza fue el hilo argumentativo de la ponencia presentada por el catedrático de la Escuela Técnica Superior de Ingenieros de Telecomunicaciones, Fernando Sáez Vacas, en el curso de las Jornadas sobre Informática y Educación en la Enseñanza Básica y Media que, entre los días 26 al 28 de noviembre, tuvieron lugar en Madrid, bajo el patrocinio del Ministerio de Educación y Ciencia, el de Industria y Energía y el Consejo Superior de Informática

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proceso de introducción de los ordenadores en la escuela, que parece querer iniciarse ahora oficialmente en nuestro país, es asunto muy polifacético y con la suficiente carga de cambio como para ser meditado más que detenidamente. Por una parte, si se dejan a un lado puntos de vista e intereses parciales —aunque puedan ser legítimos-, es imposible no darse cuenta de que sobre este tema hay hoy en el mundo un cuadro importante de preguntas a las que no se ha sabido dar una respuesta coherente y mucho menos concluyente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proceso de introducción de los ordenadores en la escuela, que parece querer iniciarse ahora en nuestro país, es asunto muy polifacético y con la suficiente carga de cambio como para ser meditado más que detenidamente. Por una parte, si se dejan a un lado puntos de vista e intereses parciales —aunque puedan ser legítimos— es imposible no darse cuenta de que sobre este tema hay hoy en el mundo un cuadro importante de preguntas a las que no se ha sabido dar una respuesta coherente, y mucho menos concluyente. El marco de penuria endémica de los sistemas educativo y científico-tecnológico españoles nos plantea, por añadidura, una pregunta fundamental en esta cuestión ¿se dan las condiciones iniciales mínimas, primero, para hacer un diseño válido del proceso y, después, para desarrollarlo?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Parallel processing systems require complex interconnection networks. In order to obtain fast and flexible communications at a reasonable cost, different types of networks has been studied in the past. None of them can be considered best. The cost-effectiveness of a particular network design depends of several factors that will not be treat here. Nevertheless, the basic device that configurate an interconnection network can be the same for most of them. In this way, an Optical Interconetion Network made with Holographic Optical Element (HOE) is presented. The HOE recording way use present special caracteristics that are described. A Perfect Shuffle and Banyan networks has been implemented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vivimos en una sociedad en la que la información ha adquirido una vital importancia. El uso de Internet y el desarrollo de nuevos sistemas de la información han generado un ferviente interés tanto de empresas como de instituciones en la búsqueda de nuevos patrones que les proporcione la clave del éxito. La Analítica de Negocio reúne un conjunto de herramientas, estrategias y técnicas orientadas a la explotación de la información con el objetivo de crear conocimiento útil dentro de un marco de trabajo y facilitar la optimización de los recursos tanto de empresas como de instituciones. El presente proyecto se enmarca en lo que se conoce como Gestión Educativa. Se aplicará una arquitectura y modelo de trabajo similar a lo que se ha venido haciendo en los últimos años en el entorno empresarial con la Inteligencia de Negocio. Con esta variante, se pretende mejorar la calidad de la enseñanza, agilizar las decisiones dentro de la institución académica, fortalecer las capacidades del cuerpo docente y en definitiva favorecer el aprendizaje del alumnado. Para lograr el objetivo se ha decidido seguir las etapas del Knowledge Discovery in Databases (KDD), una de las metodologías más conocidas dentro de la Inteligencia de Negocio, que describe el procedimiento que va desde la selección de la información y su carga en sistemas de almacenamiento, hasta la aplicación de técnicas de minería de datos para la obtención nuevo conocimiento. Los estudios se realizan a partir de la información de la activad de los usuarios dentro la plataforma de Tele-Enseñanza de la Universidad Politécnica de Madrid (Moodle). Se desarrollan trabajos de extracción y preprocesado de la base de datos en crudo y se aplican técnicas de minería de datos. En la aplicación de técnicas de minería de datos, uno de los factores más importantes a tener en cuenta es el tipo de información que se va a tratar. Por este motivo, se trabaja con la Minería de Datos Educativa, en inglés, Educational Data Mining (EDM) que consiste en la aplicación de técnicas de minería optimizadas para la información que se genera en entornos educativos. Dentro de las posibilidades que ofrece el EDM, se ha decidido centrar los estudios en lo que se conoce como analítica predictiva. El objetivo fundamental es conocer la influencia que tienen las interacciones alumno-plataforma en las calificaciones finales y descubrir nuevas reglas que describan comportamientos que faciliten al profesorado discriminar si un estudiante va a aprobar o suspender la asignatura, de tal forma que se puedan tomar medidas que mejoren su rendimiento. Toda la información tratada en el presente proyecto ha sido previamente anonimizada para evitar cualquier tipo de intromisión que atente contra la privacidad de los elementos participantes en el estudio. ABSTRACT. We live in a society dominated by data. The use of the Internet accompanied by developments in information systems has generated a sustained interest among companies and institutions to discover new patterns to succeed in their business ventures. Business Analytics (BA) combines tools, strategies and techniques focused on exploiting the available information, to optimize resources and create useful insight. The current project is framed under Educational Management. A Business Intelligence (BI) architecture and business models taught up to date will be applied with the aim to accelerate the decision-making in academic institutions, strengthen teacher´s skills and ultimately improve the quality of teaching and learning. The best way to achieve this is to follow the Knowledge Discovery in Databases (KDD), one of the best-known methodologies in B.I. This process describes data preparation, selection, and cleansing through to the application of purely Data Mining Techniques in order to incorporate prior knowledge on data sets and interpret accurate solutions from the observed results. The studies will be performed using the information extracted from the Universidad Politécnica de Madrid Learning Management System (LMS), Moodle. The stored data is based on the user-platform interaction. The raw data will be extracted and pre-processed and afterwards, Data Mining Techniques will be applied. One of the crucial factors in the application of Data Mining Techniques is the kind of information that will be processed. For this reason, a new Data Mining perspective will be taken, called Educational Data Mining (EDM). EDM consists of the application of Data Mining Techniques but optimized for the raw data generated by the educational environment. Within EDM, we have decided to drive our research on what is called Predictive Analysis. The main purpose is to understand the influence of the user-platform interactions in the final grades of students and discover new patterns that explain their behaviours. This could allow teachers to intervene ahead of a student passing or failing, in such a way an action could be taken to improve the student performance. All the information processed has been previously anonymized to avoid the invasion of privacy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El mercado de las rocas industriales desde el punto de vista económico se ha desarrollado de manera espectacular en los últimos tiempos. Eso es especialmente cierto en lo que se refiere a las rocas ornamentales, si bien los materiales pétreos utilizados en la construcción han experimentado también un importante ascenso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN La adquisición de la competencia comunicativa intercultural en la enseñanza de Lenguas Extranjeras (LE) y/o Lenguas para Fines Específicos (LFE) debe ser un proceso de aprendizaje consciente y explícito cuyo fin es la transmisión de conocimientos teóricos, el desarrollo de habilidades comportamentales y de actitudes positivas a través del contacto con la/s cultura/s meta. Esta tesis tiene como objetivo general contribuir al desarrollo de la competencia comunicativa intercultural comercial del estudiante de español de los negocios (EN). Para ello se ha realizado un análisis de los manuales para su enseñanza. En concreto, hemos auditado los manuales de EN con el fin de conocer la metodología didáctica que emplean en la enseñanza de la competencia comunicativa intercultural comercial, tomando como marco de referencia el enfoque intercultural para la enseñanza de las Lenguas de los Negocios. Para alcanzar este fin se ha dividido la investigación en tres partes: 1) la revisión de los antecedentes sobre la enseñanza del componente intercultural y del análisis de materiales en los cursos de LFE; 2) la configuración de un constructo teórico que permitiera a la vez, seleccionar el objeto de estudio, diseñar el instrumento de análisis y disponer de un marco de referencia valorativo; 3) y la creación, pilotaje y aplicación del instrumento de análisis, y la auditoría de los datos. Los resultados muestran que, en líneas generales, predomina una visión tradicional de la cultura; un escaso tratamiento de la relación lengua-y-cultura; un seguimiento parcial de los principios pedagógicos para la adquisición de la competencia comunicativa intercultural; un tratamiento bajo de las habilidades interculturales específicas en las interacciones comerciales; y una cobertura parcial de las habilidades interculturales generales, las cuales se centran fundamentalmente en la adqusición de saberes teóricos. PALABRAS CLAVE: competencia comunicativa intercultural; comunicación intercultural comercial; español de los negocios; español para fines específicos; auditoria de manuales didácticos. ABSTRACT The acquisition of intercultural communicative competence in Foreign Language (FL) and / or Languages for Specific Purposes teaching (LSP) must be a conscious and explicit learning to develop knowledge, skills and positive attitudes through contact with the target culture/s. The overall objective of this thesis is to assist the development of the intercultural communicative competence of the student of Spanish for Business (SB) through the audit of the teaching textbooks published in the last decade through a multidisciplinary approach to teaching LSP. The audit was carried out in order to ascertain the underlying approach and course design for the development of the intercultural communicative competence; to state the methodological approach to culture, language-and-culture relationship, culture teaching, culture acquisition and course design. To achieve this objective, the work has been divided into four parts: 1) review of the background on teaching the intercultural component and the analysis of materials in a courses of LSP through a multidisciplinary approach, 2) configuration of a theoretical construct allowing to select the object of study, to design the analytical instrument and to have an evaluative framework, together with the selection of a corpus of Spanish for Business textbooks, 3) development of the analytical instrument and 4) application of the analytical instrument and audit of selected textbooks. The results show that, in the textbooks analyzed, dominated a traditional view of culture, a low ratio treatment of the language-and-culture relationship, a partial implementation of the pedagogical principles for the acquisition of intercultural communicative competence; poor treatment of specific intercultural skills in business interactions, and partial coverage of the general cultural skills, which focus primarily on the acquisition of theoretical knowledge. KEY WORDS: Intercultural communicative competence; Intercultural communicative competence; Spanish for Business; Spanish for Specific Purposes; Textbook audit

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo tiene por objeto plantear una base sobre la que discutir objetivos, contenidos, criterios y métodos a emplear en la. enseñanza universitaria de cualquier rama de las ciencias de la computación. La discusión que se propone se sitúa en un plano de generalidad y de estrategia social, promoviendo la participación de los sectores sociales y económicos interesados y la consideración de sus intereses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este texto propone la incorporación de las ideas de sistemas como elemento indispensable en los currículos universitarios relacionados con computación. Con este objetivo,se presenta la experiencia acumulada en la Escuela Técnica Superior de Ingenieros de Telecomunicación de Madrid desde 1978. Más concretamente, se muestran los objetivos,metodología y resultados obtenidos dentro de una asignatura denominada Ingeniería de Sistemas, integrada en el último curso de una especialización en Ingeniería Telemática (Informática y Comunicaciones).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La premisa inicial de la tesis examina cómo las secuelas de Segunda Guerra mundial motivaron una revisión general de la Ciencia y procuraron una nueva relación entre el hombre y su entorno. Matemáticas, Física y Biología gestaron las Ciencias de la Computación como disciplina de convergencia. En un momento de re-definición del objeto científico, una serie de arquitectos vislumbraron la oportunidad para transformar ciertas convenciones disciplinares. Mediante la incorporación de ontologías y procedimientos de cibernética y computación, trazaron un nuevo espacio arquitectónico. Legitimados por un despegue tecnológico incuestionable, desafían los límites de la profesión explorando campos abiertos a nuevos programas y acciones; amplían el dominio natural de la Arquitectura más allá del objeto(terminado) hacia el proceso(abierto). Se da inicio a la tesis describiendo los antecedentes que conducen a ese escenario de cambio. Se anotan aspectos de Teoría de Sistemas, Computación, Biología y de ciertos referentes de Arquitectura con relevancia para esa nuevo planteamiento. En esos antecedentes residen los argumentos para orientar la disciplina hacia el trabajo con procesos. La linea argumental central del texto aborda la obra de Christopher Alexander, Nicholas Negroponte y Cedric Price a través de una producción teórica y práctica transformada por la computación, y examina la contribución conceptual de cada autor. El análisis comparado de sus modelos se dispone mediante la disección de tres conceptos convergentes: Sistema, Código y Proceso. La discusión crítica se articula por una triangulación entre los autores, donde se identifican comparando por pares las coincidencias y controversias entre ellos. Sirve este procedimiento al propósito de tender un puente conceptual con el escenario arquitectónico actual estimando el impacto de sus propuestas. Se valora su contribución en la deriva del programa cerrado a la especulación , de lo formal a lo informal, de lo único a lo múltiple; del estudio de arquitectura al laboratorio de investigación. Para guiar ese recorrido por la significación de cada autor en el desarrollo digital de la disciplina, se incorporan a la escena dos predicados esenciales; expertos en computación que trabajaron de enlace entre los autores, matizando el significado de sus modelos. El trabajo de Gordon Pask y John Frazer constituye el vehículo de transmisión de los hallazgos de aquellos años, prolonga los caminos iniciados entonces, en la arquitectura de hoy y la que ya se está diseñando para mañana. ABSTRACT The initial premise of the thesis examines how the aftermath of second world war motivated a general revision of science and procure the basis of a new relation between mankind and its environment. Mathematics, Physics, and Biology gave birth to the Computer Sciences as a blend of different knowledge and procedures. In a time when the object of major sciences was being redefined, a few architects saw a promising opportunity for transforming the Architectural convention. By implementing the concepts, ontology and procedures of Cybernetics, Artificial Intelligence and Information Technology, they envisioned a new space for their discipline. In the verge of transgression three prescient architects proposed complete architectural systems through their writings and projects; New systems that challenged the profession exploring open fields through program and action, questioning the culture of conservatism; They shifted architectural endeavor from object to process. The thesis starts describing the scientific and architectural background that lead to that opportunity, annotating aspects of Systems Theory, Computing, Biology and previous Architecture form the process perspective. It then focuses on the Works of Christopher Alexander, Nicholas Negroponte and Cedric Price through their work, and examines each authors conceptual contribution. It proceeds to a critical analysis of their proposals on three key converging aspects: system, architectural encoding and process. Finally, the thesis provides a comparative discussion between the three authors, and unfolds the impact of their work in todays architectural scenario. Their contribution to shift from service to speculation, from formal to informal , from unitary to multiple; from orthodox architecture studio to open laboratories of praxis through research. In order to conclude that triangle of concepts, other contributions come into scene to provide relevant predicates and complete those models. A reference to Gordon Pask and John Frazer is then provided with particular interest in their role as link between those pioneers and todays perspective, pushing the boundaries of both what architecture was and what it could become.