7 resultados para Orientación en cursos populares
em Universidad Politécnica de Madrid
Resumo:
El planteamiento inicial de este proyecto surge debido a que hay personas con discapacidad cognitiva que se desorientan con mucha facilidad en espacios interiores. Para guiar a esas personas no se pueden usar los sistemas basados en GPS que se utilizan hoy en día en vehículos, ya que estos sistemas no funcionan en lugares cerrados porque no reciben la señal de los satélites. Por consiguiente se ha propuesto una solución basada en otra tecnología para que estas personas, a través de su dispositivo móvil, puedan guiarse en un sitio cerrado. Este Trabajo de Fin de Grado parte inicialmente de un Practicum realizado en el semestre anterior, donde se investigó sobre posibles soluciones de balizas digitales (iBeacons) y se estudió la tecnología iBeacon para conocer la posición del móvil en un espacio cerrado. El principal problema que se encontró fue la falta de precisión a la hora de estimar la distancia (en metros) que hay entre baliza y dispositivo móvil. El objetivo para este trabajo de fin de grado ha sido primeramente resolver el problema comentado anteriormente y una vez resuelto, implementar un prototipo móvil para el sistema operativo Android de un sistema de orientación en espacios interiores para personas con discapacidad cognitiva. Este prototipo ha sido implementado ayudándose de balizas digitales (iBeacons) y utilizando el método de trilateración para conocer la posición del usuario en un sitio cerrado. Además se han aprovechado los sensores (acelerómetro y sensor magnético terrestre) del dispositivo móvil como refuerzo de posicionamiento y para seguir de forma más precisa el movimiento del usuario. En el prototipo actual no se han dedicado recursos a diseñar una interacción fácil para personas con discapacidad cognitiva, debido a que su principal objetivo ha sido evaluar el funcionamiento de las balizas y las posibilidades del sistema de orientación. El resultado final de este TFG es incorporar una serie de luces asociadas a cada una de las balizas que ayuden al usuario a orientarse con mayor facilidad.---ABSTRACT---The initial approach of this project arises because there are people with cognitive disabilities who become disoriented in closed sites. To guide these people it cannot be used GPS, because this system does not work in closed sites because it does not receive the satellite signals. Therefore, it has proposed a solution based on another technology so that these people, through their smartphone, can be guided in a closed site. This final degree project comes from a Practicum made in the previous semester, where possible solutions about iBeacons were investigated and the iBeacon technology was studied too. All this, to know the mobile position in a closed site. The main problem encountered was the lack of precision to calculate the distance between a mobile phone and a beacon. The first objective has been to solve distance problem mentioned above, once resolved it has implemented a prototype, which consists in a guidance system in closed sites for a people with cognitive disabilities. This prototype has been implemented with beacons and trilateration to know user position in a closed site. In addition, mobile phone sensors have been used to follow user movement. In the current prototype, the main objective has been evaluate iBeacons performance and the guidance system. The result of this TFG is to incorporate a series of lights associated with each of the beacons to make easier the orientation.
Resumo:
Los objetivos de este proyecto son proporcionar la teoría, los ejercicios y otros recursos necesarios para que los alumnos de la EUIT de Telecomunicación con un nivel A1 en el Marco Común Europeo de Referencia para las Lenguas (MCERL) puedan obtener el nivel A2 en inglés sin necesidad de asistir a clases ni matricularse en cursos presenciales. La plataforma utilizada para conseguir este fin es Moodle, siendo utilizada en la página web de ILLLab. Este curso online sirve para alcanzar los conocimientos requeridos en la asignatura optativa Introduction to English for Professional and Academic Communication I que parte del nivel B1. Se realiza una propuesta de la gramática con sus correspondientes ejemplos y ejercicios basados todos ellos en adaptaciones de actividades publicadas en un corpus de libros de texto. Se añaden recursos (pequeñas lecturas, videos, enlaces) que se consideran apropiados para el tema tratado. Por otro lado, también se persigue solucionar el problema de los cursos de idiomas basados en e-learning ya que no proporcionan las herramientas necesarias para poner en práctica la expresión oral. Para ello, se aporta una aplicación basada en técnicas de reconocimiento de voz, con tres actividades en las que los resultados han de darse de forma hablada y con la correcta pronunciación. Así, se busca dar una base de conocimientos y experiencias prácticas para futuros proyectos basados en herramientas de síntesis y reconocimiento de voz, además de buscar un nuevo enfoque en el estudio de idiomas. Abstract: The objectives of this project are to provide the theory, exercises and other resources for students at the EUIT Telecommunications with A1 level in the Common European Framework of Reference for Languages (MCERL) in order to get A2 level in English without attending face-to-face courses. The platform used to achieve this aim is Moodle, which is currently being used in ILLLab website. This online course is due to attain the knowledge required in the optional subject Introduction to English for Professional and Academic Communication I which is based on the B1 level. It is a proposal of grammar with corresponding examples and exercises all based on adaptations of activities posted on a corpus of textbooks. It also adds resources (short readings, videos or links) that are appropriate for the subject. On the other hand, this project aims to solve the problem of language courses based on e-learning because these do not usually provide the student with the necessary tools to practice speaking. For this, we develop an application based on speech recognition techniques and propose three activities to practice speaking, and pronunciation. The proposal seeks to provide knowledge and practical experience for future projects based on synthesis tools and voice recognition, and means a new approach to e-learning courses for the study of languages.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
La asignatura Sistemas Operativos presenta dificultades para su aprendizaje, pero poco se conoce acerca de las mismas, ya que no han sido determinadas ni estudiadas por la literatura. Asimismo, los trabajos existentes sobre la enseñanza y aprendizaje de Sistemas Operativos se limitan a proponer distintos enfoques para impartir la asignatura y en general no evalúan el aprendizaje de los estudiantes para comprobar la eficacia del método propuesto ni usan metodologías de investigación rigurosas. Por otra parte, la impartición de la asignatura Sistemas Operativos en modalidad online ha sido escasamente estudiada y podría tener dificultades adicionales a las de la modalidad presencial, ya que el contexto online impone una serie de restricciones tanto para el profesor como para el estudiante. En la presente tesis se ha llevado a cabo una evaluación formativa en la asignatura Sistemas Operativos, perteneciente al Grado de Ingeniería Informática de una universidad online. El objetivo inicial de la evaluación era descubrir las dificultades de los estudiantes para la comprensión de los conceptos de la asignatura. Posteriormente y, dada la buena aceptación de la evaluación por parte de los estudiantes, se ampliaron los objetivos del trabajo para explorar los efectos de la evaluación realizada sobre el aprendizaje. La evaluación formativa diseñada está basada en la taxonomía revisada de Bloom y sus principales objetivos son: (a) promover el aprendizaje significativo y (b) hacer a los estudiantes conscientes de su proceso de aprendizaje. La metodología de investigación utilizada es el estudio de caso cualitativo y la muestra está constituida por 9 estudiantes del total de 13 matriculados en la asignatura. Los datos cualitativos analizados proceden de las pruebas de evaluación formativa llevadas a cabo por los estudiantes durante la impartición de la asignatura. Los conceptos de sistemas operativos que han resultado más difíciles de comprender en el curso online estudiado han sido las interrupciones y los semáforos. Además, alrededor de estos conceptos se han identificado las dificultades específicas y sus posibles causas. Las dificultades descubiertas acerca de los semáforos corroboran las investigaciones existentes en el área de programación concurrente. El resto de las dificultades identificadas no habían sido determinadas por la literatura existente. En cuanto a los efectos de la evaluación formativa sobre el aprendizaje, la evidencia empírica muestra que ésta ha provocado en los estudiantes una reflexión profunda sobre los conceptos de la asignatura y sobre su propio proceso de aprendizaje. El estudio de caso presentado puede ayudar a los profesores del área de ingeniería a crear evaluaciones formativas en cursos online. La tesis, por tanto, realiza aportaciones relevantes en las áreas de enseñanza y aprendizaje de sistemas operativos, evaluación formativa, metodologías cualitativas y educación online. ABSTRACT Operating Systems is a difficult subject to learn; however little is known about said difficulties, as they have not been studied nor determined by the relevant literature. Existing studies on teaching and learning the subject of operating systems are limited to presenting different approaches for teaching the subject and generally do not evaluate students’ learning to verify the effectiveness of the proposed methods, nor do they use rigorous research methodologies. On the other hand, there are very few studies on teaching operating systems online, which may inherently present more difficulties than the in-person format, since an online context imposes a series of restrictions on both professors and students, such as not having face-to-face interaction for communications. This thesis studies a formative assessment of the subject of operating systems, as part of the Degree in Information Technology Engineering for an online university. The initial objective of this assessment was to determine the students’ difficulties in conceptual comprehension for this subject. Once students had accepted the assessment, the study’s objectives were expanded to include an investigation of the effects of the assessment on learning. The designed formative assessment was based on Revised Bloom’s Taxonomy with the following main objectives: (a) to promote meaningful learning and (b) (b) to make students aware of their learning process. The research methodology involves a qualitative case study with a sample consisting of 9 of the total 13 students registered for this course. The qualitative data analyzed comes from the formative assessment tests taken by these students during the course. The most difficult operating systems concepts for students in the online course were interrupts and semaphores. Additionally, the specific difficulties and their possible causes have been identified. The students’ comprehension difficulties with semaphores corroborate the existing research in the area of concurrent programming. The other identified difficulties were not discussed in the existing literature. Regarding the effects of the formative assessment on learning, the empirical evidence shows that it causes students to reflect carefully on the subject’s concepts as well as their own learning process. The presented case study can help professors in the area of engineering to create formative assessments for online courses. This thesis, therefore, makes relevant contributions to the areas of teaching and learning operating systems, formative assessment, qualitative methodologies, and online education.
Resumo:
Si bien se han ido realizando análisis sistemáticos desde el punto de vista arquitectónico de los diferentes jardines nacionales europeos, el jardín clásico español, a pesar del importante incremento de bibliografía operado en la última década, no ha sido todavía estudiado desde los criterios compositivos y espaciales propios de la disciplina arquitectónica. Responde el jardín clásico español a una organización perspectiva que proviene de las construcciones espaciales originadas y desarrolladas en Italia durante los siglos XV y XVI; establece, además, una importante conexión con la arquitectura de jardines contemporánea, es decir, las grandes corrientes europeas –desde el jardín renacentista italiano al barroco francés-, que asume, interpreta e incluso supera en cuanto a organización unitaria e integración con su entorno en varios ejemplos señeros. Pero esta imbricación europea se ve puntualizada por una influencia primordial: el concepto islámico del espacio arquitectónico, caracterizado por la fragmentación y la pérdida de la axialidad, que en España se extiende de forma generalizada. Fusionada con los principios perspectivos provenientes de Italia, esta concepción espacial proporciona a los jardines –y demás edificios- una gran riqueza espacial que, poco analizada y mal comprendida, se ha considerado habitualmente como falta de pericia compositiva. Este hecho ha negado a los jardines españoles originalidad alguna –otorgada, en cambio, a los hispanomusulmanes- y una clasificación periférica en la historia de la disciplina. El jardín clásico español presenta tres etapas principales: una primera, durante los siglos XVI y XVII, que se podría denominar renacentista; una segunda, en la primera mitad del siglo XVIII, de ascendencia barroca francesa, y, por último, en la segunda mitad del Ochocientos, el jardín neoclásico, que en buena medida retoma la organización formal de la primera etapa renacentista. Las tres influencias preponderantes en el jardín renacentista español son la hispanomusulmana, procedente de la ocupación islámica en España desde el siglo VIII hasta el XV, cuya estela se mantiene durante todo el desarrollo del jardín clásico; una flamenca, de menor calado y cuyo origen está en los contactos políticos de la corona española con Flandes, y, por último, la italiana, de donde procederá la espacialidad perspectiva propia del Renacimiento, extendida por toda Europa y conocida en España asimismo por vínculos políticos y culturales. El jardín hispanomusulmán va a proporcionar los rasgos distintivos de la jardinería española posterior, derivados de la necesaria adaptación compositiva a un medio físico poco idóneo para la implantación de jardines. Esta cuestión se soluciona tradicionalmente de forma perfecta con el patio y el apoyo de una serie de elementos arquitectónicos de carácter ligero articulados aleatoriamente con la vivienda para organizar su entorno, operación que produce un organismo superior asimétrico y estructurado a partir de pequeños fragmentos ordenados por ejes quebrados, cuyo crecimiento no presupone un cambio en las cualidades espaciales del jardín. Esta ordenación quebrada y la fragmentación espacial tienden a embarazar la unidad perspectiva renacentista, de tal forma que el jardín español no presenta grandes ejes visuales ni espacios fugados, sino pequeñas piezas independientes –adaptadas mejor a la corrección climática y al riego- que se agregan sin intención de regularidad o simetría, pues buscan la ambigüedad espacial mediante la ofuscación de la percepción y orientación en el jardín, como sucedía en las obras hispanomusulmanas. El jardín renacentista español tendrá una doble vertiente dependiendo del medio físico donde se asiente: si este es poco propicio a la implantación de jardines, se recuperará la ordenación espacial medieval musulmana como respuesta compositiva a dicho entorno remiso, pues los ensayos de jardines basados en elementos arquitectónicos, ante la dificultad de estructurar el espacio del jardín en España con las componentes naturales –topografía, vegetación y agua-, se realizaron con éxito y se reutilizaron en siglos posteriores, e incluso alcanzan el momento actual; contemporáneamente, en territorios propicios a la creación de jardines –generalmente, riberas de ríos-, se podrá desarrollar el espacio perspectivo unitario italiano, que producirá ejemplos de gran calidad. Así, Felipe II creará de forma simultánea jardines muy diferentes según su ubicación. Entre los de carácter más medieval destacan los del Alcázar de Madrid y Valsaín –con el antecedente de Yuste, promovido por Carlos V-, y de los plenamente renacentistas, la Casa de Campo, El Escorial y Aranjuez, éstos últimos de Juan Bautista de Toledo. Los dos primeros se organizan con varios recintos independientes articulados por ejes quebrados y ordenados a partir de elementos ligeros –galerías, torreones, miradores- que se proyectan hacia el exterior para dar forma al entorno inmediato del palacio. Los últimos, en cambio, utilizan las posibilidades del medio natural para estructurar los jardines, y establecen magníficos ejes de raigambre renacentista, origen de espacios perspectivos unitarios de gran interés, dado su tamaño y temprana fecha de creación. Así, en la Casa de Campo la villa se articula con un jardín llano cuya unidad espacial no tiene parangón en la Italia del momento; en Aranjuez, el Jardín de la Isla, independiente en su trazado del palacio que lo propicia, presenta una superposición de dos ejes con gradientes en sentido contrario, y una ordenación a escala territorial, las Huertas de Picotajo, con una malla focalizada de doble simetría adaptada a un difícil meandro del río Jarama y con capacidad de extensión ilimitada en la vega de Aranjuez, que es contemporánea pero mucho más evolucionada que los primeros tridentes creados en Italia y anterior en un siglo a las formalizaciones de Versalles. Frente a estas realizaciones reales, en España los jardines nobiliarios responden a una clara influencia medieval, como los del duque de Alcalá en Bornos, el marqués de Mondéjar, Bellaflor en Sevilla, la Casa del Rey en Arganda o el cigarral de Buenavista en Toledo. Pero en paralelo con éstos y promovidos por nobles conectados con Italia, se están implantando jardines de hispanomusulmana-, en fechas incluso anteriores a los construidos por la corona. Así, el marqués de Villena construye en Cadalso de los Vidrios un jardín con una tempranísima ordenación en terrazas que se integra con su entorno; el duque de Alba en Abadía realiza la misma operación con mayor desarrollo espacial; y en Béjar por el duque de esta ciudad salmantina se establece otro jardín de clara espacialidad italiana, pero con la casa fuera de la ordenación. El siglo XVII supone, en los escasos ejemplos construidos, la prolongación de la espacialidad renacentista introducida por Juan Bautista de Toledo. Hay una clara continuidad en los jardines aterrazados, como La Zarzuela y La Florida, mientras en el ejemplo llano principal, el Buen Retiro, se atiende más a la fragmentación hispana y a una adaptación de los sistemas de extensión al aumento de escala. Así había sucedido en Italia, donde los jardines de malla ortogonal se convirtieron en grandes parques focalizados, con avenidas arboladas y remates perspectivos, elementos que se repiten en el jardín madrileño, aunque sin la unidad conseguida en los precedentes mediante la focalización. El siglo XVIII va a conocer la nueva dinastía de los Borbones y el jardín barroco francés, que supondrá un cambio radical en la concepción espacial del jardín, aunque la influencia hispana no dejará de producirse. El tamaño de estos jardines, su coste de implantación y mantenimiento y la falta de adaptación al medio físico español serán los factores principales del escaso desarrollo que el jardín de Le Nôtre alcanzó en España. A pesar de los proyectos realizados - algunos de gran calidad, como los de Robert de Cotte para el Buen Retiro, los del Palacio Real Nuevo, el de Riofrío y el del castillo de Villaviciosa de Odón-, sólo se van a construir escasos parterres de los denominados urbanos. Entre ellos hay que destacar los del Buen Retiro, Aranjuez y palacios de Liria, Buenavista y Altamira en Madrid, Piedrahita para los duques de Alba, el convento de Santa Bárbara, Migas Calientes –algunos de éstos quedaron en proyecto-, a los que se añade un gran jardín con todos los componentes, que es San Ildefonso de La Granja. En La Granja se puede encontrar un parque completo a la francesa, que responde en mayor medida a los principios establecidos en el tratado de Dezallier d'Argenville que a la influencia directa de las obras de Le Nôtre. Pero la ordenación canónica de jardín barroco francés se particulariza mediante los dispositivos proyectuales de origen hispano, pues se desjerarquizan los ejes principales impidiendo su continuidad, que queda truncada por desarrollos paralelos, interrupciones perspectivas y ejes quebrados. En la segunda mitad del siglo XVIII, los propios monarcas Borbones recuperarán los jardines regulares de los Austrias, cuyos tipos llano y aterrazado tuvieron un importante desarrollo con Felipe II y Juan Bautista de Toledo y gozaban de un merecido prestigio. Ya con Fernando VI se introdujeron ordenaciones de inspiración renacentista, como en el Jardín del Príncipe de Aranjuez; pero será con su hermano Carlos III cuando se revisen las actuaciones filipinas. Juan de Villanueva fue el autor de los principales jardines del momento -entre ellos, las Casitas realizadas para el príncipe de Asturias, el futuro Carlos IV y su hermano el infante Don Gabriel- aunque Ventura Rodríguez realizó en esos años un magnífico epílogo del jardín aterrazado en España: el palacio para el infante Don Luis en Boadilla del Monte, así como proyectos para el parque del Palacio Real Nuevo. En las Casitas de El Escorial –en menor medida en El Pardo-, Villanueva recoge una larga tradición de jardines aterrazados que, además, inserta magistralmente en su entorno, dentro de la secular tradición española de adaptación al medio físico. Lejos de presentar una lectura canónica, aunque utilizando todos los recursos del tipo, el arquitecto consigue la ambigüedad espacial hispana mediante la superposición en el eje longitudinal de dos gradaciones de dirección contraria, accesos quebrados e interrupción de las visuales y el viario, sin prescindir de una ordenación clásica. También de Villanueva son el proyecto definitivo del Jardín Botánico, de gran claridad compositiva y orden científico, y, para el Palacio Real Nuevo y su entorno, el jardín previo a las Reales Caballerizas y una remodelación de la Casa de Campo y su acceso.
Resumo:
El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.
Resumo:
En este proyecto se pretende estudiar el comportamiento de la luz al atravesar medios de diversos materiales, tanto isótropos como anisótropos uniáxicos. Para ello se requiere realizar un estudio previo de las condiciones de contorno aplicables a las ecuaciones de Maxwell en la interfase de dos medios que pueden ser isótropos o anisótropos. En el caso de dos materiales isótropos, la solución del problema son los conocidos coeficientes de Fresnel de reflexión y transmisión. En este trabajo se pretende generalizar el estudio al caso del paso de la luz desde un medio isótropo a otro anisótropo uniáxico (con su eje óptico en orientación arbitraria) y viceversa y al caso de dos materiales anisótropos uniáxicos con ejes ópticos en orientaciones arbitrarias. Es de especial interés el caso de un mismo material uniáxico en el que las dos partes tienen el eje óptico con distinta orientación. Una vez planteadas las condiciones de contorno específicas en cada caso, se obtendrá un conjunto de ecuaciones algebraicas cuya resolución permitirá obtener los coeficientes de reflexión y transmisión buscados. Para plantear el sistema de ecuaciones adecuado, será necesario tener una descripción de las características ópticas de los materiales empleados, la orientación de los ejes ópticos en cada caso, y los posibles ángulos de incidencia. Se realizará un tratamiento matricial de modo que el paquete MatLab permite su inversión de manera inmediata. Se desarrollará una interfaz sencilla, realizada con MatLab, que permita al usuario introducir sin dificultad los datos correspondientes a los materiales de los medios incidente y transmitido, la orientación en espacial del o de los ejes ópticos, de la longitud de onda de trabajo y del ángulo de incidencia del haz de luz, con los que la aplicación realizará los cálculos. Los coeficientes de reflexión y refracción obtenidos serán representados gráficamente en función del ángulo de incidencia. Así mismo se representarán los ángulos transmitidos y reflejados en función del de incidencia. Todo ello de esta forma, que resulte sencilla la interpretación de los datos por parte del usuario. ABSTRACT. The reason for this project is to study the behavior of light when light crosses different media of different materials, isotropic materials and uniaxial anisotropic materials. For this, a previous study is necessary where the boundary conditions apply to Maxwell equations at the interface between two media which can be isotropic and anisotropic. If both materials are isotropic, the Fresnel ccoefficients of reflection and refraction are used to solve the problem. The aim of this work is to generalize a study when light crosses from an isotropic media to a uniaxial anisotropic media, where its axis have arbitrary directions, and vicecersa. The system consisting of two materials with axis in arbitrary directions are also being studied. Once the specific boundary conditions are known in each case, a set of algebraic equations are obtained whose solution allows obtaining the reflection coefficients and refraction coefficients. It is necessary to have a description of the optical characteristics of the materials used; of the directions axis in each case and the possible angle of incidence. A matrix is proposed for later treatment in Matlab that allows the immediate inversion. A simple interface will de developed, manufactured with Matlab, that allows the user to enter data easily corresponding to the incident media and transmission media of the different materials, the special axis directions, the wavelength and the angle of incidence of the light beam. This data is used by the application to perform the necessary calculations to solve the problem. When reflection coefficients and refraction coefficients are obtained, the application draws the graphics in function of the angle of incidence. Also transmitted and reflected angles depending on the incidence are represented. This is to perform a data representation which is a simple interpretation of the user data.