35 resultados para Profesionalización de los Archivos


Relevância:

80.00% 80.00%

Publicador:

Resumo:

This project is divided into two main parts: The first part shows the integration of an Embedded Linux operating system on a development hardware platform named Zedboard. This platform contains a Zynq-7000 System on Chip (Soc) which is composed by two dual core ARM Cortex-A9 processors and a FPGA Artix-7. The Embedded Linux is built with Linuxlink, a Timesys tool. Meanwhile, the platform hardware configuration is done with Xilinx Vivado. The system is loaded with an SD card which requires to have every files needed for the booting process and for the operation. Some of these files are generated with Xilinx SDK software. The second part starts up from the system already built to integrate a peripheral in the Zynq-7000 FPGA. Also the drivers for controlling the peripheral from the operating system are developed. Finally, a user space program is created to test both of them. RESUMEN. Este proyecto consta de dos partes: La primera muestra la integración de un sistema operativo Linux embebido en una plataforma de desarrollo hardware llamada Zedboard. Esta plataforma utiliza un System on Chip (SoC) Zynq-7000 que está formado por dos procesadores ARM Cortex-A9 de doble núcleo y una FPGA Artix-7. El Linux embebido se construye utilizando la herramienta Linuxlink de Timesys, mientras que el hardware de la plataforma de desarrollo se configura con Vivado de Xilinx. El sistema se carga en una tarjeta SD que debe tener todos los archivos necesarios para completar el arranque y hacer funcionar el sistema. Algunos de esos archivos se generan con la herramienta SDK de Xilinx. En la segunda parte se utiliza el sistema construido para integrar un periférico en la FPGA del Zynq-7000, haciendo uso de Vivado, y se desarrollan los drivers necesarios para utilizarlo mediante el sistema operativo. Para probar esta última parte se desarrolla un programa de espacio de usuario.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En todo el mundo se ha observado un crecimiento exponencial en la incidencia de enfermedades crónicas como la hipertensión y enfermedades cardiovasculares y respiratorias, así como la diabetes mellitus, que causa un número de muertes cada vez mayor en todo el mundo (Beaglehole et al., 2008). En concreto, la prevalencia de diabetes mellitus (DM) está aumentando de manera considerable en todas las edades y representa un serio problema de salud mundial. La diabetes fue la responsable directa de 1,5 millones de muertes en 2012 y 89 millones de años de vida ajustados por discapacidad (AVAD) (OMS, 2014). Uno de los principales dilemas que suelen asociarse a la gestión de EC es la adherencia de los pacientes a los tratamientos, que representa un aspecto multifactorial que necesita asistencia en lo relativo a: educación, autogestión, interacción entre los pacientes y cuidadores y compromiso de los pacientes. Medir la adherencia del tratamiento es complicado y, aunque se ha hablado ampliamente de ello, aún no hay soluciones “de oro” (Reviews, 2002). El compromiso de los pacientes, a través de la participación, colaboración, negociación y a veces del compromiso firme, aumentan las oportunidades para una terapia óptima en la que los pacientes se responsabilizan de su parte en la ecuación de adherencia. Comprometer e involucrar a los pacientes diabéticos en las decisiones de su tratamiento, junto con expertos profesionales, puede ayudar a favorecer un enfoque centrado en el paciente hacia la atención a la diabetes (Martin et al., 2005). La motivación y atribución de poder de los pacientes son quizás los dos factores interventores más relevantes que afectan directamente a la autogestión de la atención a la diabetes. Se ha demostrado que estos dos factores desempeñan un papel fundamental en la adherencia a la prescripción, así como en el fomento exitoso de un estilo de vida sana y otros cambios de conducta (Heneghan et al., 2013). Un plan de educación personalizada es indispensable para proporcionarle al paciente las herramientas adecuadas que necesita para la autogestión efectiva de la enfermedad (El-Gayar et al. 2013). La comunicación efectiva es fundamental para proporcionar una atención centrada en el paciente puesto que influye en las conductas y actitudes hacia un problema de salud ((Frampton et al. 2008). En este sentido, la interactividad, la frecuencia, la temporalización y la adaptación de los mensajes de texto pueden promover la adherencia a un régimen de medicación. Como consecuencia, adaptar los mensajes de texto a los pacientes puede resultar ser una manera de hacer que las sugerencias y la información sean más relevantes y efectivas (Nundy et al. 2013). En este contexto, las tecnologías móviles en el ámbito de la salud (mHealth) están desempeñando un papel importante al conectar con pacientes para mejorar la adherencia a medicamentos recetados (Krishna et al., 2009). La adaptación de los mensajes de texto específicos de diabetes sigue siendo un área de oportunidad para mejorar la adherencia a la medicación y ofrecer motivación a adultos con diabetes. Sin embargo, se necesita más investigación para entender totalmente su eficacia. Los consejos de texto personalizados han demostrado causar un impacto positivo en la atribución de poder a los pacientes, su autogestión y su adherencia a la prescripción (Gatwood et al., 2014). mHealth se puede utilizar para ofrecer programas de asistencia de autogestión a los pacientes con diabetes y, al mismo tiempo, superar las dificultades técnicas y financieras que supone el tratamiento de la diabetes (Free at al., 2013). El objetivo principal de este trabajo de investigación es demostrar que un marco tecnológico basado en las teorías de cambios de conducta, aplicado al campo de la mHealth, permite una mejora de la adherencia al tratamiento en pacientes diabéticos. Como método de definición de una solución tecnológica, se han adoptado un conjunto de diferentes técnicas de conducta validadas denominado marco de compromiso de retroacción conductual (EBF, por sus siglas en inglés) para formular los mensajes, guiar el contenido y evaluar los resultados. Los estudios incorporan elementos del modelo transteórico (TTM, por sus siglas en inglés), la teoría de la fijación de objetivos (GST, por sus siglas en inglés) y los principios de comunicación sanitaria persuasiva y eficaz. Como concepto general, el modelo TTM ayuda a los pacientes a progresar a su próxima fase de conducta a través de mensajes de texto motivados específicos y permite que el médico identifique la fase actual y adapte sus estrategias individualmente. Además, se adoptan las directrices del TTM para fijar objetivos personalizados a un nivel apropiado a la fase de cambio del paciente. La GST encierra normas que van a ponerse en práctica para promover la intervención educativa y objetivos de pérdida de peso. Finalmente, los principios de comunicación sanitaria persuasiva y eficaz aplicados a la aparición de los mensajes se han puesto en marcha para aumentar la efectividad. El EBF tiene como objetivo ayudar a los pacientes a mejorar su adherencia a la prescripción y encaminarlos a una mejora general en la autogestión de la diabetes mediante mensajes de texto personalizados denominados mensajes de retroacción automáticos (AFM, por sus siglas en inglés). Después de una primera revisión del perfil, consistente en identificar características significativas del paciente basadas en las necesidades de tratamiento, actitudes y conductas de atención sanitaria, el sistema elige los AFM personalizados, los aprueba el médico y al final se transfieren a la interfaz del paciente. Durante el tratamiento, el usuario recopila los datos en dispositivos de monitorización de pacientes (PMD, por sus siglas en inglés) de una serie de dispositivos médicos y registros manuales. Los registros consisten en la toma de medicación, dieta y actividad física y tareas de aprendizaje y control de la medida del metabolismo. El compromiso general del paciente se comprueba al estimar el uso del sistema y la adherencia del tratamiento y el estado de los objetivos del paciente a corto y largo plazo. El módulo de análisis conductual, que consiste en una serie de reglas y ecuaciones, calcula la conducta del paciente. Tras lograr el análisis conductual, el módulo de gestión de AFM actualiza la lista de AFM y la configuración de los envíos. Las actualizaciones incluyen el número, el tipo y la frecuencia de mensajes. Los AFM los revisa periódicamente el médico que también participa en el perfeccionamiento del tratamiento, adaptado a la fase transteórica actual. Los AFM se segmentan en distintas categorías y niveles y los pacientes pueden ajustar la entrega del mensaje de acuerdo con sus necesidades personales. El EBF se ha puesto en marcha integrado dentro del sistema METABO, diseñado para facilitar al paciente diabético que controle sus condiciones relevantes de una manera menos intrusiva. El dispositivo del paciente se vincula en una plataforma móvil, mientras que una interfaz de panel médico permite que los profesionales controlen la evolución del tratamiento. Herramientas específicas posibilitan que los profesionales comprueben la adherencia del paciente y actualicen la gestión de envíos de AFM. El EBF fue probado en un proyecto piloto controlado de manera aleatoria. El principal objetivo era examinar la viabilidad y aceptación del sistema. Los objetivos secundarios eran también la evaluación de la eficacia del sistema en lo referente a la mejora de la adherencia, el control glucémico y la calidad de vida. Se reclutaron participantes de cuatro centros clínicos distintos en Europa. La evaluación del punto de referencia incluía datos demográficos, estado de la diabetes, información del perfil, conocimiento de la diabetes en general, uso de las plataformas TIC, opinión y experiencia con dispositivos electrónicos y adopción de buenas prácticas con la diabetes. La aceptación y eficacia de los criterios de evaluación se aplicaron para valorar el funcionamiento del marco tecnológico. El principal objetivo era la valoración de la eficacia del sistema en lo referente a la mejora de la adherencia. En las pruebas participaron 54 pacientes. 26 fueron asignados al grupo de intervención y equipados con tecnología móvil donde estaba instalado el EBF: 14 pacientes tenían T1DM y 12 tenían T2DM. El grupo de control estaba compuesto por 25 pa cientes que fueron tratados con atención estándar, sin el empleo del EBF. La intervención profesional tanto de los grupos de control como de intervención corrió a cargo de 24 cuidadores, entre los que incluían diabetólogos, nutricionistas y enfermeras. Para evaluar la aceptabilidad del sistema y analizar la satisfacción de los usuarios, a través de LimeSurvey, se creó una encuesta multilingüe tanto para los pacientes como para los profesionales. Los resultados también se recopilaron de los archivos de registro generados en los PMD, el panel médico profesional y las entradas de la base de datos. Los mensajes enviados hacia y desde el EBF y los archivos de registro del sistema y los servicios de comunicación se grabaron durante las cinco semanas del estudio. Se entregaron un total de 2795 mensajes, lo que supuso una media de 107,50 mensajes por paciente. Como se muestra, los mensajes disminuyen con el tiempo, indicando una mejora global de la adherencia al plan de tratamiento. Como se esperaba, los pacientes con T1DM recibieron más consejos a corto plazo, en relación a su estado. Del mismo modo, al ser el centro de T2DM en cambios de estilo de vida sostenible a largo plazo, los pacientes con T2DM recibieron más consejos de recomendación, en cuanto a dietas y actividad física. También se ha llevado a cabo una comparación de la adherencia e índices de uso para pacientes con T1DM y T2DM, entre la primera y la segunda mitad de la prueba. Se han observado resultados favorables para el uso. En lo relativo a la adherencia, los resultados denotaron una mejora general en cada dimensión del plan de tratamiento, como la nutrición y las mediciones de inserción de glucosa en la sangre. Se han llevado a cabo más estudios acerca del cambio a nivel educativo antes y después de la prueba, medidos tanto para grupos de control como de intervención. Los resultados indicaron que el grupo de intervención había mejorado su nivel de conocimientos mientras que el grupo de control mostró una leve disminución. El análisis de correlación entre el nivel de adherencia y las AFM ha mostrado una mejora en la adherencia de uso para los pacientes que recibieron los mensajes de tipo alertas, y unos resultados no significativos aunque positivos relacionados con la adherencia tanto al tratamiento que al uso correlacionado con los recordatorios. Por otra parte, los AFM parecían ayudar a los pacientes que no tomaban suficientemente en serio su tratamiento en el principio y que sí estaban dispuestos a responder a los mensajes recibidos. Aun así, los pacientes que recibieron demasiadas advertencias, comenzaron a considerar el envío de mensajes un poco estresante. El trabajo de investigación llevado a cabo al desarrollar este proyecto ofrece respuestas a las cuatro hipótesis de investigación que fueron la motivación para el trabajo. • Hipótesis 1 : es posible definir una serie de criterios para medir la adherencia en pacientes diabéticos. • Hipótesis 2: es posible diseñar un marco tecnológico basado en los criterios y teorías de cambio de conducta mencionados con anterioridad para hacer que los pacientes diabéticos se comprometan a controlar su enfermedad y adherirse a planes de atención. • Hipótesis 3: es posible poner en marcha el marco tecnológico en el sector de la salud móvil. • Hipótesis 4: es posible utilizar el marco tecnológico como solución de salud móvil en un contexto real y tener efectos positivos en lo referente a indicadores de control de diabetes. La verificación de cada hipótesis permite ofrecer respuesta a la hipótesis principal: La hipótesis principal es: es posible mejorar la adherencia diabética a través de un marco tecnológico mHealth basado en teorías de cambio de conducta. El trabajo llevado a cabo para responder estas preguntas se explica en este trabajo de investigación. El marco fue desarrollado y puesto en práctica en el Proyecto METABO. METABO es un Proyecto I+D, cofinanciado por la Comisión Europea (METABO 2008) que integra infraestructura móvil para ayudar al control, gestión y tratamiento de los pacientes con diabetes mellitus de tipo 1 (T1DM) y los que padecen diabetes mellitus de tipo 2 (T2DM). ABSTRACT Worldwide there is an exponential growth in the incidence of Chronic Diseases (CDs), such as: hypertension, cardiovascular and respiratory diseases, as well as diabetes mellitus, leading to rising numbers of deaths worldwide (Beaglehole et al. 2008). In particular, the prevalence of diabetes mellitus (DM) is largely increasing among all ages and constitutes a major worldwide health problem. Diabetes was directly responsible for 1,5 million deaths in 2012 and 89 million Disability-adjusted life year (DALYs) (WHO 2014). One of the key dilemmas often associated to CD management is the patients’ adherence to treatments, representing a multi-factorial aspect that requires support in terms of: education, self-management, interaction between patients and caregivers, and patients’ engagement. Measuring adherence is complex and, even if widely discussed, there are still no “gold” standards ((Giardini et al. 2015), (Costa et al. 2015). Patient’s engagement, through participation, collaboration, negotiation, and sometimes compromise, enhance opportunities for optimal therapy in which patients take responsibility for their part of the adherence equation. Engaging and involving diabetic patients in treatment decisions, along with professional expertise, can help foster a patient-centered approach to diabetes care (Martin et al. 2005). Patients’ motivation and empowerment are perhaps the two most relevant intervening factors that directly affect self-management of diabetes care. It has been demonstrated that these two factors play an essential role in prescription adherence, as well as for the successful encouragement of a healthy life-style and other behavioural changes (Heneghan et al. 2013). A personalised education plan is indispensable in order to provide the patient with the appropriate tools needed for the effective self-management of the disease (El-Gayar et al. 2013). Effective communication is at the core of providing patient-centred care since it influences behaviours and attitudes towards a health problem (Frampton et al. 2008). In this regard, interactivity, frequency, timing, and tailoring of text messages may promote adherence to a medication regimen. As a consequence, tailoring text messages to patients can constitute a way of making suggestions and information more relevant and effective (Nundy et al. 2013). In this context, mobile health technologies (mHealth) are playing significant roles in improving adherence to prescribed medications (Krishna et al. 2009). The tailoring of diabetes-specific text messages remains an area of opportunity to improve medication adherence and provide motivation to adults with diabetes but further research is needed to fully understand their effectiveness. Personalized text advices have proven to produce a positive impact on patients’ empowerment, self-management, and adherence to prescriptions (Gatwood et al. 2014). mHealth can be used for offering self-management support programs to diabetes patients and at the same time surmounting the technical and financial difficulties involved in diabetes treatment (Free et al. 2013). The main objective of this research work is to demonstrate that a technological framework, based on behavioural change theories, applied to mHealth domain, allows improving adherence treatment in diabetic patients. The framework, named Engagement Behavioural Feedback Framework (EBF), is built on top of validated behavioural techniques to frame messages, guide the definition of contents and assess outcomes: elements from the Transtheoretical Model (TTM), the Goal-Setting Theory (GST), Effective Health Communication (EHC) guidelines and Principles of Persuasive Technology (PPT) were incorporated. The TTM helps patients to progress to a next behavioural stage, through specific motivated text messages, and allow clinician’s identifying the current stage and tailor its strategies individually. Moreover, TTM guidelines are adopted to set customised goals at a level appropriate to the patient’s stage of change. The GST was used to build rules to be applied for enhancing educational intervention and weight loss objectives. Finally, the EHC guidelines and the PPT were applied to increase the effectiveness of messages. The EBF aims to support patients on improving their prescription adherence and persuade them towards a general improvement in diabetes self-management, by means of personalised text messages, named Automatic Feedback Messages (AFM). After a first profile screening, consisting in identifying meaningful patient characteristics based on treatment needs, attitudes and health care behaviours, customised AFMs are selected by the system, approved by the professional, and finally transferred into the patient interface. During the treatment, the user collects the data into a Patient Monitoring Device (PMD) from a set of medical devices and from manual inputs. Inputs consist in medication intake, diet and physical activity, metabolic measurement monitoring and learning tasks. Patient general engagement is checked by estimating the usage of the system and the adherence of treatment and patient goals status in the short and the long term period. The Behavioural Analysis Module, consisting in a set of rules and equations, calculates the patient’s behaviour. After behavioural analysis is accomplished, the AFM library and the dispatch setting are updated by the AFM Manager module. Updates include the number, the type and the frequency of messages. The AFMs are periodically supervised by the professional who also participates to the refinement of the treatment, adapted to the current transtheoretical stage. The AFMs are segmented in different categories and levels and patients can adjust message delivery in accordance with their personal needs. The EBF was integrated to the METABO system, designed to facilitate diabetic patients in managing their disease in a less intrusive approach. Patient device corresponds in a mobile platform, while a medical panel interface allows professionals to monitoring the treatment evolution. Specific tools allow professional to check patient adherence and to update the AFMs dispatch management. The EBF was tested in a randomised controlled pilot. The main objective was to examine the feasibility and acceptance of the system. Secondary objectives were also the assessment of the effectiveness of system in terms of adherence improvement, glycaemic control, and quality of life. Participants were recruited from four different clinical centres in Europe. The baseline assessment included demographics, diabetes status, profile information, knowledge about diabetes in general, usage of ICT platforms, opinion and experience about electronic devices and adoption of good practices with diabetes. Acceptance and the effectiveness evaluation criteria were applied to evaluate the performance of the technological framework. The main objective was the assessment of the effectiveness of system in terms of adherence improvement. Fifty-four patients participated on the trials. Twenty-six patients were assigned in the intervention group and equipped with mobile where the EBF was installed: 14 patients were T1DM and 12 were T2DM. The control group was composed of 25 patients that were treated through a standard care, without the usage of the EBF. Professional’s intervention for both intervention and control groups was carried out by 24 care providers, including endocrinologists, nutritionists, and nurses. In order to evaluate the system acceptability and analyse the users’ satisfaction, an online multi-language survey, using LimeSurvey, was produced for both patients and professionals. Results were also collected from the log-files generated in the PMDs, the professional medical panel and the entries of the data base. The messages sent to and from the EBF and the log-files of the system and communication services were recorded over 5 weeks of the study. A total of 2795 messages were submitted, representing an average of 107,50 messages per patient. As demonstrated, messages decrease over time indicating an overall improvement of the care plan’s adherence. As expected, T1DM patients were more loaded with short-term advices, in accordance with their condition. Similarly, being the focus of T2DM on long-term sustainable lifestyle changes, T2DM received more reminders advices, as for diet and physical activity. Favourable outcomes were observed for treatment and usage adherences of the intervention group: for both the adherence indices, results denoted a general improvement on each care plan’s dimension, such as on nutrition and blood glucose input measurements. Further studies were conducted on the change on educational level before and after the trial, measured for both control and intervention groups. The outcomes indicated the intervention group has improved its level of knowledge, while the control group denoted a low decrease. The correlation analysis between the level of adherences and the AFMs showed an improvement in usage adherence for patients who received warnings message, while non-significantly yet even positive indicators related to both treatment and usage adherence correlated with the Reminders. Moreover, the AFMs seemed to help those patients who did not take their treatment seriously enough in the beginning and who were willing to respond to the messages they received. Even though, patients who received too many Warnings, started to consider the message dispatch to be a bit stressful. The research work carried out in developing this research work provides responses to the four research hypothesis that were the motivation for the work: •Hypothesis 1: It is possible to define a set of criteria to measure adherence in diabetic patients. •Hypothesis 2: It is possible to design a technological framework, based on the aforementioned criteria and behavioural change theories, to engage diabetic patients in managing their disease and adhere to care plans. •Hypothesis 3: It is possible to implement the technological framework in the mobile health domain. •Hypothesis 4: It is possible to use the technological framework as a mobile health solution in a real context and have positive effects in terms of diabetes management indicators. The verification of each hypothesis allowed us to provide a response to the main hypothesis: The Main Hypothesis is: It is possible to improve diabetic adherence through a mHealth technological framework based on behavioural change theories. The work carried out to answer these questions is explained in this research work. The framework was developed and applied in the METABO project. METABO is an R&D project, co-funded by the European Commission (METABO 2008) that integrates mobile infrastructure for supporting the monitoring, management, and treatment of type 1 diabetes mellitus (T1DM) and type 2 diabetes mellitus (T2DM) patients.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesis se centra en el estudio, descripción y análisis del libro publicado por el arquitecto británico George Edmund Street en 1865, bajo el título Some Account of Gothic Architecture in Spain. El libro dio a conocer una de la colecciones más importantes de dibujos realizada en el siglo XIX sobre la arquitectura gótica española, y por lo tanto fue una primera referencia para su estudio, hasta bien entrado el siglo veinte. El volumen incluyó 107 grabados de diversos tipos de edificios con perspectivas y detalles, y 25 láminas con 45 planos de plantas de iglesias y claustros, muchos de ellos publicados por primera vez. Gracias a varias campañas de verano por la mitad norte del país, la casi inexplorada -desde un punto de vista académico- arquitectura española medieval fue finalmente descubierta. Este hecho conduce a una pregunta intrigante que está en el origen de esta investigación ¿cómo pudo Street en pocos viajes sentar las bases de la historia del gótico español que hasta entonces los estudiosos españoles no habían sido capaces de definir? Esta tesis comienza describiendo la obra de Street en su contexto cultural con un breve repaso a su biografía y a su posición profesional y teórica. También su relación con las personas más representativas que participaron en el estudio de la arquitectura gótica, como Robert Willis, William Whewell, Augustus Pugin, o George G. Scott. Se ha prestado especial atención, en explicar su papel relevante en el Gothic Revival, para entender el significado de su interés en la arquitectura gótica continental. Estos capítulos preliminares son seguidos por una revisión del papel del dibujo como herramienta para la arquitectura de los viajeros en sus rutas en busca de la arquitectura gótica. También se trata la influencia de la Royal Academy y sus académicos, (entre los cuales estuvo Street) y su formación académica. Finalmente la tesis entra en el estudio de los planos arquitectónicos que Street hizo durante sus viajes continentales de arquitectura, seguido por una descripción detallada de sus dibujos de España, analizando su método, su técnica, y las nuevas características aportadas, que fueron una novedad en el contexto español. También se lleva a cabo algunos estudios comparativos de los dibujos de España, gracias a una recopilación exhaustiva de bocetos y dibujos originales de Street, que en su gran mayoría se conservan en los archivos del RIBA, cotejándolos con sus versiones finales, con dibujos de la época de otros autores sobre los mismos edificios, y con fotos recientes. La tesis deja claro por qué y cómo Street, gracias a su soporte teórico y habilidades para el dibujo, pudo realizar algo que había pasado desapercibido para los estudiosos españoles de la época (construcción, historia de los estilos, señalamiento de períodos constructivos), lo que le permitió encontrar el lugar adecuado de la arquitectura gótica española en la historia y en el mapa de la arquitectura gótica europea. ABSTRACT This thesis focuses on the study, description and analysis of the book published by the British architect George Edmund Street in 1865, under the title Some Account of Gothic Architecture in Spain. The book displayed one of the most significant collections of drawings on Spanish Gothic Architecture made in the nineteenth century, and therefore was a first reference for its study, until well into the twentieth century. The book included 107 engravings, the surveying of various types of buildings with perspectives and details, and 25 sheets containing 45 ground plans of churches and cloisters, many of them new and published for the first time. Thanks to several summer campaigns in the north half of the country, the almost unexplored -from a scholar point of view- medieval Spanish architecture was eventually revealed. This fact lead to an intriguing question that is at the origin of this research: how could Street in a few trips lay the foundations of the history of Spanish Gothic that until then Spanish scholars had not been able to define? This thesis begins inscribing this Street's work in his cultural context. A brief review of his biography and professional and theoretical positions has been seen as necessary. Also his debts and relationship with the most representative people involved in the study of Gothic architecture, like Robert Willis, William Whewell, Augustus Pugin, or George G. Scott are discussed. Special attention has been paid, taken into account his relevant role in the Gothic Revival, to understand the significance of his interest in continental Gothic architecture. These preliminary chapters are followed by a review of role of drawing as a tool for Architectural travellers in their Tours in search of the Gothic architecture. The influence of the Royal Academy and its academicians, (among which was Street) and his educational background are here tackled. Eventually this thesis enters into the study of the architectural drawings Street made during his continental architectural journeys, which is followed by a detailed description and analysis of the Spanish ones: his methods, his technique, and the new features which were a novelty in the Spanish context are explored. Also in this thesis is carried out some comparative studies thanks to a previous exhaustive gathering of Street's sketches and original drawings, most of which are preserved in the RIBA archives. Their final versions, drawings of the same buildings from other contemporary draughtsman and pictures of their current state are compared with them. This thesis makes clear why and how Street thanks to his theoretical back-ground and portraying skills could realize what have passed unnoticed by contemporary Spanish scholars (construction, genealogy of forms, dating of periods) allowing him to find the proper place of the Spanish architecture in the history and the map of European Gothic architecture.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La restauración fílmica del audio es un proceso bastante complejo y se ha indagado poco en este campo. Antes de restaurar cualquier archivo, se debe preservar y conservar los archivos de la mejor manera posible. La preservación son las medidas que se deben tomar para garantizar el acceso permanente y la conservación asegura le existencia del archivo en su forma más original. Mientras que la restauración se basa en el estudio de los posibles deterioros que sufren los soportes fílmicos en el tiempo y los procesos que existen para corregirlos. La restauración siempre debe conservar la mayor originalidad posible, es decir debe mantener el audio como originalmente se expuso por primera vez. En la primera etapa, se identifican los posibles deterioros que se producen en los archivos, si conocemos en qué momento fue grabada la películas y cómo fue grabada, es decir con que máquina se realizó la grabación y el soporte fílmico en el que está grabado. Tanto las máquinas como los soportes han ido evolucionando a lo largo de la historia. El estudio de los soportes fílmicos nos permite conocer las degradaciones que sufren a lo largo del tiempo los archivos y por consecuencia, conocer las posibles restauraciones. Para intentar evitar degradaciones mayores, se intenta preservar y conservar en condiciones óptimas para el soporte. Según el soporte del archivo, tendrá unas condiciones típicas de temperatura, humedad, ventilación… en las cuales el material se conserva de la mejor manera. Tras estos pasos, se procede a restaurar. La restauración más típica es con materiales fotoquímicos, pero es bastante compleja y por tanto, en el proyecto se analiza la restauración tras digitalizar los archivos fílmicos. Para poder digitalizar correctamente los archivos, debemos tener presentes las normas y reglas de digitalización que están establecidas. La digitalización permite identificar las alteraciones típicas que aparecen en los materiales fílmicos, gracias a la herramienta del espectrograma podemos conocer las posibles soluciones de restauración para cada alteración. Las alteraciones que podemos encontrar e identificar son: · Zumbidos e Interferencias. · Siseo y Silbido. · Crujidos. · Pops y Clics. · Wow. · Lagunas o Abandonos. · Ruidos intermitentes. · Reverberación. La última parte del proyecto, una vez que se tienen todas las alteraciones típicas de los archivos fílmicos identificadas, se procede al estudio de cada una de ellas con las herramientas del espectrograma y se realiza el estudio de una manera más técnica. Con el espectrograma se determinan las herramientas que solucionan cada alteración como Reverb para la reverberación, Decrackle para los crujidos… y en el marco técnico se determina las características que tiene cada herramienta, es decir el tipo de filtro, ventana… que se puede utilizar para poder restaurar el audio de cada alteración. La restauración digital es un campo aún por investigar, pero se debería de empezar a concienciar que es una solución factible. Que este tipo de restauración puede mantener el sonido original y no va a modificar los archivos, como muchas veces se piensa. Ya que el paso del tiempo, poco a poco, ira degradando y destruyendo los soportes fílmicos en los que se encuentran, y el principal objetivo que se pretende conseguir es que los materiales fílmicos perduren a lo largo de la historia. ABSTRACT. The film audio restoration is a fairly complex process and little research has been done in this field. Before restoring any files, you must preserve and keep the files in the best way possible. The preservation is the measures to be taken to ensure continued access to and preservation ensures existence of the file in its original form. The restoration is based on the study of possible damage suffered by the film media in time and the processes that exist to correct them. The restoration must always retain the most original as possible, i.e. to keep the audio as originally discussed for the first time. In the first stage, potential impairments that occur in the files are identified, if you know what time it was recorded the movies and how it was recorded, i.e. that machine recording and film media on which is recorded took place. Both machines as media have evolved throughout history. The study of film media lets us know the suffering degradations over time and result files, make possible restorations. To try to prevent further degradation, are intended to preserve and keep in good condition for support. Depending on the media file, will have typical conditions of temperature, humidity, ventilation... in which the material is preserved in the best way. After these steps, we proceed to restore. The most typical is with photochemical restoration materials, but is rather complex and therefore the restoration project is analyzed after scanning film archives. To successfully scan the files must be aware of the rules and regulations are established digitization. Digitization allows identifying the typical alterations that appear in the film materials, thanks to the tool spectrogram we know the possible restoration solutions for each alteration. The alterations that can find and identify are: · Buzz and Interference. · Hiss and Hissing. · Crackle. · Pops and Clicks. · Wow and Flutter. · Audio Dropouts. The last part of the project, when we have all the typical alterations identified film archives, proceed to the study of each of them with the tools of spectrogram and the study of a more technical way is done . With the spectrogram tools that solve every alteration as Reverb for reverb, Decrackle for cracks... and the technical framework the features that each tool is determined, i.e. the type of filter, window... that can be used are determined for to restore the audio of each alteration. Digital restoration is an area for future research, but should start aware that it is a feasible solution. This type of restoration can keep the original sound and will not modify files, as is often thought. Since the passage of time, gradually degrading and destroying anger film media in which they are, and the main objective to be achieved is that the film materials endure throughout history.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta investigación se enmarca dentro del proyecto MODIFICA (modelo predictivo - Edificios - Isla de Calor Urbano), financiado por el Programa de I + D + i Orientada a los Retos de la sociedad 'Retos Investigación' de 2013. Está dirigido a desarrollar un modelo predictivo de eficiencia energética para viviendas, bajo el efecto de isla de calor urbano (AUS) con el fin de ponerla en práctica en la evaluación de la demanda de energía real y el consumo en las viviendas. A pesar de los grandes avances que se han logrado durante los últimos años en el rendimiento energético de edificios, los archivos de tiempo utilizados en la construcción de simulaciones de energía se derivan generalmente de estaciones meteorológicas situadas en las afueras de la ciudad. Por lo tanto, el efecto de la Isla de Calor Urbano (ICU) no se considera en estos cálculos, lo que implica una importante falta de precisión. Centrado en explorar cómo incluir los fenómenos ICU, el presente trabajo recopila y analiza la dinámica por hora de la temperatura en diferentes lugares dentro de la ciudad de Madrid. Abstract This research is framed within the project MODIFICA (Predictive model - Buildings - Urban Heat Island), funded by Programa de I+D+i orientada a los retos de la sociedad 'Retos Investigación' 2013. It is aimed at developing a predictive model for dwelling energy performance under the Urban Heat Island (UHI) effect in order to implement it in the evaluation of real energy demand and consumption in dwellings. Despite great advances on building energy performance have been achieved during the last years, weather files used in building energy simulations are usually derived from weather stations placed in the outskirts of the city. Hence, Urban Heat Island (UHI) effect is not considered in this calculations, which implies an important lack of accuracy. Focused on exploring how to include the UHI phenomena, the present paper compiles and analyses the hourly dynamics of temperature in different locations within the city of Madrid.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesis “CAN LIS, La huella de la arquitectura de Jørn Utzon a través de su obra Can Lis” analiza en profundidad la vivienda que Jørn Utzon realizó para sí mismo en la entonces calle de la Media Luna, Porto Petro, Mallorca, entre los años 1970-74. La investigación plantea el análisis de esta obra maestra de la arquitectura, sus causas e intenciones, su proceso proyectual, su proceso constructivo, sus relaciones e influencias y sus significados últimos. Este estudio es fruto de una labor de investigación que comenzó hace más de 10 años. Enfrentarse a una obra cuya imagen es tan conocida es una tarea menos sencilla de lo que pudiera parecer. La descripción del proceso de trabajo de Jørn Utzon en Can Lis, y de su método en general, contiene un considerable número de mitificaciones que han sido comúnmente sostenidas por diversos estudiosos de prestigio, que han abordado esta obra sin un estudio razonable de la documentación existente, ni una investigación de los archivos, ni una comprobación de los hechos o una consulta de los testigos intervinientes. Por ello, cuestiones fundamentales habían quedado en el terreno de la conjetura y permanecía deformada la visión general de los procesos de Jørn Utzon en Mallorca. La tesis se ha estructurado en dos grandes apartados que permitan la comprensión de los elementos fundamentales para su gestación: por un lado, el proceso proyectual y constructivo con sus circunstancias y condicionantes y, por otro, el conjunto de hechos y conceptos que han influido de manera directa y significativa en su concreción. Esta investigación contiene una cantidad considerable de materiales y hechos inéditos, fruto de su desarrollo, así como documentación y dibujos nunca publicados anteriormente. Es por tanto, el estudio más completo realizado sobre Can Lis hasta la fecha. En la primera parte de la tesis “CAN LIS” se aborda todo el proceso proyectual de Can Lis desde los primeros croquis, con las condiciones y motivaciones iniciales, los proyectos sucesivos, el proyecto básico y el proyecto de ejecución, hasta el proceso de construcción, su desarrollo y circunstancias, así como las modificaciones posteriores introducidas. Estos elementos se estructuran en tres apartados 1) Las condiciones y condicionantes iniciales. 2) El proceso proyectual. 3) El proceso constructivo. En la segunda parte de la tesis “La huella de la arquitectura de Jørn Utzon a través de su obra Can Lis” se han analizado de manera particular algunos hechos arquitectónicos y vitales previos que fueron especialmente determinantes en la concepción de Can Lis y la serie de influencias directas que son imprescindibles para la comprensión de las condiciones en que se desarrolló y de las ideas que alumbra. Estudios previos de toda la trayectoria de Utzon y todo el corpus de influencias ayudaron a determinar cuáles de ellos son fundamentales para la comprensión del proceso. Estos elementos se pueden considerar directamente precursores de ideas desarrolladas específicamente en Can Lis: 4) La experimentación en Australia: la naturaleza, la dimensión humana y la técnica. La casa de Bayview. 5) Utzon y el descubrimiento de lo islámico: la secuencia espacial, la materia y la luz de la arquitectura islámica como experiencia de aprendizaje. 6) Paisaje sacro, hombre y arquitectura: la búsqueda de Utzon en Grecia. Las conclusiones de este estudio determinan una serie de certezas sobre los procesos de Jørn Utzon en Can Lis, y en su obra global, durante las diversas fases creativas que desmitifican muchos acercamientos precedentes: la visión universal de la arquitectura en su acercamiento al proyecto, el entretejido método proyectual de Utzon, la precisa búsqueda del desarrollo constructivo junto a la ejemplaridad en el rigor, la vitalidad y la espiritualidad con que Utzon aborda la arquitectura, la trascendencia de la forma de habitar de las personas y el valor que para Utzon tiene la arquitectura como medio para revelar el orden universal que nos rodea. ABSTRACT “CAN LIS. The footprint of Jørn Utzon´s architecture through his work Can Lis” carries out a thorough analysis of the house Jørn built for himself between 1970 and 1974 on the street formerly called Calle de la Media Luna, in Porto Petro on the island of Mallorca. The research focuses on the causes that brought about this masterpiece, its purposes, design and building processes, its relations with and influences on other buildings and its ultimate meanings. This study is the result of a research that started over 10 years ago. Approaching a piece of work whose image is so well-known is harder than one might think. Many aspects of Jørn Utzon´s working method in Can Lis particularly but also generally have been described inaccurately and mythicized by several renowned scholars, who hadn´t really studied the existing documents or archives nor confirmed their hypotheses or consulted witnesses of the creation of Can Lis. This is why many key issues have been uncertain all this time and the general idea about Utzon´s working process in Mallorca has been distorted. This dissertation has been structured into two main sections with the aim of helping understand all the facts that led to the creation of the building: the first part describes the design and building processes, as well as the circumstances and constraints under which they were carried out. The second part presents the events and ideas that directly and indirectly influenced the final work. This thesis contains a large amount of unpublished material and information, documents and drawings from the creation process as the inevitable result of a long lasting tenacious research. It probably is the most comprehensive study on Can Lis so far. The first section, “CAN LIS”, addresses the design process of Can Lis from the very first sketches all the way through the subsequent plans, including basic and execution plans and the building process up to the changes that were later carried out on the building. The project´s initial conditions and Utzon´s first motivations and the evolution and circumstances of the building process are also described in this section, which has been divided into three parts: 1. The initial conditions and constraints. 2. The design process. 3. The building process. The second section, “The footprint of Jørn Utzon´s architecture through his work Can Lis”, focuses on some events in Utzon´s life and some of his architectural experiences prior to the creation of Can Lis that were decisive to it. Also the direct influences on the process which are key to understanding the conditions under which the creation was carried out as well as the ideas Can Lis sheds a light on are illustrated in this section. A thorough study of the whole process Utzon went through and of all the influences he was subjected to helped determine what is crucial to comprehending Can Lis. These events or experiences can be considered as the direct precursors to the ideas that crystallised in this master piece: 4. Experiments carried out in Australia: nature, human and technical dimensions. The Bayview house. 5. Utzon´s discovery of Islamic architecture: spatial sequences, matter and light as a learning experience. 6. Sacred landscape, man and architecture: Utzon´s quest in Greece. The findings of this research determine some aspects of Utzon´s working methods at every stage of the creation process both in Can Lis and in general, thus shedding light on previous mistaken ideas about Utzon´s way of working. A universal understanding of architecture, an intertwined design method, a tenacious search for the exact construction solutions, an exemplary rigour, vitality and spirituality in the design approach, the transcendence of our way of living and architecture´s potential to reveal the Universal order that surrounds are all aspects that do define Utzon as an architect.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente proyecto, se han abordado las distintas soluciones constructivas para tratar las principales exigencias en edificación: aislamiento acústico, acondicionamiento acústico y ruido y vibraciones de las instalaciones. Estas soluciones constructivas, se enmarcan dentro de un conjunto de leyes vigentes en España, provenientes de la trasposición de la legislación Europea. Basándose en el Documento Básico HR Protección frente al ruido, donde se encuentran las soluciones constructivas, comentadas anteriormente, se ha llevado a cabo un estudio exhaustivo de las mismas, con la finalidad de crear una herramienta de consulta de fácil y rápido acceso para cualquier persona. En especial, se enfoca a una finalidad didáctica accesible al personal universitario. Se pretende que cualquier persona, con base mínima en la materia, pueda acceder y entender la herramienta creada. Para lograr a esta finalidad, se ha analizado otra documentación, como la Guía de aplicación del DB HR, donde se explica de forma más detallada el Documento Básico HR Protección frente al ruido. Además, se han consultado diferentes normativas españolas, para conseguir que la información aportada al usuario sea completa y no sea necesario acudir a diferentes documentos externos. De esta manera, un usuario podrá realizar un proyecto para: aislar, acondicionar o controlar el ruido y vibraciones de las instalaciones, en una edificación, acudiendo a esta herramienta. Con el objeto de que sea un proyecto enmarcado en un contexto didáctico, con fácil acceso y tratando que sea lo más intuitivo posible, se buscó una plataforma de acceso gratuito y disponible para distintos equipos y sistemas operativos. El programa empleado ha sido tomado del paquete Office creado por Microsoft. El programa se denomina OneNote. Se trata de un programa para realizar, compartir y gestionar notas de forma rápida y sencilla. Los archivos creados en él, se almacenan en OneDrive, por lo tanto, el usuario puede acceder a ellos desde cualquier parte, en cualquier momento y plataforma disponible. ABSTRACT. The aforementioned project approaches the diverse solutions available to accomplish the chief edification requirements in the Spanish Legal System, remarkably influenced by the European Law, in Construction Planning. The key elements of those solutions are acoustic isolation, acoustic conditioning and noise and vibration of installations. Basing most part of our research in the academic report “Documento Básico HR Protección frente al ruido”, which addresses effective solutions about the mentioned queries, but also implements a useful tool that supplies access to the broad public to obtain a wide variety of answers regarding those issues. Its main aim is to improve the knowledge about that subject, however also the access and usage to that system, of every person, although its previous experience. In order to achieve that purpose, the paper also combines an analysis of the study “Guía de aplicación del DB HR” where different elements of the report “Documento Básico HR Protección frente al ruido” are examined in further detail. It is important to remark that all the information provided comply with the current legislation present in Spain at the time this paper was written, so the reader may work on a project of isolation, conditioning or control of noise and vibrations of installations without the requirement of applying external resources. Conclusively, with the intention of giving the paper an educational usage, with intuitive and easy access, the reader is able to join to the platform OneNote by Microsoft Office, software available in utmost part of operating systems and devices. This program allows us to produce, share and manage notes swiftly and efficiently, but also it stores them in The Cloud called OneDrive, so the user can get access to them anywhere and anytime.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde los inicios de la codificación dedeo digital hasta hoy, tanto la señal de video sin comprimir de entrada al codificador como la señal de salida descomprimida del decodificador, independientemente de su resolución, uso de submuestreo en los planos de diferencia de color, etc. han tenido siempre la característica común de utilizar 8 bits para representar cada una de las muestras. De la misma manera, los estándares de codificación dedeo imponen trabajar internamente con estos 8 bits de precisión interna al realizar operaciones con las muestras cuando aún no se han transformado al dominio de la frecuencia. Sin embargo, el estándar H.264, en gran auge hoy en día, permite en algunos de sus perfiles orientados al mundo profesional codificar vídeo con más de 8 bits por muestra. Cuando se utilizan estos perfiles, las operaciones efectuadas sobre las muestras todavía sin transformar se realizan con la misma precisión que el número de bits del vídeo de entrada al codificador. Este aumento de precisión interna tiene el potencial de permitir unas predicciones más precisas, reduciendo el residuo a codificar y aumentando la eficiencia de codificación para una tasa binaria dada. El objetivo de este Proyecto Fin de Carrera es estudiar, utilizando las medidas de calidad visual objetiva PSNR (Peak Signal to Noise Ratio, relación señal ruido de pico) y SSIM (Structural Similarity, similaridad estructural), el efecto sobre la eficiencia de codificación y el rendimiento al trabajar con una cadena de codificación/descodificación H.264 de 10 bits en comparación con una cadena tradicional de 8 bits. Para ello se utiliza el codificador de código abierto x264, capaz de codificar video de 8 y 10 bits por muestra utilizando los perfiles High, High 10, High 4:2:2 y High 4:4:4 Predictive del estándar H.264. Debido a la ausencia de herramientas adecuadas para calcular las medidas PSNR y SSIM dedeo con más de 8 bits por muestra y un tipo de submuestreo de planos de diferencia de color distinto al 4:2:0, como parte de este proyecto se desarrolla también una aplicación de análisis en lenguaje de programación C capaz de calcular dichas medidas a partir de dos archivos dedeo sin comprimir en formato YUV o Y4M. ABSTRACT Since the beginning of digital video compression, the uncompressed video source used as input stream to the encoder and the uncompressed decoded output stream have both used 8 bits for representing each sample, independent of resolution, chroma subsampling scheme used, etc. In the same way, video coding standards force encoders to work internally with 8 bits of internal precision when working with samples before being transformed to the frequency domain. However, the H.264 standard allows coding video with more than 8 bits per sample in some of its professionally oriented profiles. When using these profiles, all work on samples still in the spatial domain is done with the same precision the input video has. This increase in internal precision has the potential of allowing more precise predictions, reducing the residual to be encoded, and thus increasing coding efficiency for a given bitrate. The goal of this Project is to study, using PSNR (Peak Signal to Noise Ratio) and SSIM (Structural Similarity) objective video quality metrics, the effects on coding efficiency and performance caused by using an H.264 10 bit coding/decoding chain compared to a traditional 8 bit chain. In order to achieve this goal the open source x264 encoder is used, which allows encoding video with 8 and 10 bits per sample using the H.264 High, High 10, High 4:2:2 and High 4:4:4 Predictive profiles. Given that no proper tools exist for computing PSNR and SSIM values of video with more than 8 bits per sample and chroma subsampling schemes other than 4:2:0, an analysis application written in the C programming language is developed as part of this Project. This application is able to compute both metrics from two uncompressed video files in the YUV or Y4M format.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo: Analizar la relación entre el nivel de actividad física registrada y el percibido en población con discapacidad física mediante acelerometría y cuestionario, así como estudiar las diferencias evaluadas con ambos instrumentos según nivel de actividad física personal y otras variables como el género o uso de la silla de ruedas. Metodología: La muestra la componen 37 sujetos con discapacidad física (28 hombres y 9 mujeres), con una edad media de 38 ±10,9 años. Se dividió a la muestra en tres grupos en función del número de horas de actividad física semanal: sedentarios (S, n = 8), practicantes habituales (PH, n = 13) y practicantes de alto rendimiento (AR, n = 16). Los sujetos llevaron un monitor metabólico de actividad física SenseWear Pro Armband (SWA) durante siete días, las 24 horas. Una vez retirado, se administró el cuestionario Physical Activity Scale for Individuals with Physical Disabilities (Escala de Actividad Física para Personas con Discapacidades Físicas) para medir la actividad física percibida, recogiéndose también datos antropo-métricos y personales. Resultados: La correlación de Pearson (n = 37) mostró relación entre el PASIPD y las variables METS promedio (r=0,52; p<0,01), gasto energético en activo (r=0,35; p<0,05) y duración de la actividad física (r=0,53; p<0,01). El PASIPD (en MET hr/día) arrojó los siguientes valores según grupo: S 8,55 ±4,35; PH 12,99 ±5,88; AR 27,41 ±19,66. Según grupos, el SWA registró, entre otras variables, los METs promedio (S 1,35 ±0,26; PH 1,46 ±0,19; AR 1,70 ±0,18) y la duración de la actividad física (S 10:33:07 ±07:47:42; PH 12:59:32 ±07:21:38; AR 22:22:26 ±07:58:58). El ANOVA mostró diferencias (p<0,05) entre grupos para el PASIPD y las citadas variables del SWA. Conclusiones: Este estudio confirma la idoneidad de utilizar de forma combinada un cuestionario y un monitor metabólico de actividad física en población con discapacidad física para la evaluación del nivel de actividad física en esta población

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis aborda el estudio de los poblados dirigidos de renta limitada en Madrid, enmarcados en el plan Nacional de vivienda de 1955. Para contextualizar la actuación se estudian las diferentes estrategias de la Administración para erradicar el chabolismo en el extrarradio de Madrid, crear vivienda digna y generar empleo. Uno de estas estrategias que carccteriza los poblados dirigidos, es la "prestación personal" o autoconstruccón que permite a los inmigrantes procedentes del campo sin cualificación acceder a una viviendo digna aportando su propio trabajo los domingos y días de flesta. El interés de esta tesis radica en la investigación, propuesta y experimentación que los poblados dirigidos suponen en el campo de la vivienda social en nuestro pais, que rompen con lo arquitectura estatal ejecutada para viviendo modesta hasta la fecha. Esta actuación es relevante y significativa en la arquitectura de la segunda mitad del siglo XX y sus arquitectos, por entonces jóvenes entusiastas de la arquitectura foránea, son maestros reconocidos de la arquitectura española contemporánea. El objetivo fundamental de la tesis es descubrir, a través del dibujo y el análisis crítico comparativo de las distintas tipologías de vivienda las estrategias empleadas por los arquitectos para conciliar la arquitectura de vanguardia con los necesidades específicas de los adjudicatarios, el sistema de prestación personal y la escasez de medios del momento. Se analiza cómo estas viviendas de los poblados sirvieron de via para introducir el tenguaje del Movlmiento Moderno en la arquitectura social de la época, descubriendo por medio del análisis tipológico si se trata de una adaptación del lenguaje a unas necesidades, concretos o una implantación importada. Resulta Fundamental el estudio de la legislación, la bibiiograffa y revistas, las entrevistas personales a arquitectos protagoniatas y un laborioso trabajo de campo que permite llevar a cabo una radiografía de la realidad construida de los poblados en el estado actual. Se emplea el dibujo como herramienta de lnvestigación a partir de los proyectos originales obrantes en los numerosos archivos consultados y se aportan díbujos de todas las tipologías de las viviendos de los poblados dirigidos de renta limitada, incluso las no construidas, sacando a la luz tipologías no publicadas hasta la fecha. Esta documentación gráfica e1oborada, representa por si misma una conclusión y aportación relevante de este trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente informe se ha redactado a modo de marco general para la revisión de la Agenda 21 Málaga y forma parte del bloque Territorio y configuración de la ciudad, una de los cuatro ejes de trabajo en torno a los cuales está organizada la agenda, siendo los otros ejes Gestión de recursos, Cohesión social y desarrollo económico y Gobierno de la ciudad. La totalidad de los informes redactados de cara a los trabajos de revisiòn pueden descargarse en la web de la Agenda 21 de Málaga. La presentación pública del informe se llevó a cabo dentro de la jornada de apertura del Foro 21 el día 21 de abril de 2014 en la sede del OMAU de Málag

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Asistimos a una crisis global que cuestiona la eficacia de los modelos de cooperación al desarrollo que, en general, están marcados por una separación entre los gestores de la cooperación y los beneficiarios de ayudas. Se da una cierta «profesionalización» de donante y de receptor que contribuye a enquistar los problemas estructurales que constituyen la raíz de los mismos. Valorando los éxitos alcanzados a escala mundial en las décadas pasadas, que han logrado sacar de la pobreza extrema a grandes masas de la población mundial, se hace necesario un nuevo enfoque para la gestión del desarrollo, que ponga el acento en las personas y que favorezca la colaboración estrecha entre donantes y beneficiarios, rompiendo con la dualidad de funciones de los modelos clásicos de cooperación al desarrollo. En este artículo se pone de manifiesto que el modelo cooperativo cumple perfectamente con los principios de lo que podemos llamar nuevos planteamientos de cooperación al desarrollo, que ponen el énfasis en el enfoque territorial de las iniciativas. El modelo cooperativo requiere, por principio, de la participación de todas las personas involucradas en la iniciativa empresarial y añade además unos valores de respeto y cuidado que son necesarios y parte esencial de los modelos de desarrollo basados en el territorio y que se muestran a través de algunos ejemplos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A menudo los científicos secuencian el ADN de un gran número de personas con el objetivo de determinar qué genes se asocian con determinadas enfermedades. Esto permite meóon del genoma humano. El precio de un perfil genómico completo se ha posicionado por debajo de los 200 dólares y este servicio lo ofrecen muchas compañías, la mayor parte localizadas en EEUU. Como consecuencia, en unos pocos a~nos la mayoría de las personas procedentes de los países desarrollados tendrán los medios para tener su ADN secuenciado. Alrededor del 0.5% del ADN de cada persona (que corresponde a varios millones de nucleótidos) es diferente del genoma de referencia debido a variaciones genéticas. Así que el genoma contiene información altamente sensible y personal y representa la identidad biológica óon sobre el entorno o estilo de vida de uno (a menudo facilmente obtenible de las redes sociales), sería posible inferir el fenotipo del individuo. Multiples GWAS (Genome Wide Association Studies) realizados en los últimos a~nos muestran que la susceptibilidad de un paciente a tener una enfermedad en particular, como el Alzheimer, cáncer o esquizofrenia, puede ser predicha parcialmente a partir de conjuntos de sus SNP (Single Nucleotide Polimorphism). Estos resultados pueden ser usados para medicina genómica personalizada (facilitando los tratamientos preventivos y diagnósticos), tests de paternidad genéticos y tests de compatibilidad genética para averiguar a qué enfermedades pueden ser susceptibles los descendientes. Estos son algunos de los beneficios que podemos obtener usando la información genética, pero si esta información no es protegida puede ser usada para investigaciones criminales y por compañías aseguradoras. Este hecho podría llevar a discriminaci ón genética. Por lo que podemos concluir que la privacidad genómica es fundamental por el hecho de que contiene información sobre nuestra herencia étnica, nuestra predisposición a múltiples condiciones físicas y mentales, al igual que otras características fenotópicas, ancestros, hermanos y progenitores, pues los genomas de cualquier par de individuos relacionados son idénticos al 99.9%, contrastando con el 99.5% de dos personas aleatorias. La legislación actual no proporciona suficiente información técnica sobre como almacenar y procesar de forma segura los genomas digitalizados, por lo tanto, es necesaria una legislación mas restrictiva ---ABSTRACT---Scientists typically sequence DNA from large numbers of people in order to determine genes associated with particular diseases. This allows to improve the modern healthcare and to provide a better understanding of the human genome. The price of a complete genome profile has plummeted below $200 and this service is ofered by a number of companies, most of them located in the USA. Therefore, in a few years, most individuals in developed countries will have the means of having their genomes sequenced. Around 0.5% of each person's DNA (which corresponds to several millions of nucleotides) is diferent from the reference genome, owing to genetic variations. Thus, the genome contains highly personal and sensitive information, and it represents our ultimate biological identity. By combining genomic data with information about one's environment or lifestyle (often easily obtainable from social networks), could make it possible to infer the individual's phenotype. Multiple Genome Wide Association Studies (GWAS) performed in recent years have shown that a patient's susceptibility to particular diseases, such as Alzheimer's, cancer, or schizophrenia, can be partially predicted from sets of his SNPs. This results can be used for personalized genomic medicine (facilitating preventive treatment and diagnosis), genetic paternity tests, ancestry and genealogical testing, and genetic compatibility tests in order to have knowledge about which deseases would the descendant be susceptible to. These are some of the betefts we can obtain using genoma information, but if this information is not protected it can be used for criminal investigations and insurance purposes. Such issues could lead to genetic discrimination. So we can conclude that genomic privacy is fundamental due to the fact that genome contains information about our ethnic heritage, predisposition to numerous physical and mental health conditions, as well as other phenotypic traits, and ancestors, siblings, and progeny, since genomes of any two closely related individuals are 99.9% identical, in contrast with 99.5%, for two random people. The current legislation does not ofer suficient technical information about safe and secure ways of storing and processing digitized genomes, therefore, there is need for more restrictive legislation.