1000 resultados para Herramienta de prediagnóstico
Resumo:
Durante los últimos años, el imparable crecimiento de fuentes de datos biomédicas, propiciado por el desarrollo de técnicas de generación de datos masivos (principalmente en el campo de la genómica) y la expansión de tecnologías para la comunicación y compartición de información ha propiciado que la investigación biomédica haya pasado a basarse de forma casi exclusiva en el análisis distribuido de información y en la búsqueda de relaciones entre diferentes fuentes de datos. Esto resulta una tarea compleja debido a la heterogeneidad entre las fuentes de datos empleadas (ya sea por el uso de diferentes formatos, tecnologías, o modelizaciones de dominios). Existen trabajos que tienen como objetivo la homogeneización de estas con el fin de conseguir que la información se muestre de forma integrada, como si fuera una única base de datos. Sin embargo no existe ningún trabajo que automatice de forma completa este proceso de integración semántica. Existen dos enfoques principales para dar solución al problema de integración de fuentes heterogéneas de datos: Centralizado y Distribuido. Ambos enfoques requieren de una traducción de datos de un modelo a otro. Para realizar esta tarea se emplean formalizaciones de las relaciones semánticas entre los modelos subyacentes y el modelo central. Estas formalizaciones se denominan comúnmente anotaciones. Las anotaciones de bases de datos, en el contexto de la integración semántica de la información, consisten en definir relaciones entre términos de igual significado, para posibilitar la traducción automática de la información. Dependiendo del problema en el que se esté trabajando, estas relaciones serán entre conceptos individuales o entre conjuntos enteros de conceptos (vistas). El trabajo aquí expuesto se centra en estas últimas. El proyecto europeo p-medicine (FP7-ICT-2009-270089) se basa en el enfoque centralizado y hace uso de anotaciones basadas en vistas y cuyas bases de datos están modeladas en RDF. Los datos extraídos de las diferentes fuentes son traducidos e integrados en un Data Warehouse. Dentro de la plataforma de p-medicine, el Grupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid, en el cuál realicé mi trabajo, proporciona una herramienta para la generación de las necesarias anotaciones de las bases de datos RDF. Esta herramienta, denominada Ontology Annotator ofrece la posibilidad de generar de manera manual anotaciones basadas en vistas. Sin embargo, aunque esta herramienta muestra las fuentes de datos a anotar de manera gráfica, la gran mayoría de usuarios encuentran difícil el manejo de la herramienta , y pierden demasiado tiempo en el proceso de anotación. Es por ello que surge la necesidad de desarrollar una herramienta más avanzada, que sea capaz de asistir al usuario en el proceso de anotar bases de datos en p-medicine. El objetivo es automatizar los procesos más complejos de la anotación y presentar de forma natural y entendible la información relativa a las anotaciones de bases de datos RDF. Esta herramienta ha sido denominada Ontology Annotator Assistant, y el trabajo aquí expuesto describe el proceso de diseño y desarrollo, así como algunos algoritmos innovadores que han sido creados por el autor del trabajo para su correcto funcionamiento. Esta herramienta ofrece funcionalidades no existentes previamente en ninguna otra herramienta del área de la anotación automática e integración semántica de bases de datos. ---ABSTRACT---Over the last years, the unstoppable growth of biomedical data sources, mainly thanks to the development of massive data generation techniques (specially in the genomics field) and the rise of the communication and information sharing technologies, lead to the fact that biomedical research has come to rely almost exclusively on the analysis of distributed information and in finding relationships between different data sources. This is a complex task due to the heterogeneity of the sources used (either by the use of different formats, technologies or domain modeling). There are some research proyects that aim homogenization of these sources in order to retrieve information in an integrated way, as if it were a single database. However there is still now work to automate completely this process of semantic integration. There are two main approaches with the purpouse of integrating heterogeneous data sources: Centralized and Distributed. Both approches involve making translation from one model to another. To perform this task there is a need of using formalization of the semantic relationships between the underlying models and the main model. These formalizations are also calles annotations. In the context of semantic integration of the information, data base annotations consist on defining relations between concepts or words with the same meaning, so the automatic translation can be performed. Depending on the task, the ralationships can be between individuals or between whole sets of concepts (views). This paper focuses on the latter. The European project p-medicine (FP7-ICT-2009-270089) is based on the centralized approach. It uses view based annotations and RDF modeled databases. The data retireved from different data sources is translated and joined into a Data Warehouse. Within the p-medicine platform, the Biomedical Informatics Group (GIB) of the Polytechnic University of Madrid, in which I worked, provides a software to create annotations for the RDF sources. This tool, called Ontology Annotator, is used to create annotations manually. However, although Ontology Annotator displays the data sources graphically, most of the users find it difficult to use this software, thus they spend too much time to complete the task. For this reason there is a need to develop a more advanced tool, which would be able to help the user in the task of annotating p-medicine databases. The aim is automating the most complex processes of the annotation and display the information clearly and easy understanding. This software is called Ontology Annotater Assistant and this book describes the process of design and development of it. as well as some innovative algorithms that were designed by the author of the work. This tool provides features that no other software in the field of automatic annotation can provide.
Resumo:
A software tool for planning and dimensioning Wireless Networks based on standard 802.16 is presented in this paper. Due to the deployment of communication systems based on this standard, it is necessary a tool which allows an easy implementation and dimensioning of this type of networks. With this tool the user will be able to evaluate point to point and point to multipoint networks, obtaining results such as losses in the link, power received, signal noise rate, coverage or bit rates the network is able to handle. For that purpose, the tool will employ technical specifications of transmitters and receivers, design parameters of the network and different propagation models.
Resumo:
El Trabajo Fin de Grado ha consistido en el diseño e implementación de una herramienta para la gestión y administración de los entrenamientos de atletas de deportes individuales. Hasta ahora los deportistas debían gestionar sus entrenamientos a través de hojas de cálculo, teniendo que dedicar tiempo al aprendizaje de herramientas como Microsoft Excel u OpenOffice Excel para personalizar las plantillas y guardar los datos, utilizar otras herramientas como Google Calendar para obtener una visión de un calendario con los entrenamientos realizados o bien utilizar programas hechos a medida para un deporte e incluso para un deportista. El objetivo principal consistía en desarrollar una herramienta que unificara todas las tareas para ofrecer al deportista las funciones de configuración de plantillas, registro y generación de gráficas de los datos registrados y visionado del calendario de entrenamientos de una forma ágil, sencilla e intuitiva, adaptándose a las necesidades de cualquier deporte o deportista. Para alcanzar el objetivo principal realizamos encuestas a atletas de una gran diversidad de deportes individuales, detectando las particularidades de cada deporte y analizando los datos que nos ofrecían para alcanzar el objetivo de diseñar una herramienta versátil que permitiera su uso independientemente de los parámetros que se quisiera registrar de cada entrenamiento. La herramienta generada es una herramienta programada en Java, que ofrece portabilidad a cualquier sistema operativo que lo soporte, sin ser necesario realizar una instalación previa. Es una aplicación plug and play en la que solo se necesita del fichero ejecutable para su funcionamiento; de esta forma facilitamos que el deportista guarde toda la información en muy poco espacio, 6 megabytes aproximadamente, y pueda llevarla a cualquier lado en un pen drive o en sistemas de almacenamiento en la nube. Además, los ficheros en los que se registran los datos son ficheros CSV (valores separados por comas) con un formato estandarizado que permite la exportación a otras herramientas. Como conclusión el atleta ahorra tiempo y esfuerzo en tareas ajenas a la práctica del deporte y disfruta de una herramienta que le permite analizar de diferentes maneras cada uno de los parámetros registrados para ver su evolución y ayudarle a mejorar aquellos aspectos que sean deficientes. ---ABSTRACT---The Final Project consists in the design and implementation of a tool for the management and administration of training logs for individual athletes. Until now athletes had to manage their workouts through spreadsheets, having to spend time in learning tools such as Microsoft Excel or OpenOffice in order to save the data, others tools like Google Calendar to check their training plan or buy specifics programs designed for a specific sport or even for an athlete. The main purpose of this project is to develop an intuitive and straightforward tool that unifies all tasks offering setup functions, data recording, graph generation and training schedule to the athletes. Whit this in mind, we have interviewed athletes from a wide range of individual sports, identifying their specifications and analyzing the data provided to design a flexible tool that registers multitude of training parameters. This tool has been coded in Java, providing portability to any operating system that supports it, without installation being required. It is a plug and play application, that only requires the executable file to start working. Accordingly, athletes can keep all the information in a relative reduced space (aprox 6 megabytes) and save it in a pen drive or in the cloud. In addition, the files whit the stored data are CSV (comma separated value) files whit a standardized format that allows exporting to other tools. Consequently athletes will save time and effort on tasks unrelated to the practice of sports. The new tool will enable them to analyze in detail all the existing data and improve in those areas with development opportunities.
Resumo:
Esta tesis estudia el papel de la metáfora como instrumento arquitectónico en el debate y las propuestas para superar la ortodoxia de la arquitectura moderna a partir de mediados del siglo XX. En arquitectura, la utilización del procedimiento que constituye la metáfora se apoya en una consideración semántica de la arquitectura y se ha usado constantemente a lo largo de la historia para desarrollar nuevas propuestas, basándose en la comparación con modelos conocidos. En este trabajo se examina la notable presencia que adquirió este instrumento en las propuestas críticas a la arquitectura moderna ortodoxa, debido a la importancia que tuvieron los aspectos semánticos en el debate sobre la continuidad y vigencia de los postulados de la arquitectura moderna. Con este estudio se ha indagado sobre las razones y la frecuencia con las que aquellos arquitectos que adoptaron una actitud crítica hacia la arquitectura moderna se refirieron a las relaciones metafóricas en sus propuestas alternativas. Para mostrar cómo las metáforas formaron parte de los mecanismos de cambio de la arquitectura en este periodo, recuperando un mayor potencial creativo para abordar los proyectos arquitectónicos, se han estudiado una serie de ejemplos pertinentes y relevantes. En cada uno de los capítulos se han analizado las objeciones más importantes que fueron planteadas frente a la arquitectura moderna por un arquitecto o grupo de arquitectos, seleccionados entre aquéllos que tomaron parte en este debate, y se estudia la inclusión de la metáfora en las alternativas que propusieron en cada caso. Además de una actitud crítica con la arquitectura moderna, todos los arquitectos seleccionados comparten una consideración semántica de la arquitectura y han expuesto sus ideas y posturas tanto en obras proyectadas y construidas, como en escritos o comentarios sobre su manera de entender y proyectar arquitectura. Esta doble producción ha permitido analizar, comparativamente, el papel de la metáfora en sus enfoques y propuestas críticas y en la realización de sus obras como alternativas a las mismas. Al mismo tiempo, la investigación profundiza en el conocimiento de la utilización de la metáfora como herramienta arquitectónica. A través del recorrido por las distintas maneras de entender este instrumento que pueden observarse en algunos de los arquitectos de la segunda mitad del siglo XX, se exponen tanto las posibilidades como los aspectos más críticos de la utilización de la metáfora en arquitectura. La variada utilización de la noción de metáfora en arquitectura se ve reflejada en las diversas consideraciones que hacen de la misma los arquitectos estudiados. La tesis se ha ocupado de distinguir cada uno de estos enfoques, haciéndose eco de la pluralidad con la que puede abordarse el concepto de metáfora de manera general y en arquitectura en particular. Así, algunos arquitectos del Team 10, la utilizan como un instrumento de ampliación y renovación semántica de la arquitectura moderna, que propone una síntesis de lo viejo y lo nuevo. Para Robert Venturi, se trata de un recurso con capacidad de persuadir y recrear, renovando semánticamente la arquitectura. Charles Jencks considera que es un procedimiento semántico esencial de la arquitectura, olvidado por los arquitectos modernos, cuya recuperación supone un rasgo diferencial de la arquitectura posmoderna respecto a la moderna. Para Aldo Rossi, es una manera de materializar las relaciones analógicas que constituyen su propuesta para proyectar una arquitectura de racionalismo exaltado frente a un racionalismo convencional. Peter Eisenman la valora porque inventa otras arquitecturas diferentes a las preconcebidas anteriormente, a pesar de que rechaza su capacidad representativa y expresiva. Rafael Moneo la utiliza para contraponerse al determinismo, como instrumento de innovación de la forma arquitectónica que construye una dinámica entre la contingencia y la necesidad. Finalmente, para Frank Gehry supone un procedimiento creativo y subjetivo con el que enfrentarse tanto a la arquitectura moderna como a la posmoderna con una arquitectura nueva y abierta a referencias inusuales. De esta manera, a través de los distintos capítulos, el estudio pretende componer un mosaico de posturas que manifieste los vínculos y las diferencias existentes entre estos arquitectos con relación a los temas estudiados: crítica y alternativas a la arquitectura moderna, semántica de la arquitectura, metáfora y otros conceptos relacionados. A su vez, la aparición continuada de la metáfora en los diferentes capítulos, y de los temas con los que está relacionada, manifiesta el protagonismo de esta herramienta arquitectónica en las propuestas de evolución y cambio de la arquitectura del periodo estudiado. ABSTRACT This thesis studies the role of the metaphor as an architectural tool in the debate and proposals to overcome the orthodoxy of modern architecture that took place since the middle part of the Twentieth Century. In architecture, the usage of the process which the metaphor constitutes is based in a semantic consideration of architecture and historically it has been used many times to develop new proposals, always based in the comparison with known models. This work examines the significant presence that this tool acquired in the proposals critical with orthodox modern architecture, due to the importance that the semantic aspects had in the debate on the continuity and validity of modern architecture’s postulates. This study also looks into the motives and frequency that those architects which adopted a critical attitude towards modern architecture alluded to the metaphorical relations in their alternative proposals. To demonstrate how during that period metaphors were imbued in the mechanisms of change of architecture, recovering a higher creative potential to approach architectural projects, a series of pertinent and relevant examples are studied. Each chapter examines the most important objections on modern architecture made by an architect or group of architects, selected among those who participated in this debate, and studies the inclusion of metaphor in the alternatives proposed in each case. Besides a critical attitude towards modern architecture, all the selected architects share a semantic consideration of architecture and have exposed their ideas and postures through projected and finalized works as in writings or commentaries on their way of understanding and projecting architecture. This double production allowed to analyse, in a comparatively manner, the role of metaphor in their approaches and critical proposals as in the execution of their works. At the same time, the research conducted further analyses the body of knowledge on the usage of metaphor as an architectural tool. By looking over the different ways some of the architects of the second half of the Twentieth Century understood this tool, both the possibilities and the most critical aspects of the usage of the metaphor in architecture can be exposed. The various usages of the notion of metaphor in architecture are reflected in the multiple considerations done about it by the selected architects. This thesis differentiates each one of those approaches, echoing the plurality with which the concept of metaphor can be addressed both in broader terms and more particularly in architecture. In this sense, some architects of Team 10 used it as a mean of semantic extension and renewal of modern architecture, proposing a synthesis between the old and the new. For Robert Venturi it is a resource with the capacity to persuade and recreate, semantically renewing architecture. Charles Jencks considers it an essential semantic procedure of architecture, forgotten by the modern architects, and which recovery represents a differential trait of post-modern architecture in relation to modern architecture. For Aldo Rossi, is a way of materializing the analogical relations which represent his proposal to project architecture of exalted rationalism as opposed to a more conventional rationalism. Peter Eisenman values it because it invents other architectures different from the preconceived before, even if he refuses its representational and expressive capacity. Rafael Moneo uses it to counter determinism, as an innovation tool of the architectonical form which generates dynamics between contingency and necessity. Finally, for Frank Gehry it supposes a creative and subjective process to face both modern architecture and post-modern architecture with a new architecture open to unusual references. As such, through its different chapters, this study aims to compose a mosaic of postures which expresses the links and the differences between those architects in relation to the topics examined: criticism and alternatives to modern architecture, semantics of architecture, metaphor and other related concepts. At the same time, the continuous presence of the metaphor in the different chapters, and of the issues it relates to, shows the importance of this tool in the proposals of evolution and change of architecture in the period considered.
Resumo:
En la actualidad se está viviendo el auge del Cloud Computing (Computación en la Nube) y cada vez son más las empresas importantes en el sector de las Tecnologías de la Información que apuestan con fuerza por estos servicios. Por un lado, algunas ofrecen servicios, como Amazon y su sistema IaaS (Infrastructure as a Service) Amazon Web Services (AWS); por otro, algunas los utilizan, como ocurre en el caso de este proyecto, en el que Telefonica I+D hace uso de los servicios proporcionados por AWS para sus proyectos. Debido a este crecimiento en el uso de las aplicaciones distribuidas es importante tener en cuenta el papel que desempeñan los desarrolladores y administradores de sistemas que han de trabajar y mantener todas las máquinas remotas de uno o varios proyectos desde una única máquina local. El ayudar a realizar estas tareas de la forma más cómoda y automática posible es el objetivo principal de este proyecto. En concreto, el objetivo de este proyecto es el diseño y la implementación de una solución software que ayude a la productividad en el desarrollo y despliegue de aplicaciones en un conjunto de máquinas remotas desde una única máquina local, teniendo como base una prueba de concepto realizada anteriormente que prueba las funcionalidades más básicas de las librerías utilizadas para el desarrollo de la herramienta. A lo largo de este proyecto se han estudiado las diferentes alternativas que se encuentran en el mercado que ofrecen al menos parte de la soluci6n a los problemas abordados, pese a que los requisitos de la empresa indicaban que la herramienta debía implementarse de forma completa. Se estudió a fondo después la prueba de concepto de la que se partía para, con los conocimientos adquiridos sobre el tema, mejorarla cumpliendo los objetivos marcados. Tras el desarrollo y la implementaci6n completa de la herramienta se proponen posibles caminos a seguir en el futuro. ---ABSTRACT---Nowadays we are experiencing the rise of Cloud Computing and every day more and more important IT companies are betting hard for this kind of services. On one hand, some of these companies offer services such as Amazon IaaS (Infrastructure as a Service) system Amazon Web Services (AWS); on the other hand, some of them use these services, as in the case of this project, in which Telefonica I+D uses the services provided by AWS in their projects. Due this growth in the use of distributed applications it is important to consider the developers and system administrators' roles, who have to work and do the maintenance of all the remote machines from one or several projects from a single local machine. The main goal of this project is to help with these tasks making them as comfortable and automatically as possible. Specifically, the goal of this project is the design and implementation of a software solution that helps to achieve a better productivity in the development of applications on a set of remote machines from a single local machine, based on a proof of concept developed before, in which the basic functionality of the libraries used in this tool were tested. Throughout this project the different alternatives on the market that offer at least part of the solution to the problem addressed have been studied, although according to the requirements of the company, the tool should be implemented from scratch. After that, the basic proof of concept was thoroughly studied and improved with the knowledge acquired on the subject, fulfilling the marked goals. Once the development and full implementation of the tool is done, some ways of improvement for the future are suggested.
Resumo:
Debido a la creciente relevancia de la computación en la nube y de los sistemas distribuidos, cobran también creciente interés las herramientas que ayudan a los desarrolladores y administradores a desempeñar sus funciones con la mayor eficacia posible. Por ello el objetivo principal de este trabajo es el desarrollo de una herramienta capaz de crear y controlar un entorno de almacenamiento de claves distribuidas desde una máquina local e independiente, aumentando la productividad mediante la automatización de todas las tareas. La herramienta desarrollada tiene la capacidad necesaria para integrarse tanto en proyectos que se encuentren en marcha como para proyectos que aún no hayan comenzado y proveer una solución sencilla, eficaz, y, sobre todo, útil. A lo largo del trabajo se ha realizado una gran tarea de análisis para determinar cuáles serán, de entre las posibilidades existentes, las más apropiadas para su implementación, teniendo en cuenta las tecnologías líderes disponibles en el estado del arte. Ello ha requerido también la obtención de una mejor comprensión de su funcionamiento interno. Se han realizado diferentes diseños que se han analizado y discutido en detalle para encontrar la solución que mejor se adaptaba a los objetivos propuestos. Y finalmente se ha desarrollado una herramienta ligera y sencilla, pero con un gran potencial para la administración. ---ABSTRACT---Due to the growing relevance of cloud computing and distributed systems it seems interesting to take into account the importance of the administration tools that help developers and administrators fulfill their duties in the most efficient ways. Because of this motivation, the main objective of this project is the development of a tool capable of creating and controlling a distributed key storing environment from a local and independent machine, improving the productivity thanks to the automation of all the involved tasks. The developed tool is able to integrate itself into already running projects as well as in not-yet-started ones, providing a simple, efficient and overall useful solution. During this project big tasks of research and analysis have taken place in order to determine, from the existent possibilities, the most suitable for its implementation, taking into account the leading technologies in the sector, which are described in the state of the art section. This has required the acquisition of a better insight of their inner workings. Some different designs have been made and have been discussed in detail with the intention of finding the solution that best suits the proposed objectives. And finally a lightweight and simple tool has been developed, which presents a very big potential for administration tasks.
Resumo:
El presente proyecto presenta una introducción a los sistemas de gestión de la Seguridad de la Información (o SGSI) y describe el proceso de desarrollo de una herramienta informática de soporte a la implantación de forma fácil, eficaz y eficiente de un SGSI (se referirá a partir de ahora a esta herramienta como Herramienta de Implantación y Seguimiento de SGSI o HIS-SGSI) según lo definido por el estándar ISO/IEC 27001:2005.
Resumo:
Este trabajo se centra en la construcción de la parte física del personaje virtual. El desarrollo muestra téecnicas de modelado 3D, cinemática y animación usadas para la creación de personajes virtuales. Se incluye además una implementación que está dividida en: modelado del personaje virtual, creación de un sistema de cinemática inversa y la creación de animaciones utilizando el sistema de cinemática. Primero, crear un modelo 3D exacto al diseño original, segundo, el desarrollo de un sistema de cinemática inversa que resuelva con exactitud las posiciones de las partes articuladas que forman el personaje virtual, y tercero, la creación de animaciones haciendo uso del sistema de cinemática para conseguir animaciones fluidas y depuradas. Como consecuencia, se ha obtenido un componente 3D animado, reutilizable, ampliable, y exportable a otros entornos virtuales. ---ABSTRACT---This article is pointed in the making of the physical part of the virtual character. Development shows modeling 3D, kinematic and animation techniques used for create the virtual character. In addition, an implementation is included, and it is divided in: to model the 3D character, to create an inverse kinematics system, and to create animations using a kinematic system. First, creating an exact 3D model from the original design, second, developing an inverse kinematics system that resolves the positions of the articulated pieces that compose the virtual character, and third, creating animation using the inverse kinematics system to get fluid and refined animations in realtime. As consequence, a 3D animated, reusable, extendable and to other virtual environments exportable component has been obtained.
Resumo:
En los vocabularios biomédicos actuales más utilizados, suelen existir mecanismos de composición de términos a partir de términos pre-existentes. Estos mecanismos de composición aumentan la potencia de los lenguajes que los poseen pero parten con la desventaja de la posibilidad de representar un mismo concepto con diferentes conceptos base, lo que incluye un componente de ambigüedad en los mismos. Este trabajo de fin de grado consiste en la realización de una herramienta que permita reconocer términos de estos vocabularios biomédicos complejos, es decir, vocabularios con términos compuestos por otros términos como puede ser el caso de SNOMED. Con la consecución de este proyecto, obtendremos una herramienta capaz de identificar las ambigüedades presentes en la representación de estos conceptos compuestos y representar de una forma homogénea dichos conceptos. Para favorecer la interoperabilidad y accesibilidad de la herramienta se ha decidido ofrecerla mediante una interfaz web accesible desde cualquier dispositivo o lugar con acceso a internet. ---ABSTRACT---In the latest and most used biomedical languages, we usually and term composition operations from existing terms. These mechanisms increase the utility of those terminologies they belong to. Despite this, these operations present a disadvantage, that is, the possibility of representing the same concept with diferent base concepts which introduces a certain degree of ambiguity in those complex terms. The objective of this final degree project consists in developing a tool that allows recognizing terms from those complex biomedical vocabularies, that is, terminologies with terms comprised of simpler terms such as SNOMED. By completing this project, we obtained a tool capable of identifying the present ambiguities in the representation of those composite concepts and represent them in a homogenous format. To facilitate the interoperability and accessibility of the tool it was decided to other it through a web interface loadable from any place or device with access to the internet.
Resumo:
La ETSI Informáticos de la UPM ofrece un sistema de prácticas externas como parte de los créditos de optatividad de algunas de las titulaciones que se imparten. El COLFI (Centro de Orientación Laboral de la Facultad de Informática), se encarga de gestionar este sistema de prácticas externas,almacenando y manejando datos de las mismas a través de hojas de cálculo. El centro debe establecer un convenio con la empresa que acogería al alumno, además, a cada alumno le son asignados dos tutores, un docente de la Escuela como tutor interno y un trabajador de la empresa como tutor externo. Los datos de los tutores, las empresas y los alumnos se almacenan para la posterior consulta, elaboración de informes que recogen distintas estadísticas y generación de certificados a los tutores que los soliciten. Todos estos datos son almacenados mediante hojas de cálculo y la generación de certificados e informes son realizadas actualmente a mano. Por ello, en este proyecto, se propone dotar al Centro de Orientación Laboral de una herramienta que permita realizar todas estas tareas de forma rápida, cómoda e incluso automática, facilitando el acceso y el almacenamiento de los datos.
Resumo:
Este proyecto está dividido en dos partes, una de ellas dedicada al estudio del sistema de adquisición NetdB y su aplicación a prácticas de Acústica Arquitectónica y la otra dedicada a la evaluación de la herramienta OneNote 2010 y su aplicación al proceso enseñanza – aprendizaje. Se estructura en cinco secciones bien definidas que se comentan a continuación: La primera sección, fundamentos teóricos, se centrará en explicar los distintos parámetros medidos y su relación con la acústica. Para ello se definirán los conceptos teóricos básicos que ayudarán al seguimiento del proyecto en su totalidad. La segunda sección está dedicada al sistema de adquisición NetdB, y en ella se explican sus características, el conexionado del equipo y la configuración del mismo con el software dBBati. En la tercera sección se describen las medidas realizadas con el sistema de adquisición NetdB, basadas en la normativa nacional e internacional vigente. Estas medidas son: - Medición del tiempo de reverberación en recintos ordinarios, según la Norma UNE-EN ISO 3382-2. - Medición del coeficiente de absorción sonora en cámara reverberante, según la Norma UNE-EN ISO 354. - Medición “in situ” del aislamiento a ruido aéreo, según las normas UNE-EN ISO 140-4 y UNE-EN ISO 717-1. En cada una de las medidas se describe el objetivo, los equipos utilizados, la conexión entre los distintos equipos, el ensayo realizado según la norma correspondiente, los cálculos y resultados obtenidos y las conclusiones finales de la medida. En la cuarta sección se describe la herramienta OneNote 2010, detallándose su estructura, configuración y la evaluación de su aplicación al proceso enseñanza – aprendizaje. Por último, se darán unas conclusiones finales, en las que se recapitularán los resultados de las valoraciones obtenidos durante la realización del proyecto. ABSTRACT. This project is divided into two parts, one of them dealing with the study of NetdB acquisition system and its application on Architectural Acoustics practices and the other dedicated to the evaluation of the OneNote 2010 tool and its application on the teaching-learning process. The structure of the project consists of five clearly defined sections as stated hereunder: 1. Theoretical fundamentals, based on the explanation of the different parameters subject to measurement and their relation to acoustics. To this end, basic theoretical concepts will be clearly defined, which will help the follow-up of the project as a whole. 2. NetdB acquisition system: whereby features will be clearly defined, as well as the equipment connection and its configuration within the dBBati software. 3. Description of the measures carried out on the NetdB acquisition system under current regulations both national and international, being those measures as follows: - Reverberation Time measurement in ordinary premises, according to the UNE-EN ISO 3382-2 standard. - Sound absorption ratio measurement in reverberating chamber, according to the UNE-EN ISO 354 standard. - “In situ” sound proofing air traffic, according to UNE-EN ISO 140-4 and UNE-EN ISO 717-1 standards. Each of the measures stated above comprises the description of the following issues: its aim, the equipment in use, the connection among different equipment, the test carried out under the corresponding standard, the calculations and results obtained and finally the conclusions reached at. 4. OneNote 2010 tool: full description detailing its structure, configuration as well as the evaluation of its application on the teaching-learning process. Finally, the report will give the final conclusions by means of recapitulating the results of the different assessments obtained along the process.
Resumo:
En este trabajo se presenta una iniciativa conjunta del Instituto Geológico Minero y Metalúrgico (Ingemmet) y el Grupo de Investigación en Geografía Física de Alta Montaña de la Univeridad Complutense de Madrid (GFAM-UCM) para promover en el Perú las investigaciones sobre Geomorfología y cambio climático.
Resumo:
El proyecto fin de carrera de herramienta de apoyo a la docencia en Sistemas Operativos quiere ayudar al alumno a entender el funcionamiento de un planificador a corto plazo. Lo hace mediante una representación gráfica de procesos que ocupan o el procesador o distintas unidades de entrada/salida mientras transcurre el tiempo. El tiempo está dividido en ciclos de reloj de un procesador, a lo que a continuación se referirá como unidades de tiempo. Los procesos están definidos por su nombre, la instante de entrada que entran al sistema, su prioridad y la secuencia de unidades de tiempo en el procesador y unidades de entrada/salida que necesitan para terminar su trabajo. El alumno puede configurar el sistema a su gusto en cuanto al número y comportamiento de las unidades de entrada/salida. Puede definir que una unidad solo permita acceso exclusivo a los procesos, es decir que solo un proceso puede ocuparla simultáneamente, o que permita el acceso múltiple a sus recursos. El alumno puede construir un planificador a corto plazo propio, integrarlo en el sistema y ver cómo se comporta. Se debe usar la interfaz Java proporcionada para su construcción. La aplicación muestra datos estadísticos como por ejemplo la eficiencia del sistema (el tiempo activo de la CPU dividido por el tiempo total de la simulación), tiempos de espera de los procesos, etc. Se calcula después de cada unidad de tiempo para que el alumno pueda ver el momento exacto donde la simulación tomó un giro inesperado. La aplicación está compuesta por un motor de simulación que contiene toda la lógica y un conjunto de clases que forman la interfaz gráfica que se presenta al usuario. Estos dos componentes pueden ser reemplazados siempre y cuando se mantenga la definición de sus conectores igual. La aplicación la he hecho de manejo muy simple e interfaz fácil de comprender para que el alumno pueda dedicar todo su tiempo a probar distintas configuraciones y situaciones y así entender mejor la asignatura. ABSTRACT. The project is called “Tool to Support Teaching of the Subject Operating Systems” and is an application that aims to help students understand on a deeper level the inner workings of how an operating system handles multiple processes in need of CPU time by the means of a short-term planning algorithm. It does so with a graphical representation of the processes that occupy the CPU and different input/output devices as time passes by. Time is divided in CPU cycles, from now on referred to as time units. The processes are defined by their name, the moment they enter the system, their priority and the sequence of time units they need to finish their job. The student can configure the system by changing the number and behavior of the input/output devices. He or she can define whether a device should only allow exclusive access, i.e. only one process can occupy it at any given time, or if it should allow multiple processes to access its resources. The student can build a planning algorithm of his or her own and easily integrate it into the system to see how it behaves. The provided Java interface and the programming language Java should be used to build it. The application shows statistical data, e.g. the efficiency of the system (active CPU time divided by total simulation time) and time spent by the processes waiting in queues. The data are calculated after passing each time unit in order for the student to see the exact moment where the simulation took an unexpected turn. The application is comprised of a simulation motor, which handles all the logic, and a set of classes, which is the graphical user interface. These two parts can be replaced individually if the definition of the connecting interfaces stays the same. I have made the application to be very easy to use and with an easy to understand user interface so the student can spend all of his or her time trying out different configurations and scenarios in order to understand the subject better.
Resumo:
RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.
Resumo:
El presente trabajo expone el estado actual de la cuestión en referencia al análisis del coste del ciclo de vida (CCV) aplicado a la edificación. Las diferentes metodologías desarrolladas en torno a este concepto constituye una herramienta destinada a la evaluación de las distintas opciones de proyecto desde una perspectiva de eficiencia económica medioambientalmente sostenible. Basado en la obtención del valor actual de los costes y beneficios futuros asociados a las decisiones del proceso de edificación, el análisis CCV representa un cambio de paradigma: opone una visión a largo plazo frente a la perspectiva tradicional que aspira a la obtención de una rentabilidad inmediata con una mínima inversión inicial, ignorando sus efectos económicos y medioambientales futuros. El objetivo del artículo es la revisión de la metodología CCV y su implantación en un contexto global, analizando su proceso de desarrollo y los criterios de discusión de resultados. Se concluye con un estudio crítico de las posibilidades de adaptación del método a la estructura del sector inmobiliario español, proponiendo su integración en un sistema de contratación pública sostenible.