11 resultados para Roles and responsibilities
em Universidad Politécnica de Madrid
Resumo:
En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.
Resumo:
El mercado de outsourcing ha estado creciendo en los últimos años y se prevé que lo siga haciendo en los próximos, pero este crecimiento ha estado limitado por el fracaso de muchos proyectos que, en algunos casos, han llevado a las organizaciones a asumir de nuevo esos servicios (insourcing). Estos fracasos se han debido en gran parte a los problemas con los proveedores: falta de experiencia, de capacidades para asumir los proyectos, dificultad en la comunicación,… A diferencia de lo que ocurre en otras disciplinas, no existe una metodología que ayude, tanto a los clientes como a los proveedores de servicios de outsourcing de TI, a gobernar y gestionar sus proyectos y conseguir los resultados buscados. En los últimos años han aparecido, al mismo tiempo que la expansión del outsourcing, algunos modelos y marcos de buenas prácticas para la gestión de los proyectos de outsourcing, pero generalmente sólo cubren algunos aspectos de la gestión. No se los puede considerar metodologías, porque no definen roles, responsabilidades ni entregables. Por lo general, son el resultado de la experiencia en la gestión de otros tipos de proyectos. Hay que considerar también que, excepto eSCM-SP, que es un modelo de buenas prácticas para mejorar la capacidad en la provisión de servicios, están todos orientados al cliente. El objetivo de esta tesis es, por un lado, demostrar la necesidad de contar con una metodología que guíe a los proveedores durante todo el ciclo de vida un proyecto de outsourcing y, por otro, proponer una metodología que contemple desde la fase inicial de la búsqueda de oportunidades de negocio, evaluación de las propuestas RFP, la decisión de hacer una oferta o no para la prestación de servicios, la participación en la due diligence, la firma del contrato, la transición y la entrega de servicios, hasta la finalización del contrato. La metodología se ha organizado en base a un ciclo de vida del outsourcing de cinco etapas, definiendo para cada una de ellas los roles que participan y las responsabilidades que deberán asumir, las actividades a realizar y los entregables que se deberán generar, y que servirán de elementos de control tanto para la gestión del proyecto como para la provisión del servicio. La validación de la metodología se ha realizado aplicándola en proyectos de provisión de servicios de TI de una mediana empresa española y comparando los resultados obtenidos con los conseguidos en proyectos anteriores. ABSTRACT The outsourcing market has been growing in recent years and it is expected to keep doing so in the coming years, but this growth has been limited by the failure of many projects that, in some cases, has led organizations to take back those services (insourcing). These failures have been due to a major degree to problems with providers: lack of experience and capacity to take on the projects, and difficulties of communication. Unlike what happens in other disciplines, there is no methodology for helping both customers and providers of outsourcing services. In recent years, some good practice frameworks have also appeared at the same time as the expansion of outsourcing. They are not methodologies because they have not defined any roles, responsibilities and deliverables. These frameworks aim to help organizations to be successful at managing and governing outsourcing projects. They are usually the result of their experience in managing other kinds of projects. In consequence, it is not appropriate to name them "methodologies" for managing outsourcing projects and much less "standards". It is also important to note that all existing good practice frameworks, except eSCM-SP, are client-oriented. The aim of this thesis is to state the need to propose a methodology that guides providers throughout the whole outsourcing life cycle and facilitates the provision of quality services and their management, and the proposal of a methodology in which the stages, activities, deliverables, roles and responsibilities are clearly defined. The proposed methodology cover all the stages of the outsourcing life cycle, from the early stage of searching for business opportunities, evaluation of the RFP proposals, the decision to bid or not to bid for the service provision, participation in the due diligence if necessary, the signing of the contract, the transition and delivery of service to the termination of the contract. For each activity, roles, responsibilities and deliverables have been defined. The validation of the methodology has been done by applying it in the provision of some outsourcing projects carried out by a Spanish IT medium company and comparing the results with those obtained in previous projects.
Resumo:
El objetivo de este proyecto es la creación de un modelo de gestión y control de la integridad de pozo, basado en el seguimiento de la operación y el análisis de su diseño y construcción. Para ello se diseña una herramienta tecnológica que permita disponer de la información necesaria y gestionarla según estándares internacionales. En la fase inicial del proyecto se realizó una revisión bibliográfica de los estudios más relevantes sobre integridad de pozos, tanto de la asociación SPE (Society of Petroleum Engineers), de Universidades de Noruega y México, o de empresas como ECOPETROL, con el fin entrar en el contexto y analizar antecedentes de modelos y herramientas similares. En segundo lugar se ha realizado un estudio de las bases de datos, comenzando por un análisis de los estándares de PPDM (The Professional Petroleum Data Management Association) sobre los que se realiza la herramienta y se ha seleccionado la base de datos que más se adecua a la herramienta, considerando Access como la mejor opción por ser de fácil acceso e incorporar el módulo de informes. Para la creación de la solución se diseñó un modelo de datos, condicionado por los requisitos de integridad de pozos de la normativa noruega NORSOK D-010 y de la guía de recomendaciones para la integridad de pozos de la asociación de petróleo y gas de Noruega. La materialización de este modelo se realizó mediante la creación de una base de datos en la plataforma Access, y empleando lenguaje propio de Access combinado con programación SQL. Una vez definido y construido el modelo de datos, es posible crear una capa de visualización de la información. Para ello se define un informe de estado de pozo. Este informe será visible por el usuario según sus roles y responsabilidades. ABSTRACT The objective of this project is to create a model for managing and controlling the well integrity. It is based on the monitoring of the operation and the analysis of its design and construction. Therefore a technological tool is designed; to allow having the necessary information and to manage it according to international standards. At the beginning of the project, a literature review of the most relevant studies on well integrity was performed. It was made to enter into context and to analyze the history of the models and available similar tools. It included texts from the association SPE (Society of Petroleum Engineers), universities from Norway and Mexico, and companies like ECOPETROL. Secondly there has been a study of the databases. It began with an analysis of PPDM (The Professional Petroleum Data Management Association) standards; about which, the tool is made. After the analysis, Access was considered the best option because it is easily accessible and incorporates the reporting module. In order to create the solution a data model was designed. It was conditioned by the requirements of integrity of wells, in the Norwegian standards and in the NORSOK D010 recommendations guide for well integrity of the Norwegian oil and gas Association. This model was performed by a database in the Access platform, and using Access language, combined with SQL programming. Once the data model is defined and built, it is possible to create a layer of data visualization. A report of this well is defined to create it. This report will be visible for the user according to their roles and responsibilities.
Resumo:
El presente trabajo se basa en la filosofía de la Construcción sin Pérdidas (“Lean Construction”), analizando la situación de esta filosofía en el sector de la edificación en el contexto internacional y español, respondiendo las siguientes preguntas: 1. ¿Cómo surge el “Lean Construction”? 2. ¿Cuáles son sus actividades, funciones y cometidos? 3. ¿Existe regulación del ¨Lean Construction” en otros países? 4. ¿Existe demanda del ¨Lean Construction” en España? 5. ¿Existe regulación del ¨Lean Construction” en España? 6. ¿Cómo debería ser la regulación ¨Lean Construction” en España? 7. ¿Cuál es la relación del “Lean Construction” con el “Project & Construction Management”? 8. ¿Cómo debería ser la regulación de “Lean Construction” en España considerando su relación con el “Project & Construction Management”? Las preguntas indicadas las hemos respondido detalladamente en el presente trabajo, a continuación se resume las respuestas a dichas preguntas: 1. El “Lean Construction” surge en agosto de 1992, cuando el investigador finlandés Lauri Koskela publicó en la Universidad de Stanford el reporte TECHNICAL REPORT N° 72 titulado “Application of the New Production Philosophy to Construction”. Un año más tarde el Dr. Koskela invitó a un grupo de especialistas en construcción al primer workshop de esta materia en Finlandia, dando origen al International Group for Lean Construction (IGLC) lo que ha permitido extender la filosofía a EEUU, Europa, América, Asia, Oceanía y África. “Lean Construction” es un sistema basado en el enfoque “Lean Production” desarrollado en Japón por Toyota Motors a partir de los años cincuenta, sistema que permitió a sus fábricas producir unidades con mayor eficiencia que las industrias americanas, con menores recursos, en menor tiempo, y con un número menor de errores de fabricación. 2. El sistema “Lean Construction” busca maximizar el valor y disminuir las pérdidas de los proyectos generando una coordinación eficiente entre los involucrados, manejando un proyecto como un sistema de producción, estrechando la colaboración entre los participantes de los proyectos, capacitándoles y empoderándoles, fomentando una cultura de cambio. Su propósito es desarrollar un proceso de construcción en el que no hayan accidentes, ni daños a equipos, instalaciones, entorno y comunidad, que se realice en conformidad con los requerimientos contractuales, sin defectos, en el plazo requerido, respetando los costes presupuestados y con un claro enfoque en la eliminación o reducción de las pérdidas, es decir, las actividades que no generen beneficios. El “Last Planner System”, o “Sistema del Último Planificador”, es un sistema del “Lean Construction” que por su propia naturaleza protege a la planificación y, por ende, ayuda a maximizar el valor y minimizar las pérdidas, optimizando de manera sustancial los sistemas de seguridad y salud. El “Lean Construction” se inició como un concepto enfocado a la ejecución de las obras, posteriormente se aplicó la filosofía a todas las etapas del proyecto. Actualmente considera el desarrollo total de un proyecto, desde que nace la idea hasta la culminación de la obra y puesta en marcha, considerando el ciclo de vida completo del proyecto. Es una filosofía de gestión, metodologías de trabajo y una cultura empresarial orientada a la eficiencia de los procesos y flujos. La filosofía “Lean Construction” se está expandiendo en todo el mundo, además está creciendo en su alcance, influyendo en la gestión contractual de los proyectos. Su primera evolución consistió en la creación del sistema “Lean Project Delivery System”, que es el concepto global de desarrollo de proyectos. Posteriormente, se proponen el “Target Value Design”, que consiste en diseñar de forma colaborativa para alcanzar los costes y el valor requerido, y el “Integrated Project Delivery”, en relación con sistemas de contratos relacionales (colaborativos) integrados, distintos a los contratos convencionales. 3. Se verificó que no existe regulación específica del ¨Lean Construction” en otros países, en otras palabras, no existe el agente con el nombre específico de “Especialista en Lean Construction” o similar, en consecuencia, es un agente adicional en el proyecto de la edificación, cuyas funciones y cometidos se pueden solapar con los del “Project Manager”, “Construction Manager”, “Contract Manager”, “Safety Manager”, entre otros. Sin embargo, se comprobó la existencia de formatos privados de contratos colaborativos de Integrated Project Delivery, los cuales podrían ser tomados como unas primeras referencias para futuras regulaciones. 4. Se verificó que sí existe demanda del ¨Lean Construction” en el desarrollo del presente trabajo, aunque aún su uso es incipiente, cada día existe más interesados en el tema. 5. No existe regulación del ¨Lean Construction” en España. 6. Uno de los objetivos fundamentales de esta tesis es el de regular esta figura cuando actúe en un proyecto, definir y realizar una estructura de Agente de la Edificación, según la Ley de Ordenación de la Edificación (LOE), y de esta manera poder introducirla dentro de la Legislación Española, protegiéndola de eventuales responsabilidades civiles. En España existe jurisprudencia (sentencias de los tribunales de justicia españoles) con jurisdicción civil basada en la LOE para absolver o condenar a agentes de la edificación que son definidos en los tribunales como “gestores constructivos” o similares. Por este motivo, en un futuro los tribunales podrían dictaminar responsabilidades solidarias entre el especialista “Lean Construction” y otros agentes del proyecto, dependiendo de sus actuaciones, y según se implemente el “Lean Project Delivery System”, el “Target Value Design” y el “Integrated Project Delivery”. Por otro lado, es posible que el nivel de actuación del especialista “Lean Construcción” pueda abarcar la gestión del diseño, la gestión de la ejecución material (construcción), la gestión de contratos, o la gestión integral de todo el proyecto de edificación, esto último, en concordancia con la última Norma ISO 21500:2012 o UNE-ISO 21500:2013 Directrices para la dirección y gestión de proyectos. En consecuencia, se debería incorporar adecuadamente a uno o más agentes de la edificación en la LOE de acuerdo a sus funciones y responsabilidades según los niveles de actuación del “Especialista en Lean Construction”. Se propone la creación de los siguientes agentes: Gestor del Diseño, Gestor Constructivo y Gestor de Contratos, cuyas definiciones están desarrolladas en este trabajo. Estas figuras son definidas de manera general, puesto que cualquier “Project Manager” o “DIPE”, gestor BIM (Building Information Modeling), o similar, puede actuar como uno o varios de ellos. También se propone la creación del agente “Gestor de la Construcción sin Pérdidas”, como aquel agente que asume las actuaciones del “gestor de diseño”, “gestor constructivo” y “gestor de contratos” con un enfoque en los principios del Lean Production. 7. En la tesis se demuestra, por medio del uso de la ISO 21500, que ambos sistemas son complementarios, de manera que los proyectos pueden tener ambos enfoques y ser compatibilizados. Un proyecto que use el “Project & Construction Management” puede perfectamente apoyarse en las herramientas y técnicas del “Lean Construction” para asegurar la eliminación o reducción de las pérdidas, es decir, las actividades que no generen valor, diseñando el sistema de producción, el sistema de diseño o el sistema de contratos. 8. Se debería incorporar adecuadamente al agente de la edificación “Especialista en Lean Construction” o similar y al agente ¨Especialista en Project & Construction Management” o DIPE en la Ley de Ordenación de la Edificación (LOE) de acuerdo a sus funciones y responsabilidades, puesto que la jurisprudencia se ha basado para absolver o condenar en la referida Ley. Uno de los objetivos fundamentales de esta tesis es el de regular la figura del “Especialista en Lean Construction” cuando actúa simultáneamente con el DIPE, y realizar una estructura de Agente de la Edificación según la LOE, y de esta manera protegerlo de eventuales responsabilidades solidarias. Esta investigación comprueba que la propuesta de definición del agente de edificación DIPE, según la LOE, presentada en la tesis doctoral del Doctor Manuel Soler Severino es compatible con las nuevas definiciones propuestas. El agente DIPE puede asumir los roles de los diferentes gestores propuestos en esta tesis si es que se especializa en dichas materias, o, si lo estima pertinente, recomendar sus contrataciones. ABSTRACT This work is based on the Lean Construction philosophy; an analysis is made herein with regard to the situation of this philosophy in the building sector within the international and Spanish context, replying to the following questions: 1. How did the concept of Lean Construction emerge? 2. Which are the activities, functions and objectives of Lean Construction? 3. Are there regulations on Lean Construction in other countries? 4. Is there a demand for Lean Construction in Spain? 5. Are there regulations on Lean Construction in Spain? 6. How should regulations on Lean Construction be developed in Spain? 7. What is the relationship between Lean Construction and the Project & Construction Management? 8. How should regulations on Lean Construction be developed in Spain considering its relationship with the Project & Construction Management? We have answered these questions in detail here and the replies are summarized as follows: 1. The concept of Lean Construction emerged in august of 1992, when Finnish researcher Lauri Koskela published in Stanford University TECHNICAL REPORT N° 72 entitled “Application of the New Production Philosophy to Construction”. A year later, Professor Koskela invited a group of construction specialists to Finland to the first workshop conducted on this matter; thus, the International Group for Lean Construction (IGLC) was established, which has contributed to extending the philosophy to the United States, Europe, the Americas, Asia, Oceania, and Africa. Lean Construction is a system based on the Lean Production approach, which was developed in Japan by Toyota Motors in the 1950s. Thanks to this system, the Toyota plants were able to produce more units, with greater efficiency than the American industry, less resources, in less time, and with fewer manufacturing errors. 2. The Lean Construction system aims at maximizing the value of projects while reducing waste, producing an effective coordination among those involved; it manages projects as a production system, enhancing collaboration between the parties that participate in the projects while building their capacities, empowering them, and promoting a culture of change. Its purpose is to develop a construction process free of accidents, without damages to the equipment, facilities, environment and community, flawless, in accordance with contractual requirements, within the terms established, respecting budgeted costs, and with a clear approach to eliminating or reducing waste, that is, activities that do not generate benefits. The Last Planner System is a Lean Construction system, which by its own nature protects planning and, therefore, helps to maximize the value and minimize waste, optimizing substantially the safety and health systems. Lean Construction started as a concept focused on the execution of works, and subsequently the philosophy was applied to all the stages of the project. At present it considers the project’s total development, since the time ideas are born until the completion and start-up of the work, taking into account the entire life cycle of the project. It is a philosophy of management, work methodologies, and entrepreneurial culture aimed at the effectiveness of processes and flows. The Lean Construction philosophy is extending all over the world and its scope is becoming broader, having greater influence on the contractual management of projects. It evolved initially through the creation of the Lean Project Delivery System, a global project development concept. Later on, the Target Value Design was developed, based on collaborative design to achieve the costs and value required, as well as the Integrated Project Delivery, in connection with integrated relational (collaborative) contract systems, as opposed to conventional contracts. 3. It was verified that no specific regulations on Lean Construction exist in other countries, in other words, there are no agents with the specific name of “Lean Construction Specialist” or other similar names; therefore, it is an additional agent in building projects, which functions and objectives can overlap those of the Project Manager, Construction Manager, Contract Manager, or Safety Manager, among others. However, the existence of private collaborative contracts of Integrated Project Delivery was confirmed, which could be considered as first references for future regulations. 4. There is a demand for Lean Construction in the development of this work; even though it is still emerging, there is a growing interest in this topic. 5. There are no regulations on Lean Construction in Spain. 6. One of the main objectives of this thesis is to regulate this role when acting in a project, and to define and develop a Building Agent structure, according to the Building Standards Law (LOE by its acronym in Spanish), in order to be able to incorporate it into the Spanish law, protecting it from civil liabilities. In Spain there is jurisprudence in civil jurisdiction based on the LOE to acquit or convict building agents, which are defined in the courts as “construction managers” or similar. For this reason, courts could establish in the future joint and several liabilities between the Lean Construction Specialist and other agents of the project, depending on their actions and based on the implementation of the Lean Project Delivery System, the Target Value Design, and the Integrated Project Delivery. On the other hand, it is possible that the level of action of the Lean Construction Specialist may comprise design management, construction management and contract management, or the integral management of the entire building project in accordance with the last ISO 21500:2012 or UNE-ISO 21500:2013, guidelines for the management of projects. Accordingly, one or more building agents should be appropriately incorporated into the LOE according to their functions and responsibilities and based on the levels of action of the Lean Construction Specialist. The creation of the following agents is proposed: Design Manager, Construction Manager, and Contract Manager, which definitions are developed in this work. These agents are defined in general, since any Project Manager or DIPE, Building Information Modeling (BIM) Manager or similar, may act as one or as many of them. The creation of the Lean Construction Manager is also proposed, as the agent that takes on the role of the Design Manager, Construction Manager and Contract Manager with a focus on the Lean Production principles. 7. In the thesis it is demonstrated that through the implementation of the ISO 21500, both systems are supplementary, so projects may have both approaches and be compatible. A project that applies the Project & Construction Management may perfectly have the support of the tools, techniques and practices of Lean Construction to ensure the elimination or reduction of losses, that is, those activities that do not generate value, thus designing the production system, the design system, or the contract system. 8. The Lean Construction Specialist or similar and the Specialist in Project & Construction Management should be incorporated appropriately into the LOE according to their functions and responsibilities, since jurisprudence has been based on such Law to acquit or convict. One of the main objectives of this thesis is the regulate the role of the Lean Construction Specialist when acting simultaneously with the DIPE, and to develop a structure of the building agent, according to the LOE, and in this way protect such agent from joint and several liabilities. This research proves that the proposal to define the DIPE building agent, according to the LOE, and presented in the doctoral dissertation of Manuel Soler Severino, Ph.D. is compatible with the new definitions proposed. The DIPE agent may assume the roles of the different managers proposed in this thesis if he specializes in those topics or, if deemed pertinent, recommends that they be engaged.
Resumo:
Antecedentes Europa vive una situación insostenible. Desde el 2008 se han reducido los recursos de los gobiernos a raíz de la crisis económica. El continente Europeo envejece con ritmo constante al punto que se prevé que en 2050 habrá sólo dos trabajadores por jubilado [54]. A esta situación se le añade el aumento de la incidencia de las enfermedades crónicas, relacionadas con el envejecimiento, cuyo coste puede alcanzar el 7% del PIB de un país [51]. Es necesario un cambio de paradigma. Una nueva manera de cuidar de la salud de las personas: sustentable, eficaz y preventiva más que curativa. Algunos estudios abogan por el cuidado personalizado de la salud (pHealth). En este modelo las prácticas médicas son adaptadas e individualizadas al paciente, desde la detección de los factores de riesgo hasta la personalización de los tratamientos basada en la respuesta del individuo [81]. El cuidado personalizado de la salud está asociado a menudo al uso de las tecnologías de la información y comunicación (TICs) que, con su desarrollo exponencial, ofrecen oportunidades interesantes para la mejora de la salud. El cambio de paradigma hacia el pHealth está lentamente ocurriendo, tanto en el ámbito de la investigación como en la industria, pero todavía no de manera significativa. Existen todavía muchas barreras relacionadas a la economía, a la política y la cultura. También existen barreras puramente tecnológicas, como la falta de sistemas de información interoperables [199]. A pesar de que los aspectos de interoperabilidad están evolucionando, todavía hace falta un diseño de referencia especialmente direccionado a la implementación y el despliegue en gran escala de sistemas basados en pHealth. La presente Tesis representa un intento de organizar la disciplina de la aplicación de las TICs al cuidado personalizado de la salud en un modelo de referencia, que permita la creación de plataformas de desarrollo de software para simplificar tareas comunes de desarrollo en este dominio. Preguntas de investigación RQ1 >Es posible definir un modelo, basado en técnicas de ingeniería del software, que represente el dominio del cuidado personalizado de la salud de una forma abstracta y representativa? RQ2 >Es posible construir una plataforma de desarrollo basada en este modelo? RQ3 >Esta plataforma ayuda a los desarrolladores a crear sistemas pHealth complejos e integrados? Métodos Para la descripción del modelo se adoptó el estándar ISO/IEC/IEEE 42010por ser lo suficientemente general y abstracto para el amplio enfoque de esta tesis [25]. El modelo está definido en varias partes: un modelo conceptual, expresado a través de mapas conceptuales que representan las partes interesadas (stakeholders), los artefactos y la información compartida; y escenarios y casos de uso para la descripción de sus funcionalidades. El modelo fue desarrollado de acuerdo a la información obtenida del análisis de la literatura, incluyendo 7 informes industriales y científicos, 9 estándares, 10 artículos en conferencias, 37 artículos en revistas, 25 páginas web y 5 libros. Basándose en el modelo se definieron los requisitos para la creación de la plataforma de desarrollo, enriquecidos por otros requisitos recolectados a través de una encuesta realizada a 11 ingenieros con experiencia en la rama. Para el desarrollo de la plataforma, se adoptó la metodología de integración continua [74] que permitió ejecutar tests automáticos en un servidor y también desplegar aplicaciones en una página web. En cuanto a la metodología utilizada para la validación se adoptó un marco para la formulación de teorías en la ingeniería del software [181]. Esto requiere el desarrollo de modelos y proposiciones que han de ser validados dentro de un ámbito de investigación definido, y que sirvan para guiar al investigador en la búsqueda de la evidencia necesaria para justificarla. La validación del modelo fue desarrollada mediante una encuesta online en tres rondas con un número creciente de invitados. El cuestionario fue enviado a 134 contactos y distribuido en algunos canales públicos como listas de correo y redes sociales. El objetivo era evaluar la legibilidad del modelo, su nivel de cobertura del dominio y su potencial utilidad en el diseño de sistemas derivados. El cuestionario incluía preguntas cuantitativas de tipo Likert y campos para recolección de comentarios. La plataforma de desarrollo fue validada en dos etapas. En la primera etapa se utilizó la plataforma en un experimento a pequeña escala, que consistió en una sesión de entrenamiento de 12 horas en la que 4 desarrolladores tuvieron que desarrollar algunos casos de uso y reunirse en un grupo focal para discutir su uso. La segunda etapa se realizó durante los tests de un proyecto en gran escala llamado HeartCycle [160]. En este proyecto un equipo de diseñadores y programadores desarrollaron tres aplicaciones en el campo de las enfermedades cardio-vasculares. Una de estas aplicaciones fue testeada en un ensayo clínico con pacientes reales. Al analizar el proyecto, el equipo de desarrollo se reunió en un grupo focal para identificar las ventajas y desventajas de la plataforma y su utilidad. Resultados Por lo que concierne el modelo que describe el dominio del pHealth, la parte conceptual incluye una descripción de los roles principales y las preocupaciones de los participantes, un modelo de los artefactos TIC que se usan comúnmente y un modelo para representar los datos típicos que son necesarios formalizar e intercambiar entre sistemas basados en pHealth. El modelo funcional incluye un conjunto de 18 escenarios, repartidos en: punto de vista de la persona asistida, punto de vista del cuidador, punto de vista del desarrollador, punto de vista de los proveedores de tecnologías y punto de vista de las autoridades; y un conjunto de 52 casos de uso repartidos en 6 categorías: actividades de la persona asistida, reacciones del sistema, actividades del cuidador, \engagement" del usuario, actividades del desarrollador y actividades de despliegue. Como resultado del cuestionario de validación del modelo, un total de 65 personas revisó el modelo proporcionando su nivel de acuerdo con las dimensiones evaluadas y un total de 248 comentarios sobre cómo mejorar el modelo. Los conocimientos de los participantes variaban desde la ingeniería del software (70%) hasta las especialidades médicas (15%), con declarado interés en eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), medicina personalizada (5%), sistemas basados en pHealth (15%), informática médica (10%) e ingeniería biomédica (8%) con una media de 7.25_4.99 años de experiencia en estas áreas. Los resultados de la encuesta muestran que los expertos contactados consideran el modelo fácil de leer (media de 1.89_0.79 siendo 1 el valor más favorable y 5 el peor), suficientemente abstracto (1.99_0.88) y formal (2.13_0.77), con una cobertura suficiente del dominio (2.26_0.95), útil para describir el dominio (2.02_0.7) y para generar sistemas más específicos (2_0.75). Los expertos también reportan un interés parcial en utilizar el modelo en su trabajo (2.48_0.91). Gracias a sus comentarios, el modelo fue mejorado y enriquecido con conceptos que faltaban, aunque no se pudo demonstrar su mejora en las dimensiones evaluadas, dada la composición diferente de personas en las tres rondas de evaluación. Desde el modelo, se generó una plataforma de desarrollo llamada \pHealth Patient Platform (pHPP)". La plataforma desarrollada incluye librerías, herramientas de programación y desarrollo, un tutorial y una aplicación de ejemplo. Se definieron cuatro módulos principales de la arquitectura: el Data Collection Engine, que permite abstraer las fuentes de datos como sensores o servicios externos, mapeando los datos a bases de datos u ontologías, y permitiendo interacción basada en eventos; el GUI Engine, que abstrae la interfaz de usuario en un modelo de interacción basado en mensajes; y el Rule Engine, que proporciona a los desarrolladores un medio simple para programar la lógica de la aplicación en forma de reglas \if-then". Después de que la plataforma pHPP fue utilizada durante 5 años en el proyecto HeartCycle, 5 desarrolladores fueron reunidos en un grupo de discusión para analizar y evaluar la plataforma. De estas evaluaciones se concluye que la plataforma fue diseñada para encajar las necesidades de los ingenieros que trabajan en la rama, permitiendo la separación de problemas entre las distintas especialidades, y simplificando algunas tareas de desarrollo como el manejo de datos y la interacción asíncrona. A pesar de ello, se encontraron algunos defectos a causa de la inmadurez de algunas tecnologías empleadas, y la ausencia de algunas herramientas específicas para el dominio como el procesado de datos o algunos protocolos de comunicación relacionados con la salud. Dentro del proyecto HeartCycle la plataforma fue utilizada para el desarrollo de la aplicación \Guided Exercise", un sistema TIC para la rehabilitación de pacientes que han sufrido un infarto del miocardio. El sistema fue testeado en un ensayo clínico randomizado en el cual a 55 pacientes se les dio el sistema para su uso por 21 semanas. De los resultados técnicos del ensayo se puede concluir que, a pesar de algunos errores menores prontamente corregidos durante el estudio, la plataforma es estable y fiable. Conclusiones La investigación llevada a cabo en esta Tesis y los resultados obtenidos proporcionan las respuestas a las tres preguntas de investigación que motivaron este trabajo: RQ1 Se ha desarrollado un modelo para representar el dominio de los sistemas personalizados de salud. La evaluación hecha por los expertos de la rama concluye que el modelo representa el dominio con precisión y con un balance apropiado entre abstracción y detalle. RQ2 Se ha desarrollado, con éxito, una plataforma de desarrollo basada en el modelo. RQ3 Se ha demostrado que la plataforma es capaz de ayudar a los desarrolladores en la creación de software pHealth complejos. Las ventajas de la plataforma han sido demostradas en el ámbito de un proyecto de gran escala, aunque el enfoque genérico adoptado indica que la plataforma podría ofrecer beneficios también en otros contextos. Los resultados de estas evaluaciones ofrecen indicios de que, ambos, el modelo y la plataforma serán buenos candidatos para poderse convertir en una referencia para futuros desarrollos de sistemas pHealth. ABSTRACT Background Europe is living in an unsustainable situation. The economic crisis has been reducing governments' economic resources since 2008 and threatening social and health systems, while the proportion of older people in the European population continues to increase so that it is foreseen that in 2050 there will be only two workers per retiree [54]. To this situation it should be added the rise, strongly related to age, of chronic diseases the burden of which has been estimated to be up to the 7% of a country's gross domestic product [51]. There is a need for a paradigm shift, the need for a new way of caring for people's health, shifting the focus from curing conditions that have arisen to a sustainable and effective approach with the emphasis on prevention. Some advocate the adoption of personalised health care (pHealth), a model where medical practices are tailored to the patient's unique life, from the detection of risk factors to the customization of treatments based on each individual's response [81]. Personalised health is often associated to the use of Information and Communications Technology (ICT), that, with its exponential development, offers interesting opportunities for improving healthcare. The shift towards pHealth is slowly taking place, both in research and in industry, but the change is not significant yet. Many barriers still exist related to economy, politics and culture, while others are purely technological, like the lack of interoperable information systems [199]. Though interoperability aspects are evolving, there is still the need of a reference design, especially tackling implementation and large scale deployment of pHealth systems. This thesis contributes to organizing the subject of ICT systems for personalised health into a reference model that allows for the creation of software development platforms to ease common development issues in the domain. Research questions RQ1 Is it possible to define a model, based on software engineering techniques, for representing the personalised health domain in an abstract and representative way? RQ2 Is it possible to build a development platform based on this model? RQ3 Does the development platform help developers create complex integrated pHealth systems? Methods As method for describing the model, the ISO/IEC/IEEE 42010 framework [25] is adopted for its generality and high level of abstraction. The model is specified in different parts: a conceptual model, which makes use of concept maps, for representing stakeholders, artefacts and shared information, and in scenarios and use cases for the representation of the functionalities of pHealth systems. The model was derived from literature analysis, including 7 industrial and scientific reports, 9 electronic standards, 10 conference proceedings papers, 37 journal papers, 25 websites and 5 books. Based on the reference model, requirements were drawn for building the development platform enriched with a set of requirements gathered in a survey run among 11 experienced engineers. For developing the platform, the continuous integration methodology [74] was adopted which allowed to perform automatic tests on a server and also to deploy packaged releases on a web site. As a validation methodology, a theory building framework for SW engineering was adopted from [181]. The framework, chosen as a guide to find evidence for justifying the research questions, imposed the creation of theories based on models and propositions to be validated within a scope. The validation of the model was conducted as an on-line survey in three validation rounds, encompassing a growing number of participants. The survey was submitted to 134 experts of the field and on some public channels like relevant mailing lists and social networks. Its objective was to assess the model's readability, its level of coverage of the domain and its potential usefulness in the design of actual, derived systems. The questionnaires included quantitative Likert scale questions and free text inputs for comments. The development platform was validated in two scopes. As a small-scale experiment, the platform was used in a 12 hours training session where 4 developers had to perform an exercise consisting in developing a set of typical pHealth use cases At the end of the session, a focus group was held to identify benefits and drawbacks of the platform. The second validation was held as a test-case study in a large scale research project called HeartCycle the aim of which was to develop a closed-loop disease management system for heart failure and coronary heart disease patients [160]. During this project three applications were developed by a team of programmers and designers. One of these applications was tested in a clinical trial with actual patients. At the end of the project, the team was interviewed in a focus group to assess the role the platform had within the project. Results For what regards the model that describes the pHealth domain, its conceptual part includes a description of the main roles and concerns of pHealth stakeholders, a model of the ICT artefacts that are commonly adopted and a model representing the typical data that need to be formalized among pHealth systems. The functional model includes a set of 18 scenarios, divided into assisted person's view, caregiver's view, developer's view, technology and services providers' view and authority's view, and a set of 52 Use Cases grouped in 6 categories: assisted person's activities, system reactions, caregiver's activities, user engagement, developer's activities and deployer's activities. For what concerns the validation of the model, a total of 65 people participated in the online survey providing their level of agreement in all the assessed dimensions and a total of 248 comments on how to improve and complete the model. Participants' background spanned from engineering and software development (70%) to medical specialities (15%), with declared interest in the fields of eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), Personalized Medicine (5%), Personal Health Systems (15%), Medical Informatics (10%) and Biomedical Engineering (8%) with an average of 7.25_4.99 years of experience in these fields. From the analysis of the answers it is possible to observe that the contacted experts considered the model easily readable (average of 1.89_0.79 being 1 the most favourable scoring and 5 the worst), sufficiently abstract (1.99_0.88) and formal (2.13_0.77) for its purpose, with a sufficient coverage of the domain (2.26_0.95), useful for describing the domain (2.02_0.7) and for generating more specific systems (2_0.75) and they reported a partial interest in using the model in their job (2.48_0.91). Thanks to their comments, the model was improved and enriched with concepts that were missing at the beginning, nonetheless it was not possible to prove an improvement among the iterations, due to the diversity of the participants in the three rounds. From the model, a development platform for the pHealth domain was generated called pHealth Patient Platform (pHPP). The platform includes a set of libraries, programming and deployment tools, a tutorial and a sample application. The main four modules of the architecture are: the Data Collection Engine, which allows abstracting sources of information like sensors or external services, mapping data to databases and ontologies, and allowing event-based interaction and filtering, the GUI Engine, which abstracts the user interface in a message-like interaction model, the Workow Engine, which allows programming the application's user interaction ows with graphical workows, and the Rule Engine, which gives developers a simple means for programming the application's logic in the form of \if-then" rules. After the 5 years experience of HeartCycle, partially programmed with pHPP, 5 developers were joined in a focus group to discuss the advantages and drawbacks of the platform. The view that emerged from the training course and the focus group was that the platform is well-suited to the needs of the engineers working in the field, it allowed the separation of concerns among the different specialities and it simplified some common development tasks like data management and asynchronous interaction. Nevertheless, some deficiencies were pointed out in terms of a lack of maturity of some technological choices, and for the absence of some domain-specific tools, e.g. for data processing or for health-related communication protocols. Within HeartCycle, the platform was used to develop part of the Guided Exercise system, a composition of ICT tools for the physical rehabilitation of patients who suffered from myocardial infarction. The system developed using the platform was tested in a randomized controlled clinical trial, in which 55 patients used the system for 21 weeks. The technical results of this trial showed that the system was stable and reliable. Some minor bugs were detected, but these were promptly corrected using the platform. This shows that the platform, as well as facilitating the development task, can be successfully used to produce reliable software. Conclusions The research work carried out in developing this thesis provides responses to the three three research questions that were the motivation for the work. RQ1 A model was developed representing the domain of personalised health systems, and the assessment of experts in the field was that it represents the domain accurately, with an appropriate balance between abstraction and detail. RQ2 A development platform based on the model was successfully developed. RQ3 The platform has been shown to assist developers create complex pHealth software. This was demonstrated within the scope of one large-scale project, but the generic approach adopted provides indications that it would offer benefits more widely. The results of these evaluations provide indications that both the model and the platform are good candidates for being a reference for future pHealth developments.
Resumo:
El Daño Cerebral Adquirido (DCA) se define como una lesión cerebral que ocurre después del nacimiento y que no guarda relación con defectos congénitos o enfermedades degenerativas. En el cerebro, se llevan a cabo las funciones mentales superiores como la atención, la memoria, las funciones ejecutivas y el lenguaje, consideradas pre-requisitos básicos de la inteligencia. Sea cual sea su causa, todo daño cerebral puede afectar a una o varias de estas funciones, de ahí la gravedad del problema. A pesar de los avances en nuevas técnicas de intervención precoz y el desarrollo de los cuidados intensivos, las afectaciones cerebrales aún no tienen tratamiento ni quirúrgico ni farmacológico que permita una restitución de las funciones perdidas. Los tratamientos de neurorrehabilitación cognitiva y funcional pretenden, por tanto, la minimización o compensación de las alteraciones ocasionadas por una lesión en el sistema nervioso. En concreto, la rehabilitación cognitiva se define como el proceso en el que personas que han sufrido un daño cerebral trabajan de manera conjunta con profesionales de la salud para remediar o aliviar los déficits cognitivos surgidos como consecuencia de un episodio neurológico. Esto se consigue gracias a la naturaleza plástica del sistema nervioso, donde el cerebro es capaz de reconfigurar sus conexiones neuronales, tanto creando nuevas como modificando las ya existentes. Durante los últimos años hemos visto una transformación de la sociedad, en lo que se ha denominado "sociedad de la información", cuyo pilar básico son las Tecnologías de la Información y las Comunicaciones (TIC). La aplicación de estas tecnologías en medicina ha revolucionado la manera en que se proveen los servicios sanitarios. Así, donde tecnología y medicina se mezclan, la telerrehabilitación se define como la rehabilitación a distancia, ayudando a extender los servicios de rehabilitación más allá de los centros hospitalarios, rompiendo las barreras geográficas, mejorando la eficiencia de los procesos y monitorizando en todo momento el estado y evolución del paciente. En este contexto, el objetivo general de la presente tesis es mejorar la rehabilitación neuropsicológica de pacientes que sufren alteraciones cognitivas, mediante el diseño, desarrollo y validación de un sistema de telemedicina que incorpora las TIC para avanzar hacia un nuevo paradigma personalizado, ubicuo y ecológico. Para conseguirlo, se han definido los siguientes objetivos específicos: • Analizar y modelar un sistema de telerrehabilitación, mediante la definición de objetivos y requisitos de usuario para diseñar las diferentes funcionalidades necesarias. • Definir una arquitectura de telerrehabilitación escalable para la prestación de diferentes servicios que agrupe las funcionalidades necesarias en módulos. • Diseñar y desarrollar la plataforma de telerrehabilitación, incluida la interfaz de usuario, creando diferentes roles de usuario con sus propias funcionalidades. • Desarrollar de un módulo de análisis de datos para extraer conocimiento basado en los resultados históricos de las sesiones de rehabilitación almacenadas en el sistema. • Evaluación de los resultados obtenidos por los pacientes después del programa de rehabilitación, obteniendo conclusiones sobre los beneficios del servicio implementado. • Evaluación técnica de la plataforma de telerrehabilitación, así como su usabilidad y la relación coste/beneficio. • Integración de un dispositivo de eye-tracking que permita la monitorización de la atención visual mientras los pacientes ejecutan tareas de neurorrehabilitación. •Diseño y desarrollo de un entorno de monitorización que permita obtener patrones de atención visual. Como resumen de los resultados obtenidos, se ha desarrollado y validado técnicamente la plataforma de telerrehabilitación cognitiva, demostrando la mejora en la eficiencia de los procesos, sin que esto resulte en una reducción de la eficacia del tratamiento. Además, se ha llevado a cabo una evaluación de la usabilidad del sistema, con muy buenos resultados. Respecto al módulo de análisis de datos, se ha diseñado y desarrollado un algoritmo que configura y planifica sesiones de rehabilitación para los pacientes, de manera automática, teniendo en cuenta las características específicas de cada paciente. Este algoritmo se ha denominado Intelligent Therapy Assistant (ITA). Los resultados obtenidos por el asistente muestran una mejora tanto en la eficiencia como en la eficacia de los procesos, comparado los resultados obtenidos con los de la planificación manual llevada a cabo por los terapeutas. Por último, se ha integrado con éxito el dispositivo de eye-tracking en la plataforma de telerrehabilitación, llevando a cabo una prueba con pacientes y sujetos control que ha demostrado la viabilidad técnica de la solución, así como la existencia de diferencias en los patrones de atención visual en pacientes con daño cerebral. ABSTRACT Acquired Brain Injury (ABI) is defined as brain damage that suddenly and unexpectedly appears in people’s life, being the main cause of disability in developed countries. The brain is responsible of the higher cognitive functions such as attention, memory, executive functions or language, which are considered basic requirements of the intelligence. Whatever its cause is, every ABI may affects one or several functions, highlighting the severity of the problem. New techniques of early intervention and the development of intensive ABI care have noticeably improved the survival rate. However, despite these advances, brain injuries still have no surgical or pharmacological treatment to re-establish lost functions. Cognitive rehabilitation is defined as a process whereby people with brain injury work together with health service professionals and others to remediate or alleviate cognitive deficits arising from a neurological insult. This is achieved by taking advantage of the plastic nature of the nervous system, where the brain can reconfigure its connections, both creating new ones, and modifying the previously existing. Neuro-rehabilitation aims to optimize the plastic nature by inducing a reorganization of the neural network, based on specific experiences. Personalized interventions from individual impairment profile will be necessary to optimize the remaining resources by potentiating adaptive responses and inhibiting maladaptive changes. In the last years, some applications and software programs have been developed to train or stimulate cognitive functions of different neuropsychological disorders, such as ABI, Alzheimer, psychiatric disorders, attention deficit or hyperactivity disorder (ADHD). The application of technologies into medicine has changed the paradigm. Telemedicine allows improving the quality of clinical services, providing better access to them and helping to break geographical barriers. Moreover, one of the main advantages of telemedicine is the possibility to extend the therapeutic processes beyond the hospital (e.g. patient's home). As a consequence, a reduction of unnecessary costs and a better costs/benefits ratio are achieved, making possible a more efficient use of the available resources In this context, the main objective of this work is to improve neuro-rehabilitation of patients suffering cognitive deficits, by designing, developing and validating a telemedicine system that incorporates ICTs to change this paradigm, making it more personalized, ubiquitous and ecologic. The following specific objectives have been defined: • To analyse and model a tele-rehabilitation system, defining objectives and user requirements to design the different needed functionalities. • To define a scalable tele-rehabilitation architecture to offer different services grouping functionalities into modules. • To design and develop the tele-rehabilitation platform, including the graphic user interface, creating different user roles and permissions. • To develop a data analysis module to extract knowledge based on the historic results from the rehabilitation sessions stored in the system. • To evaluate the obtained results by patients after the rehabilitation program, arising conclusions about the benefits of the implemented service. • To technically evaluate the tele-rehabilitation platform, and its usability and the costs/benefit ratio. • To integrate an eye-tracking device allowing the monitoring of the visual attention while patients execute rehabilitation tasks. •To design and develop a monitoring environment that allows to obtain visual attention patterns. Summarizing the obtained results, the cognitive tele-rehabilitation platform has been developed and evaluated technically, demonstrating the improvements on the efficiency without worsening the efficacy of the process. Besides, a usability evaluation has been carried out, with very good results. Regarding the data analysis module, an algorithm has been designed and developed to automatically select and configure rehabilitation sessions, taking into account the specific characteristics of each patient. This algorithm is called Intelligent Therapy Assistant (ITA). The obtained results show an improvement both in the efficiency and the efficacy of the process, comparing the results obtained by patients when they receive treatments scheduled manually by therapists. Finally, an eye-tracking device has been integrated in the tele-rehabilitation platform, carrying out a study with patients and control subjects demonstrating the technical viability of the developed monitoring environment. First results also show that there are differences between the visual attention patterns between ABI patients and control subjects.
Resumo:
RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.
Resumo:
El presente trabajo propone un procedimiento a través del cual un razonador evalúa la información de una base de datos y la clasifica de forma automática en conceptos, relaciones, roles y atributos. Esta clasificación se desarrolla mediante un procedimiento dividido en dos métodos: primero, un Algoritmo de migración el cual genera una ontología con los elementos del esquema relacional de la base de datos. El segundo método es la Estrategia de clasificación de la información, esta consiste en una serie de consultas SPARQL mediante las que se clasifica la información de la base de datos.---ABSTRACT---This paper proposes a method by which a reasoner evaluates information from a database and automatically classifies in concepts, relationships, roles and attributes. This classification is developed through a procedure divided into two methods: first, a migration algorithm which generates an ontology with elements of relational schema database. The second method is the strategy classification of information, this is a series of SPARQL queries through that classified using the information the database.
Resumo:
Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.
Resumo:
La figura del Coordinador de seguridad y salud, como técnico necesario y competente dentro de la actividad edificatoria, surge en España el día 25 de diciembre de 1997, dos meses después de la publicación del Real Decreto 1627/1997, de 24 de octubre, por el que se establecen las disposiciones mínimas de seguridad y salud en las obras de construcción (BOE sábado 25 de octubre de 1997). Dicha figura proviene de la trasposición española de la Directiva 92/57/CEE y como en nuestro país, los diferentes estados miembros de la Unión Europea la introducen en su sector de la construcción de diferentes maneras. Desde su concreta aparición ya han transcurrido casi dieciocho años. Esta “mayoría de edad” relativa a la presencia de los coordinadores dentro de las obras, puede considerarse ya un plazo suficiente, para detenerse y efectuar un estudio desde los diferentes puntos de vista que afectan a dicha figura. Se pretende con el presente estudio optimizar integralmente dicha figura. Para ello se estudia su situación actual en nuestro país. De dicho estudio se establece la estructura de la figura del coordinador, definida en cinco apartados que cubren todos sus aspectos. Junto con el estudio de los mismos, se realizan otros análisis en relación con su funcionamiento en nuestro entorno inmediato (los diferentes miembros de la UE-28), así como otros determinados a definir aspectos necesarios para evaluar su implantación, gestión y responsabilidades adquiridas por los técnicos coordinadores de seguridad en España, a través de su actividad desarrollada tras los dieciocho años de implantación. Completa el estudio su actualidad inmediata y se focaliza en un entorno suficiente para determinar su utilidad. Todo ello, con la finalidad de elevar unas conclusiones que unidas a las necesarias propuestas de actuación, nos permitan concretar la optimización de la figura estudiada. ABSTRACT The figure of the Safety and Health Coordinator, both as a necessary and competent technician within the building activity, was established in Spain on December 25th, 1997, just two months after the publishing of the Real Decreto (Royal Decree) 1627/1997 of 24 October, which implemented the minimum requirements for safety and health in construction sites (BOE Saturday, October 25, 1997). The above mentioned figure develops from the Spanish transposition of Directive 92/57/EEC. And as it has happened in Spain, the rest of the EU members have implemented it in the construction sector in various ways. Almost eighteen years have passed since its enactment. This lapse of time can be considered satisfactory to stop at this point and carry out a study on this new position in construction sites but taking into account different points of view that affect it. The present dissertation attempts to fully optimize the figure of the Safety and Health Coordinator by undertaking a research of its current situation in Spain. This study establishes the organizational structure of the Coordinator’s figure, covering all its aspects in five main headings. Alongside with the study of these five sections, further analyses have been carried out in relation to their performance in our immediate surroundings (the research has been extended to different members of the EU-28). Likewise, different studies have been made to determine the necessary aspects to assess the implementation, management and responsibilities acquired by these Safety and Health Coordinators throughout the last eighteen years. This study is completed with the immediate present and focuses on assess and determine its utility in the future. All this with the aim of raising some conclusions that along with the necessary proposals for action, will allow us to achieve the optimization of the studied figure.
Resumo:
Los procesos de diseño y construcción en Arquitectura han mostrado un desarrollo de optimización históricamente muy deficiente cuando se compara con las restantes actividades típicamente industriales. La aspiración constante a una industrialización efectiva, tanto en aras de alcanzar mayores cotas de calidad así como de ahorro de recursos, recibe hoy una oportunidad inmejorable desde el ámbito informático: el Building Information Modelling o BIM. Lo que en un inicio puede parecer meramente un determinado tipo de programa informático, en realidad supone un concepto de “proceso” que subvierte muchas rutinas hoy habituales en el desarrollo de proyectos y construcciones arquitectónicas. La inclusión y desarrollo de datos ligados al proyecto, desde su inicio hasta el fin de su ciclo de vida, conlleva la oportunidad de crear una realidad virtual dinámica y actualizable, que por añadidura posibilita su ensayo y optimización en todos sus aspectos: antes y durante su ejecución, así como vida útil. A ello se suma la oportunidad de transmitir eficientemente los datos completos de proyecto, sin apenas pérdidas o reelaboración, a la cadena de fabricación, lo que facilita el paso a una industrialización verdaderamente significativa en edificación. Ante una llamada mundial a la optimización de recursos y el interés indudable de aumentar beneficios económicos por medio de la reducción del factor de incertidumbre de los procesos, BIM supone un opción de mejora indudable, y así ha sido reconocido a través de la inminente implantación obligatoria por parte de los gobiernos (p. ej. Gran Bretaña en 2016 y España en 2018). La modificación de procesos y roles profesionales que conlleva la incorporación de BIM resulta muy significativa y marcará el ejercicio profesional de los futuros graduados en las disciplinas de Arquitectura, Ingeniería y Construcción (AEC por sus siglas en inglés). La universidad debe responder ágilmente a estas nuevas necesidades incorporando esta metodología en la enseñanza reglada y aportando una visión sinérgica que permita extraer los beneficios formativos subyacentes en el propio marco BIM. En este sentido BIM, al aglutinar el conjunto de datos sobre un único modelo virtual, ofrece un potencial singularmente interesante. La realidad tridimensional del modelo, desarrollada y actualizada continuamente, ofrece al estudiante una gestión radicalmente distinta de la representación gráfica, en la que las vistas parciales de secciones y plantas, tan complejas de asimilar en los inicios de la formación universitaria, resultan en una mera petición a posteriori, para ser extraída según necesidad del modelo virtual. El diseño se realiza siempre sobre el propio modelo único, independientemente de la vista de trabajo elegida en cada momento, permaneciendo los datos y sus relaciones constructivas siempre actualizados y plenamente coherentes. Esta descripción condensada de características de BIM preconfiguran gran parte de las beneficios formativos que ofrecen los procesos BIM, en especial, en referencia al desarrollo del diseño integrado y la gestión de la información (incluyendo TIC). Destacan a su vez las facilidades en comprensión visual de elementos arquitectónicos, sistemas técnicos, sus relaciones intrínsecas así como procesos constructivos. A ello se une el desarrollo experimental que la plataforma BIM ofrece a través de sus software colaborativos: la simulación del comportamiento estructural, energético, económico, entre otros muchos, del modelo virtual en base a los datos inherentes del proyecto. En la presente tesis se describe un estudio de conjunto para explicitar tanto las cualidades como posibles reservas en el uso de procesos BIM, en el marco de una disciplina concreta: la docencia de la Arquitectura. Para ello se ha realizado una revisión bibliográfica general sobre BIM y específica sobre docencia en Arquitectura, así como analizado las experiencias de distintos grupos de interés en el marco concreto de la enseñanza de la en Arquitectura en la Universidad Europea de Madrid. El análisis de beneficios o reservas respecto al uso de BIM se ha enfocado a través de la encuesta a estudiantes y la entrevista a profesionales AEC relacionados o no con BIM. Las conclusiones del estudio permiten sintetizar una implantación de metodología BIM que para mayor claridad y facilidad de comunicación y manejo, se ha volcado en un Marco de Implantación eminentemente gráfico. En él se orienta sobre las acciones docentes para el desarrollo de competencias concretas, valiéndose de la flexibilidad conceptual de los Planes de Estudio en el contexto del Espacio Europeo de Educación Superior (Declaración de Bolonia) para incorporar con naturalidad la nueva herramienta docente al servicio de los objetivos formativo legalmente establecidos. El enfoque global del Marco de Implementación propuesto facilita la planificación de acciones formativas con perspectiva de conjunto: combinar los formatos puntuales o vehiculares BIM, establecer sinergias transversales y armonizar recursos, de modo que la metodología pueda beneficiar tanto la asimilación de conocimientos y habilidades establecidas para el título, como el propio flujo de aprendizaje o learn flow BIM. Del mismo modo reserva, incluso visualmente, aquellas áreas de conocimiento en las que, al menos en la planificación actual, la inclusión de procesos BIM no se considera ventajosa respecto a otras metodologías, o incluso inadecuadas para los objetivos docentes establecidos. Y es esta última categorización la que caracteriza el conjunto de conclusiones de esta investigación, centrada en: 1. la incuestionable necesidad de formar en conceptos y procesos BIM desde etapas muy iniciales de la formación universitaria en Arquitectura, 2. los beneficios formativos adicionales que aporta BIM en el desarrollo de competencias muy diversas contempladas en el currículum académico y 3. la especificidad del rol profesional del arquitecto que exigirá una implantación cuidadosa y ponderada de BIM que respete las metodologías de desarrollo creativo tradicionalmente efectivas, y aporte valor en una reorientación simbiótica con el diseño paramétrico y fabricación digital que permita un diseño finalmente generativo. ABSTRACT The traditional architectural design and construction procedures have proven to be deficient where process optimization is concerned, particularly when compared to other common industrial activities. The ever‐growing strife to achieve effective industrialization, both in favor of reaching greater quality levels as well as sustainable management of resources, has a better chance today than ever through a mean out of the realm of information technology, the Building Information Modelling o BIM. What may initially seem to be merely another computer program, in reality turns out to be a “process” concept that subverts many of today’s routines in architectural design and construction. Including and working with project data from the very beginning to the end of its full life cycle allows for creating a dynamic and updatable virtual reality, enabling data testing and optimizing throughout: before and during execution, all the way to the end of its lifespan. In addition, there is an opportunity to transmit complete project data efficiently, with hardly any loss or redeveloping of the manufacture chain required, which facilitates attaining a truly significant industrialization within the construction industry. In the presence of a world‐wide call for optimizing resources, along with an undeniable interest in increasing economic benefits through reducing uncertainty factors in its processes, BIM undoubtedly offers a chance for improvement as acknowledged by its imminent and mandatory implementation on the part of governments (for example United Kingdom in 2016 and Spain in 2018). The changes involved in professional roles and procedures upon incorporating BIM are highly significant and will set the course for future graduates of Architecture, Engineering and Construction disciplines (AEC) within their professions. Higher Education must respond to such needs with swiftness by incorporating this methodology into their educational standards and providing a synergetic vision that focuses on the underlying educational benefits inherent in the BIM framework. In this respect, BIM, in gathering data set under one single virtual model, offers a uniquely interesting potential. The three‐dimensional reality of the model, under continuous development and updating, provides students with a radically different graphic environment, in which partial views of elevation, section or plan that tend characteristically to be difficult to assimilate at the beginning of their studies, become mere post hoc requests to be ordered when needed directly out the virtual model. The design is always carried out on the sole model itself, independently of the working view chosen at any particular moment, with all data and data relations within construction permanently updated and fully coherent. This condensed description of the features of BIM begin to shape an important part of the educational benefits posed by BIM processes, particularly in reference to integrated design development and information management (including ITC). At the same time, it highlights the ease with which visual understanding is achieved regarding architectural elements, technology systems, their intrinsic relationships, and construction processes. In addition to this, there is the experimental development the BIM platform grants through its collaborative software: simulation of structural, energetic, and economic behavior, among others, of the virtual model according to the data inherent to the project. This doctoral dissertation presents a broad study including a wide array of research methods and issues in order to specify both the virtues and possible reservations in the use of BIM processes within the framework of a specific discipline: teaching Architecture. To do so, a literature review on BIM has been carried out, specifically concerning teaching in the discipline of Architecture, as well as an analysis of the experience of different groups of interest delimited to Universidad Europea de Madrid. The analysis of the benefits and/or limitations of using BIM has been approached through student surveys and interviews with professionals from the AEC sector, associated or not, with BIM. Various diverse educational experiences are described and academic management for experimental implementation has been analyzed. The conclusions of this study offer a synthesis for a Framework of Implementation of BIM methodology, which in order to reach greater clarity, communication ease and user‐friendliness, have been posed in an eminently graphic manner. The proposed framework proffers guidance on teaching methods conducive to the development of specific skills, taking advantage of the conceptual flexibility of the European Higher Education Area guidelines based on competencies, which naturally facilitate for the incorporation of this new teaching tool to achieve the educational objectives established by law. The global approach of the Implementation Framework put forth in this study facilitates the planning of educational actions within a common perspective: combining exceptional or vehicular BIM formats, establishing cross‐disciplinary synergies, and sharing resources, so as to purport a methodology that contributes to the assimilation of knowledge and pre‐defined competencies within the degree program, and to the flow of learning itself. At the same time, it reserves, even visually, those areas of knowledge in which the use of BIM processes is not considered necessarily an advantage over other methodologies, or even inadequate for the learning outcomes established, at least where current planning is concerned. It is this last category which characterizes the research conclusions as a whole, centering on: 1. The unquestionable need for teaching BIM concepts and processes in Architecture very early on, in the initial stages of higher education; 2. The additional educational benefits that BIM offers in a varied array of competency development within the academic curriculum; and 3. The specific nature of the professional role of the Architect, which demands a careful and balanced implementation of BIM that respects the traditional teaching methodologies that have proven effective and creative, and adds value by a symbiotic reorientation merged with parametric design and digital manufacturing so to enable for a finally generative design.