41 resultados para Medicina basada en la evidencia


Relevância:

100.00% 100.00%

Publicador:

Resumo:

(SPA) La elección de localizaciones para la implantación de actividades industriales es un problema complejo, donde a los criterios de coste y eficiencia se han ido añadiendo otros nuevos relativos tanto al impacto en el medio ambiente como a la imagen de la empresa reflejada en la Responsabilidad Social Empresarial. Los criterios medioambientales han ido adquiriendo gran relevancia en la decisión final, hasta convertirse, gracias a la obligación de someter los proyectos a evaluación ambiental, en elementos clave en la decisión final. Por ello, resulta relativamente frecuente que los promotores consulten previamente con la Administración sobre la viabilidad de sus proyectos antes de iniciar un dilatado procedimiento administrativo. En este trabajo se plantea la utilización de indicadores de sostenibilidad y su aplicación, a través de un modelo de decisiones multicriterio, para la ordenación de las distintas opciones de ubicación inicialmente consideradas, de tal forma que se conviertan en instrumento de tanteo y ayuda en la toma de estas decisiones. Para mostrar su utilidad se propone la utilización de la herramienta de apoyo basada en la metodología PROMETHEE y su aplicación en la ordenación de cinco emplazamientos alternativos para la instalación de una cementera en la Comunidad de Madrid según criterios de sostenibilidad. (ENG) The choice of locations for the implementation of industrial activities is a complex problem where the cost and efficiency criteria have been adding new ones relating to the environment impact and the company’s corporate image reflected in Corporate Social Responsability. The environmental criteria have been getting big importance in the final decision, to become key elements in the final decision, due to the duty of submit of environmental assessment projects. Therefore, promoters, quite often, ask previously to the Administration about the viability of their projects before starting a lengthy administrative procedure. This paper proposes the use of sustainability indicators and their application through a multi-criteria decision model for managing the establishment options initially considered, so that they become an help instrument of estimation in order to making these decisions. To show its usefulness we propose the use of the support tool for decision making based on the PROMETHEE methodology and its application in the management of 5 alternative sites for the installation of a cement factory in the Community of Madrid under sustainability criteria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En MAUT uno de los modelos más usados para representar las preferencias de los decisores es el modelo de utilidad multiatributo aditivo. En muchos problemas reales la determinación de las funciones de utilidad y pesos de cada atributo no pueden ser obtenidos de una forma precisa. En este trabajo consideramos que la imprecisión en las funciones de utilidad queda representada al considerar clases de funciones de utilidad, y la de los pesos mediante una ordenación de los mismos, intervalos de pesos, distribuciones de probabilidad normales o números difusos. La metodología que proponemos para resolver los problemas multiatributo imprecisos está basada en la intensidad de dominancia entre pares de alternativas. Partiendo de la matriz de dominancia se calcula para cada alternativa el valor de dominancia total, en función de la intensidad con la que esta alternativa domina al resto y el resto la domina a ella, el cual nos permitirá obtener la ordenación de las alternativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El empleo de preparados comerciales de levaduras secas inactivas (LSI) se ha generalizado en la industria enológica con el fin de mejorar los procesos tecnológicos, así como las características sensoriales y la eliminación de compuestos indeseables en los vinos. Estos preparados se obtienen por crecimiento de la levadura vínica Saccharomyces cerevisiae en un medio rico en azúcares, y posterior inactivación y secado para obtener un producto en forma de polvo. Su composición puede incluir una fracción soluble procedente del citoplasma de la levadura (péptidos, aminoácidos, proteínas) y una fracción insoluble compuesta principalmente por las paredes celulares. Dependiendo de su composición, los preparados de LSI están indicados para distintas aplicaciones (activadores de la fermentación alcohólica y maloláctica, mejorar el color y el aroma de los vinos, etc). Sin embargo, a pesar de que el empleo de preparados de LSI está cada vez más extendido en la industria enológica, existen pocos estudios científicos encaminados a conocer sus efectos en el vino así como a discernir su modo de acción. Por ello, se ha planteado esta Tesis Doctoral con el principal objetivo de caracterizar la composición química de algunos de los preparados comerciales de LSI que actualmente más se están empleando en la elaboración de los vinos, así como determinar su modo de acción y su efecto tanto en la composición como en las características organolépticas de los vinos. Para la caracterización de preparados de LSI, en primer lugar se ha estudiado la cesión de compuestos nitrogenados y polisacáridos a medios vínicos, así como las diferencias entre preparados procedentes de diferentes casas comerciales e indicados para diferentes aplicaciones durante la vinificación. Los resultados de este estudio mostraron diferencias en la cesión de estos compuestos dependiendo del tipo de vino al que van dirigidos y de la casa comercial de la procedencia. Así, los preparados indicados para la elaboración de vinos tintos liberan una mayor concentración de polisacáridos, que están asociados a una modulación de la astringencia y de la protección del color de los vinos tintos, comparado con los indicados para vinos blancos. Sin embargo en estos últimos se determinó una mayor cesión de aminoácidos libres. Posteriormente, se estudió el efecto de componentes específicos presentes en preparados de LSI en el crecimiento de distintas especies de bacterias lácticas del vino. Se obtuvieron extractos de diferente composición empleando la extracción con fluidos presurizados, y se ensayó su actividad en el crecimiento de cepas bacterianas pertenecientes a las especies Lactobacillus hilgardii, Pediococcus pentosaceus y Oenococcus oeni. Los resultados de este trabajo mostraron que los distintos componentes presentes en los preparados de LSI pueden ejercer un efecto estimulante o inhibidor en el crecimiento de las bacterias lácticas, que depende del tipo de compuesto, de su concentración y de la especie bacteriana a ensayar. Entre los compuestos responsables del efecto estimulante se encuentran tanto aminoácidos esenciales como monosacáridos libres, mientras que los ácidos grasos de cadena corta y larga así como compuestos heterocíclicos volátiles originados por la reacción de Maillard parecen estar directamente implicados en el efecto inhibidor observado. En la tercera parte de este trabajo, se ha evaluado el papel de los preparados comerciales de LSI en el aroma y en las características organolépticas de los vinos. Para ello, empleando vinos sintéticos, se estudiaron por un lado, el efecto que los componentes cedidos por los preparados de LSI podrían tener en la volatilidad de compuestos del aroma ya presentes en el vino, y por otro lado, en la posible cesión al vino de compuestos odorantes presentes en los preparados y originados durante su fabricación. Los resultados de estos estudios pusieron de manifiesto que los preparados de LSI pueden modificar la volatilidad de compuestos del aroma del vino, dependiendo principalmente de las características físico-químicas del compuesto del aroma, del tiempo de permanencia del preparado en el vino y del tipo de preparado de LSI. Por otro lado, gracias al empleo de diferentes técnicas de extracción combinadas, la extracción con fluidos presurizados (PLE) y microextracción en fase sólida en el espacio de cabeza (HS-SPME) y posterior análisis por GO-MS, se caracterizó el perfil volátil de un preparado de LSI representativo del resto de los estudiados y se comprobó que estaba formado tanto por componentes procedentes de la levadura, como ácidos grasos de cadena corta y larga, así como por compuestos volátiles originados durante las etapas de fabricación de los preparados y resultantes de la reacción de Maillard. Se determinó a su vez, que algunos de estos compuestos volátiles, pueden ser cedidos tanto a medios vínicos, como a vinos reales. Concretamente, se comprobó que los preparados indicados para vinificación en blanco liberan una menor concentración de compuestos volátiles, y especialmente, de productos de la reacción de Maillard, que los indicados para vinificación en tinto. Estos compuestos, y principalmente los pertenecientes al grupo de las pirazinas, podrían modificar el perfil sensorial de los vinos, ya que son compuestos con, en general, bajos umbrales de percepción. Para intentar eliminar estos compuestos de los preparados, es decir, para su desodorización, en esta parte del trabajo, también se desarrolló una metodología basada en la extracción con CO2 supercrítico, que permitió la eliminación selectiva de este tipo de compuestos sin provocar modificaciones en su composición no volátil. Debido a la cantidad de preparados de LSI ricos en glutatión (GSH) disponibles en el mercado para mejorar las características sensoriales de los vinos, se estudió la cesión de este compuesto a medios vínicos. Para ello, se puso a punto una metodología que permitiera la cuantificación del GSH en sus diferentes formas (reducido y total), en vinos sintéticos y reales. El método se aplicó para cuantificar la cantidad de GSH aportada por los LSI a los vinos. Los resultados mostraron que los preparados de LSI indicados para vinificación en blanco y rosado liberaron, inmediatamente tras su adición a medios vínicos sintéticos, ♯y-glutamil-cisteína y GSH principalmente en su forma reducida a mayores concentraciones que los preparados indicados para otras aplicaciones. Por otro lado, se aislaron las fracciones de peso molecular <3000 Da de preparados de LSI y se emplearon para suplementar vinos sintéticos aromatizados con terpenos y sometidos a condiciones de envejecimiento acelerado. Los resultados revelaron una reducción en la oxidación por parte de las fracciones aisladas tanto de preparados de LSI ricos en glutatión como de preparados empleados como nutrientes de fermentación. Esta reducción era incluso mayor que cuando se empleaba el glutatión comercial, lo que indicaba la presencia de otros compuestos con propiedades antioxidantes. Finalmente, para conocer el efecto de los preparados de LSI a escala de bodega, se elaboraron a escala industrial dos tipos de vinos, con y sin la adición de un preparado de LSI rico en GSH, a escala industrial. En estos vinos, se determino el contenido en glutatión, y la evolución del color y de la composición fenólica y volátil durante la vinificación y a lo largo del envejecimiento en botella. Los resultados de este trabajo mostraron la capacidad del preparado de LSI de ceder glutatión en su forma reducida, aunque esté es rápidamente oxidado durante la fermentación alcohólica. Sin embargo, se comprobó que los vinos elaborados con el preparado presentaron mayor estabilidad de color y aroma a lo largo del envejecimiento en botella. De hecho, a los 9 meses de envejecimiento, se encontraron diferencias sensoriales entre los vinos con y sin el preparado. Sin embargo, estas diferencias sensoriales no fueron suficientes para que en el estudio de preferencia que se llevó a cabo con los mismos vinos, los consumidores mostraran preferencia hacia los vinos elaborados con el preparado de LSI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesis Doctoral está organizada de la siguiente manera, la primera parte es la introducción e incluye los capítulos 1 y 2 en los que se plantea la problemática general puerto-ciudad y los antecedentes históricos en la evolución de los puertos y su relación con las ciudades. A continuación en el capítulo 3 se realiza una revisión de literatura repasando algunos de los estudios e investigaciones que han inspirado esta Tesis Doctoral. Posteriormente en el capítulo 4 se exponen las bases de partida que sirve para fundamentar la propuesta metodológica que se expone en el capítulo 5 basada en la aplicación del método AHP sobre una relación de índices e indicadores producto de la investigación. Finalmente, el capítulo 6 presenta las conclusiones y las líneas de investigación que quedan abiertas. This Thesis is organized as follows, the first part is the introduction and includes chapters 1 and 2 in which the general problem and historical background of the port-city relationship are presented. Then in chapter 3 a literature review is done by reviewing some of the studies and researches that have inspired this research. Later in chapter 5 the methodology based on the application of AHP (Analytic Hierarchy Process) method is formulated. This methodology uses a list of indicators deduced from the previous chapters. Finally, Chapter 6 presents the conclusions and suggests future research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo se basa en la filosofía de la Construcción sin Pérdidas (“Lean Construction”), analizando la situación de esta filosofía en el sector de la edificación en el contexto internacional y español, respondiendo las siguientes preguntas: 1. ¿Cómo surge el “Lean Construction”? 2. ¿Cuáles son sus actividades, funciones y cometidos? 3. ¿Existe regulación del ¨Lean Construction” en otros países? 4. ¿Existe demanda del ¨Lean Construction” en España? 5. ¿Existe regulación del ¨Lean Construction” en España? 6. ¿Cómo debería ser la regulación ¨Lean Construction” en España? 7. ¿Cuál es la relación del “Lean Construction” con el “Project & Construction Management”? 8. ¿Cómo debería ser la regulación de “Lean Construction” en España considerando su relación con el “Project & Construction Management”? Las preguntas indicadas las hemos respondido detalladamente en el presente trabajo, a continuación se resume las respuestas a dichas preguntas: 1. El “Lean Construction” surge en agosto de 1992, cuando el investigador finlandés Lauri Koskela publicó en la Universidad de Stanford el reporte TECHNICAL REPORT N° 72 titulado “Application of the New Production Philosophy to Construction”. Un año más tarde el Dr. Koskela invitó a un grupo de especialistas en construcción al primer workshop de esta materia en Finlandia, dando origen al International Group for Lean Construction (IGLC) lo que ha permitido extender la filosofía a EEUU, Europa, América, Asia, Oceanía y África. “Lean Construction” es un sistema basado en el enfoque “Lean Production” desarrollado en Japón por Toyota Motors a partir de los años cincuenta, sistema que permitió a sus fábricas producir unidades con mayor eficiencia que las industrias americanas, con menores recursos, en menor tiempo, y con un número menor de errores de fabricación. 2. El sistema “Lean Construction” busca maximizar el valor y disminuir las pérdidas de los proyectos generando una coordinación eficiente entre los involucrados, manejando un proyecto como un sistema de producción, estrechando la colaboración entre los participantes de los proyectos, capacitándoles y empoderándoles, fomentando una cultura de cambio. Su propósito es desarrollar un proceso de construcción en el que no hayan accidentes, ni daños a equipos, instalaciones, entorno y comunidad, que se realice en conformidad con los requerimientos contractuales, sin defectos, en el plazo requerido, respetando los costes presupuestados y con un claro enfoque en la eliminación o reducción de las pérdidas, es decir, las actividades que no generen beneficios. El “Last Planner System”, o “Sistema del Último Planificador”, es un sistema del “Lean Construction” que por su propia naturaleza protege a la planificación y, por ende, ayuda a maximizar el valor y minimizar las pérdidas, optimizando de manera sustancial los sistemas de seguridad y salud. El “Lean Construction” se inició como un concepto enfocado a la ejecución de las obras, posteriormente se aplicó la filosofía a todas las etapas del proyecto. Actualmente considera el desarrollo total de un proyecto, desde que nace la idea hasta la culminación de la obra y puesta en marcha, considerando el ciclo de vida completo del proyecto. Es una filosofía de gestión, metodologías de trabajo y una cultura empresarial orientada a la eficiencia de los procesos y flujos. La filosofía “Lean Construction” se está expandiendo en todo el mundo, además está creciendo en su alcance, influyendo en la gestión contractual de los proyectos. Su primera evolución consistió en la creación del sistema “Lean Project Delivery System”, que es el concepto global de desarrollo de proyectos. Posteriormente, se proponen el “Target Value Design”, que consiste en diseñar de forma colaborativa para alcanzar los costes y el valor requerido, y el “Integrated Project Delivery”, en relación con sistemas de contratos relacionales (colaborativos) integrados, distintos a los contratos convencionales. 3. Se verificó que no existe regulación específica del ¨Lean Construction” en otros países, en otras palabras, no existe el agente con el nombre específico de “Especialista en Lean Construction” o similar, en consecuencia, es un agente adicional en el proyecto de la edificación, cuyas funciones y cometidos se pueden solapar con los del “Project Manager”, “Construction Manager”, “Contract Manager”, “Safety Manager”, entre otros. Sin embargo, se comprobó la existencia de formatos privados de contratos colaborativos de Integrated Project Delivery, los cuales podrían ser tomados como unas primeras referencias para futuras regulaciones. 4. Se verificó que sí existe demanda del ¨Lean Construction” en el desarrollo del presente trabajo, aunque aún su uso es incipiente, cada día existe más interesados en el tema. 5. No existe regulación del ¨Lean Construction” en España. 6. Uno de los objetivos fundamentales de esta tesis es el de regular esta figura cuando actúe en un proyecto, definir y realizar una estructura de Agente de la Edificación, según la Ley de Ordenación de la Edificación (LOE), y de esta manera poder introducirla dentro de la Legislación Española, protegiéndola de eventuales responsabilidades civiles. En España existe jurisprudencia (sentencias de los tribunales de justicia españoles) con jurisdicción civil basada en la LOE para absolver o condenar a agentes de la edificación que son definidos en los tribunales como “gestores constructivos” o similares. Por este motivo, en un futuro los tribunales podrían dictaminar responsabilidades solidarias entre el especialista “Lean Construction” y otros agentes del proyecto, dependiendo de sus actuaciones, y según se implemente el “Lean Project Delivery System”, el “Target Value Design” y el “Integrated Project Delivery”. Por otro lado, es posible que el nivel de actuación del especialista “Lean Construcción” pueda abarcar la gestión del diseño, la gestión de la ejecución material (construcción), la gestión de contratos, o la gestión integral de todo el proyecto de edificación, esto último, en concordancia con la última Norma ISO 21500:2012 o UNE-ISO 21500:2013 Directrices para la dirección y gestión de proyectos. En consecuencia, se debería incorporar adecuadamente a uno o más agentes de la edificación en la LOE de acuerdo a sus funciones y responsabilidades según los niveles de actuación del “Especialista en Lean Construction”. Se propone la creación de los siguientes agentes: Gestor del Diseño, Gestor Constructivo y Gestor de Contratos, cuyas definiciones están desarrolladas en este trabajo. Estas figuras son definidas de manera general, puesto que cualquier “Project Manager” o “DIPE”, gestor BIM (Building Information Modeling), o similar, puede actuar como uno o varios de ellos. También se propone la creación del agente “Gestor de la Construcción sin Pérdidas”, como aquel agente que asume las actuaciones del “gestor de diseño”, “gestor constructivo” y “gestor de contratos” con un enfoque en los principios del Lean Production. 7. En la tesis se demuestra, por medio del uso de la ISO 21500, que ambos sistemas son complementarios, de manera que los proyectos pueden tener ambos enfoques y ser compatibilizados. Un proyecto que use el “Project & Construction Management” puede perfectamente apoyarse en las herramientas y técnicas del “Lean Construction” para asegurar la eliminación o reducción de las pérdidas, es decir, las actividades que no generen valor, diseñando el sistema de producción, el sistema de diseño o el sistema de contratos. 8. Se debería incorporar adecuadamente al agente de la edificación “Especialista en Lean Construction” o similar y al agente ¨Especialista en Project & Construction Management” o DIPE en la Ley de Ordenación de la Edificación (LOE) de acuerdo a sus funciones y responsabilidades, puesto que la jurisprudencia se ha basado para absolver o condenar en la referida Ley. Uno de los objetivos fundamentales de esta tesis es el de regular la figura del “Especialista en Lean Construction” cuando actúa simultáneamente con el DIPE, y realizar una estructura de Agente de la Edificación según la LOE, y de esta manera protegerlo de eventuales responsabilidades solidarias. Esta investigación comprueba que la propuesta de definición del agente de edificación DIPE, según la LOE, presentada en la tesis doctoral del Doctor Manuel Soler Severino es compatible con las nuevas definiciones propuestas. El agente DIPE puede asumir los roles de los diferentes gestores propuestos en esta tesis si es que se especializa en dichas materias, o, si lo estima pertinente, recomendar sus contrataciones. ABSTRACT This work is based on the Lean Construction philosophy; an analysis is made herein with regard to the situation of this philosophy in the building sector within the international and Spanish context, replying to the following questions: 1. How did the concept of Lean Construction emerge? 2. Which are the activities, functions and objectives of Lean Construction? 3. Are there regulations on Lean Construction in other countries? 4. Is there a demand for Lean Construction in Spain? 5. Are there regulations on Lean Construction in Spain? 6. How should regulations on Lean Construction be developed in Spain? 7. What is the relationship between Lean Construction and the Project & Construction Management? 8. How should regulations on Lean Construction be developed in Spain considering its relationship with the Project & Construction Management? We have answered these questions in detail here and the replies are summarized as follows: 1. The concept of Lean Construction emerged in august of 1992, when Finnish researcher Lauri Koskela published in Stanford University TECHNICAL REPORT N° 72 entitled “Application of the New Production Philosophy to Construction”. A year later, Professor Koskela invited a group of construction specialists to Finland to the first workshop conducted on this matter; thus, the International Group for Lean Construction (IGLC) was established, which has contributed to extending the philosophy to the United States, Europe, the Americas, Asia, Oceania, and Africa. Lean Construction is a system based on the Lean Production approach, which was developed in Japan by Toyota Motors in the 1950s. Thanks to this system, the Toyota plants were able to produce more units, with greater efficiency than the American industry, less resources, in less time, and with fewer manufacturing errors. 2. The Lean Construction system aims at maximizing the value of projects while reducing waste, producing an effective coordination among those involved; it manages projects as a production system, enhancing collaboration between the parties that participate in the projects while building their capacities, empowering them, and promoting a culture of change. Its purpose is to develop a construction process free of accidents, without damages to the equipment, facilities, environment and community, flawless, in accordance with contractual requirements, within the terms established, respecting budgeted costs, and with a clear approach to eliminating or reducing waste, that is, activities that do not generate benefits. The Last Planner System is a Lean Construction system, which by its own nature protects planning and, therefore, helps to maximize the value and minimize waste, optimizing substantially the safety and health systems. Lean Construction started as a concept focused on the execution of works, and subsequently the philosophy was applied to all the stages of the project. At present it considers the project’s total development, since the time ideas are born until the completion and start-up of the work, taking into account the entire life cycle of the project. It is a philosophy of management, work methodologies, and entrepreneurial culture aimed at the effectiveness of processes and flows. The Lean Construction philosophy is extending all over the world and its scope is becoming broader, having greater influence on the contractual management of projects. It evolved initially through the creation of the Lean Project Delivery System, a global project development concept. Later on, the Target Value Design was developed, based on collaborative design to achieve the costs and value required, as well as the Integrated Project Delivery, in connection with integrated relational (collaborative) contract systems, as opposed to conventional contracts. 3. It was verified that no specific regulations on Lean Construction exist in other countries, in other words, there are no agents with the specific name of “Lean Construction Specialist” or other similar names; therefore, it is an additional agent in building projects, which functions and objectives can overlap those of the Project Manager, Construction Manager, Contract Manager, or Safety Manager, among others. However, the existence of private collaborative contracts of Integrated Project Delivery was confirmed, which could be considered as first references for future regulations. 4. There is a demand for Lean Construction in the development of this work; even though it is still emerging, there is a growing interest in this topic. 5. There are no regulations on Lean Construction in Spain. 6. One of the main objectives of this thesis is to regulate this role when acting in a project, and to define and develop a Building Agent structure, according to the Building Standards Law (LOE by its acronym in Spanish), in order to be able to incorporate it into the Spanish law, protecting it from civil liabilities. In Spain there is jurisprudence in civil jurisdiction based on the LOE to acquit or convict building agents, which are defined in the courts as “construction managers” or similar. For this reason, courts could establish in the future joint and several liabilities between the Lean Construction Specialist and other agents of the project, depending on their actions and based on the implementation of the Lean Project Delivery System, the Target Value Design, and the Integrated Project Delivery. On the other hand, it is possible that the level of action of the Lean Construction Specialist may comprise design management, construction management and contract management, or the integral management of the entire building project in accordance with the last ISO 21500:2012 or UNE-ISO 21500:2013, guidelines for the management of projects. Accordingly, one or more building agents should be appropriately incorporated into the LOE according to their functions and responsibilities and based on the levels of action of the Lean Construction Specialist. The creation of the following agents is proposed: Design Manager, Construction Manager, and Contract Manager, which definitions are developed in this work. These agents are defined in general, since any Project Manager or DIPE, Building Information Modeling (BIM) Manager or similar, may act as one or as many of them. The creation of the Lean Construction Manager is also proposed, as the agent that takes on the role of the Design Manager, Construction Manager and Contract Manager with a focus on the Lean Production principles. 7. In the thesis it is demonstrated that through the implementation of the ISO 21500, both systems are supplementary, so projects may have both approaches and be compatible. A project that applies the Project & Construction Management may perfectly have the support of the tools, techniques and practices of Lean Construction to ensure the elimination or reduction of losses, that is, those activities that do not generate value, thus designing the production system, the design system, or the contract system. 8. The Lean Construction Specialist or similar and the Specialist in Project & Construction Management should be incorporated appropriately into the LOE according to their functions and responsibilities, since jurisprudence has been based on such Law to acquit or convict. One of the main objectives of this thesis is the regulate the role of the Lean Construction Specialist when acting simultaneously with the DIPE, and to develop a structure of the building agent, according to the LOE, and in this way protect such agent from joint and several liabilities. This research proves that the proposal to define the DIPE building agent, according to the LOE, and presented in the doctoral dissertation of Manuel Soler Severino, Ph.D. is compatible with the new definitions proposed. The DIPE agent may assume the roles of the different managers proposed in this thesis if he specializes in those topics or, if deemed pertinent, recommends that they be engaged.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar los aspectos fundamentales de la obra del paisajista norteamericano Dan Kiley a través del ejemplo de la casa Miller en Columbus, Indiana. A la hora de abordar el estudio se ha tratado por una parte de estudiar y explicar cuánto hay de relevante en esta obra, pero también de situarla en su contexto. Éste es, además, múltiple: el de la obra, de su autor, el del lugar en que se encuentra y el del momento cultural e histórico en que se produce. En el caso de la casa Miller, la autoría es compartida, y el resultado final, como ocurre en muchos casos de viviendas unifamiliares, responde a un carácter coral, en el que los protagonistas son varios, con mayor o menor influencia, pero indispensables todos ellos en la visión final de conjunto. El primero de los aspectos a considerar son los antecedentes que la han hecho posible ya que el entorno que conforma el universo de Dan Kiley hasta llegar a Columbus es fundamental para entender las circunstancias de partida de una obra como la casa Miller: sus años previos a la universidad, su particular relación con el paisaje a través de sus diferentes trabajos, su extenso conocimiento de las especies de plantas y la experiencia acumulada trabajando para Warren Manning, como la formación basada en la enseñanza, herencia de Olsmted y de las Bellas Artes. Después, sus compañeros de Harvard Eckbo y Rose, la influencia dentro de la universidad tanto de Walter Gropius como de los paisajistas Thomas Church o Christopher Tunnard y de los jardines realizados en Europa durante las primeras décadas del siglo XX conocidos a través de las publicaciones y de la arquitectura de Mies van der Rohe. Años más tarde, después de haber abandonado Harvard, la decisiva influencia de Eero Saarinen y también la de sus relaciones con los diversos colaboradores, los primeros viajes a Europa y con ello la posibilidad de visitar las grandes obras de Le Nôtre. Por otro lado, y en paralelo, la biografía de Irwin Miller, propietario de la casa, nos lleva hasta el momento en el que se ponen en contacto las tres figuras clave para el inicio de las obras (Miller, Saarinen y Kiley) terminando de situar a la casa Miller en el contexto biográfico de su creación. El análisis del lugar, una ciudad tan especial como Columbus, nos remite continuamente a la figura de Irwin Miller, manteniendo siempre una relación indisoluble entre este singular patrono y su ciudad, materializada en la creación del Architecture Program. La primera parte del trabajo aborda estos temas, alternando entre una figura y otra, aunque todas las partes se encuentran ligadas entre sí. En la segunda parte de la tesis se analiza en profundidad primero la casa Miller y después con una mayor precisión los jardines: su esquema compositivo general, sus tres partes diferenciadas y dentro de ellas las sucesivas subpartes que las componen. El análisis se estructura en tres fases: una primera descriptiva del desarrollo del proyecto hasta su materialización en la obra, la siguiente que analiza lo realmente ejecutado y por último los cambios sufridos a lo largo del tiempo. En cuanto al análisis propio de la casa y los jardines, la información de los planos, así como de las fotografías familiares, junto con las imágenes más oficiales de la casa pertenecientes a Ezra Stoller y Balthazar Korab, permitirá conocer los cambios producidos a lo largo del tiempo debidos a diversos factores, como el cambio de criterio en cuanto al uso o decisiones personales del matrimonio Miller: sustitución de plantas y árboles, desaparición de elementos curiosos como las cascadas del techo de uno de los porches, o aparición de elementos singulares que formaran parte de las visiones ya clásicas de la casa, como la escultura de Henry Moore. La tercera parte de la tesis describe la influencia de los jardines de Le Nôtre en el jardín de la casa Miller, gracias a la utilización y adaptación de numerosos recursos del jardín barroco francés, y se configura, junto con el análisis de las obras de jardín doméstico más significativas de Kiley en su obra posterior a la Miller, como el análisis final de todo el trabajo. La utilización de estos instrumentos depurados bajo una estética formal propia del movimiento moderno tiene una singularidad única en los jardines de la Miller, y a pesar de que a lo largo de su carrera Dan Kiley convirtió esta utilización en una constante, no logró la armonía demostrada en esta residencia de Columbus en ninguno de los jardines posteriores en cuanto a forma, escala, relación entre las partes, respuesta a las necesidades de uso y de evolución a lo largo del tiempo. ABSTRACT The purpose of this thesis is to study the fundamental aspects of the work of the american landscape architect Dan Kiley through the example of the Miller House in Columbus, Indiana. When addressing the study it was treated on the one hand to study and explain how much is relevant in this work, but also put it into context. This is also multiple: the work, its author, the place where it lands and the cultural and historical context in which it occurs. In the case of the Miller house, the authorship is shared, and the end result, as in many cases houses, responds to a coral nature, in which the protagonists are several, with more or less influence on it, but indispensable all of them in the final overview. The first aspect to be considered are the antecedents that made it possible, because the environment which forms the universe of Dan Kiley to reach Columbus is essential to understand the circumstances of departure for a work like the Miller house: his previous years of college, his particular relationship with the landscape through his different jobs, his extensive knowledge of species of plants and the accumulated experience working for Warren Manning, and also the training based on Olmsted and Beaux Arts heritage . After that, his Harvard fellows Eckbo and Rose, the influence from Walter Gropius Thomas Church and Christopher Tunnard within the university, and also the landscape and garden made in Europe during the first decades of the twentieth century known through publications and the architecture of Mies van der Rohe. Years later, after leaving Harvard , the decisive influence of Eero Saarinen and also his relationships with various partners, the first trips to Europe and therefore the opportunity to visit the great works of Le Nôtre. On the other hand, and in parallel, Irwin Miller´s biography, owner of the house, takes us to the time when the three key figures come into contact to the start the construction (Miller, Saarinen and Kiley) putting the Miller house into the biographical context of its creation. The analysis of the place, a very special city like Columbus, continually refers us to Irwin Miller´s figure while maintaining an indissoluble relationship between employer and this unique city, materialized in the creation of the Architecture Program. The first part of the work deals with these issues, alternating between one figure and another, although all parties are linked. The second part of the thesis analyzes in depth Miller´s house and then with greater precision the gardens: its overall compositional scheme, its three distinct parts and within them the successive subparts that compose the garden The analysis is divided into three phases: the first one is focused in the project development to its materialization in the final work, the second one which analyzes what is really executed and finally the changes undergone over time. As for the own analysis of the house and gardens, the information drawings, as well as family photographs, along with the official pictures of the house belonging to Ezra Stoller and Balthazar Korab, will reveal the changes throughout time due to various factors, as the change in criterion for the use, or Miller´s marriage personal decisions: replacement of plants and trees, disappearance of curious elements like waterfalls roof of one of the porches, or appearance of single elements that now have become part of the classic visions of the house, like the sculpture of Henry Moore. The third part of the thesis describes the influence of the gardens of Le Nôtre in the garden of Miller´s house, through the use and adaptation of numerous resources from the French Baroque garden, and it is configured as the final analysis of of the work, also with the description of Kiley´s most significant post-Miller one family housing gardens. The use of these released under its own formal aesthetics of modernism instruments has a unique singularity in the gardens of the Miller´s , and although Dan Kiley turned this use in a constant throughout his career, he never got to the harmony demonstrated in Columbus residence in any of the later gardens in form, scale, relationship between the parties, responding to the needs of use and evolution over time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hoy en día, por primera vez en la historia, la mayor parte de la población podrá vivir hasta los sesenta años y más (United Nations, 2015). Sin embargo, todavía existe poca evidencia que demuestre que las personas mayores, estén viviendo con mejor salud que sus padres, a la misma edad, ya que la mayoría de los problemas de salud en edades avanzadas están asociados a las enfermedades crónicas (WHO, 2015). Los sistemas sanitarios de los países desarrollados funcionan adecuadamente cuando se trata del cuidado de enfermedades agudas, pero no son lo suficientemente eficaces en la gestión de las enfermedades crónicas. Durante la última década, se han realizado esfuerzos para mejorar esta gestión, por medio de la utilización de estrategias de prevención y de reenfoque de la provisión de los servicios de atención para la salud (Kane et al. 2005). Según una revisión sistemática de modelos de cuidado de salud, comisionada por el sistema nacional de salud Británico, pocos modelos han conceptualizado cuáles son los componentes que hay que utilizar para proporcionar un cuidado crónico efectivo, y estos componentes no han sido suficientemente estructurados y articulados. Por lo tanto, no hay suficiente evidencia sobre el impacto real de cualquier modelo existente en la actualidad (Ham, 2006). Las innovaciones podrían ayudar a conseguir mejores diagnósticos, tratamientos y gestión de pacientes crónicos, así como a dar soporte a los profesionales y a los pacientes en el cuidado. Sin embargo, la forma en las que estas innovaciones se proporcionan no es lo suficientemente eficiente, efectiva y amigable para el usuario. Para mejorar esto, hace falta crear equipos de trabajo y estrategias multidisciplinares. En conclusión, hacen falta actividades que permitan conseguir que las innovaciones sean utilizadas en los sistemas de salud que quieren mejorar la gestión del cuidado crónico, para que sea posible: 1) traducir la “atención sanitaria basada en la evidenciaen “conocimiento factible”; 2) hacer frente a la complejidad de la atención sanitaria a través de una investigación multidisciplinaria; 3) identificar una aproximación sistemática para que se establezcan intervenciones innovadoras en el cuidado de salud. El marco de referencia desarrollado en este trabajo de investigación es un intento de aportar estas mejoras. Las siguientes hipótesis han sido propuestas: Hipótesis 1: es posible definir un proceso de traducción que convierta un modelo de cuidado crónico en una descripción estructurada de objetivos, requisitos e indicadores clave de rendimiento. Hipótesis 2: el proceso de traducción, si se ejecuta a través de elementos basados en la evidencia, multidisciplinares y de orientación económica, puede convertir un modelo de cuidado crónico en un marco descriptivo, que define el ciclo de vida de soluciones innovadoras para el cuidado de enfermedades crónicas. Hipótesis 3: es posible definir un método para evaluar procesos, resultados y capacidad de desarrollar habilidades, y asistir equipos multidisciplinares en la creación de soluciones innovadoras para el cuidado crónico. Hipótesis 4: es posible dar soporte al desarrollo de soluciones innovadoras para el cuidado crónico a través de un marco de referencia y conseguir efectos positivos, medidos en indicadores clave de rendimiento. Para verificar las hipótesis, se ha definido una aproximación metodológica compuesta de cuatro Fases, cada una asociada a una hipótesis. Antes de esto, se ha llevado a cabo una “Fase 0”, donde se han analizado los antecedentes sobre el problema (i.e. adopción sistemática de la innovación en el cuidado crónico) desde una perspectiva multi-dominio y multi-disciplinar. Durante la fase 1, se ha desarrollado un Proceso de Traducción del Conocimiento, elaborado a partir del JBI Joanna Briggs Institute (JBI) model of evidence-based healthcare (Pearson, 2005), y sobre el cual se han definido cuatro Bloques de Innovación. Estos bloques consisten en una descripción de elementos innovadores, definidos en la fase 0, que han sido añadidos a los cuatros elementos que componen el modelo JBI. El trabajo llevado a cabo en esta fase ha servido también para definir los materiales que el proceso de traducción tiene que ejecutar. La traducción que se ha llevado a cabo en la fase 2, y que traduce la mejor evidencia disponible de cuidado crónico en acción: resultado de este proceso de traducción es la parte descriptiva del marco de referencia, que consiste en una descripción de un modelo de cuidado crónico (se ha elegido el Chronic Care Model, Wagner, 1996) en términos de objetivos, especificaciones e indicadores clave de rendimiento y organizada en tres ciclos de innovación (diseño, implementación y evaluación). Este resultado ha permitido verificar la segunda hipótesis. Durante la fase 3, para demostrar la tercera hipótesis, se ha desarrollado un método-mixto de evaluación de equipos multidisciplinares que trabajan en innovaciones para el cuidado crónico. Este método se ha creado a partir del método mixto usado para la evaluación de equipo multidisciplinares translacionales (Wooden, 2013). El método creado añade una dimensión procedural al marco. El resultado de esta fase consiste, por lo tanto, en una primera versión del marco de referencia, lista para ser experimentada. En la fase 4, se ha validado el marco a través de un caso de estudio multinivel y con técnicas de observación-participante como método de recolección de datos. Como caso de estudio se han elegido las actividades de investigación que el grupo de investigación LifeStech ha desarrollado desde el 2008 para mejorar la gestión de la diabetes, actividades realizadas en un contexto internacional. Los resultados demuestran que el marco ha permitido mejorar las actividades de trabajo en distintos niveles: 1) la calidad y cantidad de las publicaciones; 2) se han conseguido dos contratos de investigación sobre diabetes: el primero es un proyecto de investigación aplicada, el segundo es un proyecto financiado para acelerar las innovaciones en el mercado; 3) a través de los indicadores claves de rendimiento propuestos en el marco, una prueba de concepto de un prototipo desarrollado en un proyecto de investigación ha sido transformada en una evaluación temprana de una intervención eHealth para el manejo de la diabetes, que ha sido recientemente incluida en Repositorio de prácticas innovadoras del Partenariado de Innovación Europeo en Envejecimiento saludable y activo. La verificación de las 4 hipótesis ha permitido demonstrar la hipótesis principal de este trabajo de investigación: es posible contribuir a crear un puente entre la atención sanitaria y la innovación y, por lo tanto, mejorar la manera en que el cuidado crónico sea procurado en los sistemas sanitarios. ABSTRACT Nowadays, for the first time in history, most people can expect to live into their sixties and beyond (United Nations, 2015). However, little evidence suggests that older people are experiencing better health than their parents, and most of the health problems of older age are linked to Chronic Diseases (WHO, 2015). The established health care systems in developed countries are well suited to the treatment of acute diseases but are mostly inadequate for dealing with CDs. Healthcare systems are challenging the burden of chronic diseases by putting more emphasis on the prevention of disease and by looking for new ways to reorient the provision of care (Kane et al., 2005). According to an evidence-based review commissioned by the British NHS Institute, few models have conceptualized effective components of care for CDs and these components have been not structured and articulated. “Consequently, there is limited evidence about the real impact of any of the existing models” (Ham, 2006). Innovations could support to achieve better diagnosis, treatment and management for patients across the continuum of care, by supporting health professionals and empowering patients to take responsibility. However, the way they are delivered is not sufficiently efficient, effective and consumer friendly. The improvement of innovation delivery, involves the creation of multidisciplinary research teams and taskforces, rather than just working teams. There are several actions to improve the adoption of innovations from healthcare systems that are tackling the epidemics of CDs: 1) Translate Evidence-Based Healthcare (EBH) into actionable knowledge; 2) Face the complexity of healthcare through multidisciplinary research; 3) Identify a systematic approach to support effective implementation of healthcare interventions through innovation. The framework proposed in this research work is an attempt to provide these improvements. The following hypotheses have been drafted: Hypothesis 1: it is possible to define a translation process to convert a model of chronic care into a structured description of goals, requirements and key performance indicators. Hypothesis 2: a translation process, if executed through evidence-based, multidisciplinary, holistic and business-oriented elements, can convert a model of chronic care in a descriptive framework, which defines the whole development cycle of innovative solutions for chronic disease management. Hypothesis 3: it is possible to design a method to evaluate processes, outcomes and skill acquisition capacities, and assist multidisciplinary research teams in the creation of innovative solutions for chronic disease management. Hypothesis 4: it is possible to assist the development of innovative solutions for chronic disease management through a reference framework and produce positive effects, measured through key performance indicators. In order to verify the hypotheses, a methodological approach, composed of four Phases that correspond to each one of the stated hypothesis, was defined. Prior to this, a “Phase 0”, consisting in a multi-domain and multi-disciplinary background analysis of the problem (i.e.: systematic adoption of innovation to chronic care), was carried out. During phase 1, in order to verify the first hypothesis, a Knowledge Translation Process (KTP) was developed, starting from the JBI Joanna Briggs Institute (JBI) model of evidence-based healthcare was used (Pearson, 2005) and adding Four Innovation Blocks. These blocks represent an enriched description, added to the JBI model, to accelerate the transformation of evidence-healthcare through innovation; the innovation blocks are built on top of the conclusions drawn after Phase 0. The background analysis gave also indication on the materials and methods to be used for the execution of the KTP, carried out during phase 2, that translates the actual best available evidence for chronic care into action: this resulted in a descriptive Framework, which is a description of a model of chronic care (the Chronic Care Model was chosen, Wagner, 1996) in terms of goals, specified requirements and Key Performance Indicators, and articulated in the three development cycles of innovation (i.e. design, implementation and evaluation). Thanks to this result the second hypothesis was verified. During phase 3, in order to verify the third hypothesis, a mixed-method to evaluate multidisciplinary teams working on innovations for chronic care, was created, based on a mixed-method used for the evaluation of Multidisciplinary Translational Teams (Wooden, 2013). This method adds a procedural dimension to the descriptive component of the Framework, The result of this phase consisted in a draft version of the framework, ready to be tested in a real scenario. During phase 4, a single and multilevel case study, with participant-observation data collection, was carried out, in order to have a complete but at the same time multi-sectorial evaluation of the framework. The activities that the LifeStech research group carried out since 2008 to improve the management of diabetes have been selected as case study. The results achieved showed that the framework allowed to improve the research activities in different directions: the quality and quantity of the research publications that LifeStech has issued, have increased substantially; 2 project grants to improve the management of diabetes, have been assigned: the first is a grant funding applied research while the second is about accelerating innovations into the market; by using the assessment KPIs of the framework, the proof of concept validation of a prototype developed in a research project was transformed into an early stage assessment of innovative eHealth intervention for Diabetes Management, which has been recently included in the repository of innovative practice of the European Innovation Partnership on Active and Health Ageing initiative. The verification of the 4 hypotheses lead to verify the main hypothesis of this research work: it is possible to contribute to bridge the gap between healthcare and innovation and, in turn, improve the way chronic care is delivered by healthcare systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante los últimos años, el imparable crecimiento de fuentes de datos biomédicas, propiciado por el desarrollo de técnicas de generación de datos masivos (principalmente en el campo de la genómica) y la expansión de tecnologías para la comunicación y compartición de información ha propiciado que la investigación biomédica haya pasado a basarse de forma casi exclusiva en el análisis distribuido de información y en la búsqueda de relaciones entre diferentes fuentes de datos. Esto resulta una tarea compleja debido a la heterogeneidad entre las fuentes de datos empleadas (ya sea por el uso de diferentes formatos, tecnologías, o modelizaciones de dominios). Existen trabajos que tienen como objetivo la homogeneización de estas con el fin de conseguir que la información se muestre de forma integrada, como si fuera una única base de datos. Sin embargo no existe ningún trabajo que automatice de forma completa este proceso de integración semántica. Existen dos enfoques principales para dar solución al problema de integración de fuentes heterogéneas de datos: Centralizado y Distribuido. Ambos enfoques requieren de una traducción de datos de un modelo a otro. Para realizar esta tarea se emplean formalizaciones de las relaciones semánticas entre los modelos subyacentes y el modelo central. Estas formalizaciones se denominan comúnmente anotaciones. Las anotaciones de bases de datos, en el contexto de la integración semántica de la información, consisten en definir relaciones entre términos de igual significado, para posibilitar la traducción automática de la información. Dependiendo del problema en el que se esté trabajando, estas relaciones serán entre conceptos individuales o entre conjuntos enteros de conceptos (vistas). El trabajo aquí expuesto se centra en estas últimas. El proyecto europeo p-medicine (FP7-ICT-2009-270089) se basa en el enfoque centralizado y hace uso de anotaciones basadas en vistas y cuyas bases de datos están modeladas en RDF. Los datos extraídos de las diferentes fuentes son traducidos e integrados en un Data Warehouse. Dentro de la plataforma de p-medicine, el Grupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid, en el cuál realicé mi trabajo, proporciona una herramienta para la generación de las necesarias anotaciones de las bases de datos RDF. Esta herramienta, denominada Ontology Annotator ofrece la posibilidad de generar de manera manual anotaciones basadas en vistas. Sin embargo, aunque esta herramienta muestra las fuentes de datos a anotar de manera gráfica, la gran mayoría de usuarios encuentran difícil el manejo de la herramienta , y pierden demasiado tiempo en el proceso de anotación. Es por ello que surge la necesidad de desarrollar una herramienta más avanzada, que sea capaz de asistir al usuario en el proceso de anotar bases de datos en p-medicine. El objetivo es automatizar los procesos más complejos de la anotación y presentar de forma natural y entendible la información relativa a las anotaciones de bases de datos RDF. Esta herramienta ha sido denominada Ontology Annotator Assistant, y el trabajo aquí expuesto describe el proceso de diseño y desarrollo, así como algunos algoritmos innovadores que han sido creados por el autor del trabajo para su correcto funcionamiento. Esta herramienta ofrece funcionalidades no existentes previamente en ninguna otra herramienta del área de la anotación automática e integración semántica de bases de datos. ---ABSTRACT---Over the last years, the unstoppable growth of biomedical data sources, mainly thanks to the development of massive data generation techniques (specially in the genomics field) and the rise of the communication and information sharing technologies, lead to the fact that biomedical research has come to rely almost exclusively on the analysis of distributed information and in finding relationships between different data sources. This is a complex task due to the heterogeneity of the sources used (either by the use of different formats, technologies or domain modeling). There are some research proyects that aim homogenization of these sources in order to retrieve information in an integrated way, as if it were a single database. However there is still now work to automate completely this process of semantic integration. There are two main approaches with the purpouse of integrating heterogeneous data sources: Centralized and Distributed. Both approches involve making translation from one model to another. To perform this task there is a need of using formalization of the semantic relationships between the underlying models and the main model. These formalizations are also calles annotations. In the context of semantic integration of the information, data base annotations consist on defining relations between concepts or words with the same meaning, so the automatic translation can be performed. Depending on the task, the ralationships can be between individuals or between whole sets of concepts (views). This paper focuses on the latter. The European project p-medicine (FP7-ICT-2009-270089) is based on the centralized approach. It uses view based annotations and RDF modeled databases. The data retireved from different data sources is translated and joined into a Data Warehouse. Within the p-medicine platform, the Biomedical Informatics Group (GIB) of the Polytechnic University of Madrid, in which I worked, provides a software to create annotations for the RDF sources. This tool, called Ontology Annotator, is used to create annotations manually. However, although Ontology Annotator displays the data sources graphically, most of the users find it difficult to use this software, thus they spend too much time to complete the task. For this reason there is a need to develop a more advanced tool, which would be able to help the user in the task of annotating p-medicine databases. The aim is automating the most complex processes of the annotation and display the information clearly and easy understanding. This software is called Ontology Annotater Assistant and this book describes the process of design and development of it. as well as some innovative algorithms that were designed by the author of the work. This tool provides features that no other software in the field of automatic annotation can provide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evidencia empírica aplicada a países de cierto tamaño y desarrollo económico, muestra que existe una relación directa y positiva entre la intensidad de la industria manufacturera, medida como porcentaje de su PIB, y ciertas variables económicas como, el crecimiento, el desempleo y la balanza exterior de bienes y servicios. En el caso de esta última, se verifica empíricamente, que los países con una proporción de actividad manufacturera inferior al 20%, tienen una marcada tendencia a presentar déficits crónicos de balanza de bienes y servicios, lo que conduce a persistentes déficits por cuenta corriente, al ser el primer déficit el principal componente del segundo. Esto trae consigo un continuado incremento del endeudamiento externo que no cesa, y que terminará en algún momento por desequilibrar el conjunto de la economía de los países con esos déficits crónicos. Las anteriores conclusiones, abren una vía de orientación de la política económica, que tiene como objetivo la promoción de la industria manufacturera de cada país. Y esto es un hecho ya en 2014. Países relevantes, como Alemania o Francia en la UE, incluso los EEUU y últimamente el Reino Unido, y por supuesto países del área asiática como Japón, Corea del Sur y China, llevan años promoviendo su industria manufacturera. Resulta significativo, que el debate ideológico sobre la bondad de la aplicación política industrial por parte de los gobiernos, frente a las teorías liberales de mantener a los poderes públicos lejos de ese tipo de actividades, haya dado paso a un modelo generalizado de corte más bien horizontal, donde los países casi sin excepciones apoyan el desarrollo de sus empresas con numerosos instrumentos, que van bastante más lejos de los habituales de I+D. Se valora por tanto, la industria manufacturera como algo vital para el equilibrio económico. Incluso la UE, defensora durante décadas de la no intervención de los diferentes Estados miembros en actividades de promoción industrial más allá del apoyo a las actividades de I+D, realiza un giro copernicano, que termina en 2012 proclamando que la industria manufacturera es vital para el equilibrio económico de la UE, que hay que promoverla, e incluso marca un objetivo, precisamente del 20%, como contribución manufacturera a su PIB. Es decir, se da por asumido que los servicios no son un sustituto indefinido de la industria y que por tanto tienen un límite, lo que se contrapone frontalmente contra la anterior creencia de que el aumento de la participación de los servicios en la economía, no solo era bueno, sino un síntoma de desarrollo. Esta premisa ya ha dejado de ser cierta para esos y otros países. En cambio, en España nada de esto sucede en las dos últimas décadas, sino que la industria manufacturera no recibe especial atención de los poderes públicos y se desliza en una pendiente de disminución de su contribución al PIB, que incluso se acelera con la crisis económica que comienza en 2007, hasta alcanzar cifras del orden del 12% del PIB en 2013. La política económica que se aplica es la de la deflación de costes, con los efectos consecuentes sobre los salarios y sobre la capacidad de la economía de generar riqueza. Se apuesta por un modelo de mano de obra barata, que recuerda al de los años 60. Como indicador relevante de esta situación, lo que exporta la industria manufacturera española, no ha ganado en contenido tecnológico en los últimos quince años. Esta situación se ve empeorada por un hecho significativo adicional, y es que casi el 40% de las ventas de la industria manufacturera española provienen de empresas de propiedad extranjera, con lo que eso supone por una parte de dependencia tecnológica del exterior como en el caso del automóvil, y de incertidumbre sobre su futuro, al estar basadas en el mantenimiento en el futuro de una mano de obra barata, que frenará que los españoles que trabajan en esas empresas, progresen económicamente. La propuesta de esta Tesis, es en cambio apostar por un modelo de crecimiento para España que tenga como uno de sus pilares el desarrollo de una industria manufacturera sólida y con cada vez mayor contenido tecnológico. Para ello, se propone un Plan de política industrial, donde se incluye la creación de actores impulsores de este plan, que deben ser del máximo nivel político. Si los diferentes gobiernos no entienden y asumen esta necesidad de apoyo a la industria a largo plazo e independiente de los cambios políticos, no será posible llevar a cabo este Plan. Para su puesta en marcha, se propone la creación o refuerzo de numerosos instrumentos de apoyo a la industria manufacturera de carácter fundamentalmente horizontal que van mucho más allá de los habituales del I+D, y que en varios casos, tienen una clara semejanza con otros existentes ya en otros países desarrollados desde hace años. La promoción de la industria manufacturera necesita nuevos instrumentos, como una financiación a largo plazo para las empresas, una promoción ordenada y eficaz de la actividad internacional de las empresas exportadoras, la mayoría de las cuales exportan productos manufacturados, una educación y formación profesional que esté alineada con estos objetivos, unos instrumentos que apoyen en especial el desarrollo la industria manufacturera, o la participación minoritaria pero significativa, del Estado en empresas españolas pertenecientes a sectores estratégicos entre otros. En resumen, esta Tesis propone una alternativa de política económica radicalmente diferente a la de dejar la industria manufacturera española a su suerte, y basar el futuro económico de España en una mano de obra barata. ABSTRACT The empirical evidence, applied to countries of certain size and economic development, shows that there exists a direct and positive relationship between industrial manufacturing activity, measured as a percentage of GDP, and certain economic variables, such as growth, unemployment and the foreign balance of trade. In the case of the latter, it is verified empirically that the countries with a percentage of manufacturing activity below 20% have a marked tendency for chronic deficits of the balance of trade, leading to persistent deficits in the current account, being that the former deficit is the main component of the latter. This brings about a continued increase in foreign debt that does not cease, and that will end at some point by disrupting the economy of the countries with these chronic deficits. The previous conclusions open the way to a new direction for economic policy, which promotes industrial manufacturing in each country. This is already a fact in 2014. Relevant countries, such as Germany or France in the EU, even the US and ultimately the UK, and of course countries of East Asia such as Japan, South Korea and China, have been promoting their industrial manufacturing for years. It becomes significant that the ideological debate about the goodwill of the application of industrial policy by governments, against liberal theories that maintain public powers far from these kinds of activities, has taken a step towards a horizontal-cut generalized model, where countries, with almost no exception, rely on various instruments to develop their companies that go much further than the usual R&D. Industrial manufacture is therefore valued as vital for economic stability. Even the EU, proponent for decades of non-intervention policy that goes beyond R&D, has gone full circle, ending in 2012 by proclaiming that industrial manufacture is vital for the economic stability of the EU, that it must be promoted. They even mark precisely 20% as an objective for manufacturing as a percentage of GDP. In other words, it is a given that services are not an indefinite substitute for industry, and that therefore it has a limit as such. This rejects the notion that the increase in services at the cost of manufacture is not only healthy, but is also a symptom of development. This premise is no longer true for these and other countries. On the other hand, none of this happens in Spain, where industrial manufacture receives no special attention from the public authorities, and it slides on a downward slope of percentage contribution to GDP, which accelerates the economic crisis that begins in 2007, until manufacture reaches values of around 12% of GDP in 2013. The economic policy applied is that of cost deflation, with consequential effects on wages and the capacity of the economy to generate wealth. A model is proposed for cheaper labor, akin to that of the 1960s. As a relevant indicator of this situation, manufacturing exports from Spain have not grown technologically in the last 15 years. The situation is made worse by another significant fact: almost 40% of sales of the manufacturing industry originate from companies of foreign origin, which supposes on one hand a technological dependence on foreign countries, such as in the case of the automotive industry, and on the other hand uncertainty in its future, being that they are based on maintaining cheap labor in the future, which will slow economic progress of Spaniards working in these companies. The proposition of this Thesis is to bet on a growth model for Spain that has as one of its pillars the development of a solid manufacturing industry, with increasing technological content. For this, an industrial policy plan is proposed, which includes the creation of driving agents for this plan, which must be of maximum political level. If the various governments don’t understand and assume this necessity for support of industry in the long term, independent of political change, this plan will not be accomplished. To start it, the creation or reinforcement of numerous instruments to promote the manufacturing activities are proposed, with a fundamentally horizontal nature that goes far beyond the usual R&D, and that, in several cases, have a clear similarity with others existing in other countries, having been developed for years. The promotion of the manufacturing industry needs new instruments, such as the long-term financing of companies, an orderly and efficient promotion of international activity of exporting companies, the most of which export manufactured goods, education and professional training which is in tune with these objectives, some instruments which support in particular the development of the manufacturing industry, or the minor yet significant participation of the State in Spanish companies belonging to strategic sectors, among others. In summary, this Thesis proposes an different alternative to the economic policy of leaving the manufacturing industry of Spain to its chances, and to base the economic future of Spain on a cheaper labor force.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la mayoría de problemas de decisión a los que nos enfrentamos no hay evidencia sobre cuál es la mejor elección debido a la complejidad de los mismos. Esta complejidad está asociada a la existencia de múltiples objetivos conflictivos y a que en muchos casos solo se dispone de información incompleta o imprecisa sobre los distintos parámetros del modelo de decisión. Por otro lado, el proceso de toma de decisiones se puede realizar en grupo, debiendo incorporar al modelo las preferencias individuales de cada uno de los decisores y, posteriormente, agregarlas para alcanzar un consenso final, lo que dificulta más todavía el proceso de decisión. La metodología del Análisis de Decisiones (AD) es un procedimiento sistemático y lógico que permite estructurar y simplificar la tarea de tomar decisiones. Utiliza la información existente, datos recogidos, modelos y opiniones profesionales para cuantificar la probabilidad de los valores o impactos de las alternativas y la Teoría de la Utilidad para cuantificar las preferencias de los decisores sobre los posibles valores de las alternativas. Esta tesis doctoral se centra en el desarrollo de extensiones del modelo multicriterio en utilidad aditivo para toma de decisiones en grupo con veto en base al AD y al concepto de la intensidad de la dominancia, que permite explotar la información incompleta o imprecisa asociada a los parámetros del modelo. Se considera la posibilidad de que la importancia relativa que tienen los criterios del problema para los decisores se representa mediante intervalos de valores o información ordinal o mediante números borrosos trapezoidales. Adicionalmente, se considera que los decisores tienen derecho a veto sobre los valores de los criterios bajo consideración, pero solo un subconjunto de ellos es efectivo, teniéndose el resto solo en cuenta de manera parcial. ABSTRACT In most decision-making problems, the best choice is unclear because of their complexity. This complexity is mainly associated with the existence of multiple conflicting objectives. Besides, there is, in many cases, only incomplete or inaccurate information on the various decision model parameters. Alternatively, the decision-making process may be performed by a group. Consequently, the model must account for individual preferences for each decision-maker (DM), which have to be aggregated to reach a final consensus. This makes the decision process even more difficult. The decision analysis (DA) methodology is a systematic and logical procedure for structuring and simplifying the decision-making task. It takes advantage of existing information, collected data, models and professional opinions to quantify the probability of the alternative values or impacts and utility theory to quantify the DM’s preferences concerning the possible alternative values. This PhD. thesis focuses on developing extensions for a multicriteria additive utility model for group decision-making accounting for vetoes based on DA and on the concept of dominance intensity in order to exploit incomplete or imprecise information associated with the parameters of the decision-making model. We consider the possibility of the relative importance of criteria for DMs being represented by intervals or ordinal information, or by trapezoidal fuzzy numbers. Additionally, we consider that DMs are allowed to provide veto values for the criteria under consideration, of which only a subset are effective, whereas the remainder are only partially taken into account.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta tesis es el desarrollo de un sistema completo de navegación, aprendizaje y planificación para un robot móvil. Dentro de los innumerables problemas que este gran objetivo plantea, hemos dedicado especial atención al problema del conocimiento autónomo del mundo. Nuestra mayor preocupación ha sido la de establecer mecanismos que permitan, a partir de información sensorial cruda, el desarrollo incremental de un modelo topológico del entorno en el que se mueve el robot. Estos mecanismos se apoyan invariablemente en un nuevo concepto propuesto en esta tesis: el gradiente sensorial. El gradiente sensorial es un dispositivo matemático que funciona como un detector de sucesos interesantes para el sistema. Una vez detectado uno de estos sucesos, el robot puede identificar su situación en un mapa topológico y actuar en consecuencia. Hemos denominado a estas situaciones especiales lugares sensorialmente relevantes, ya que (a) captan la atención del sistema y (b) pueden ser identificadas utilizando la información sensorial. Para explotar convenientemente los modelos construidos, hemos desarrollado un algoritmo capaz de elaborar planes internalizados, estableciendo una red de sugerencias en los lugares sensorialmente relevantes, de modo que el robot encuentra en estos puntos una dirección recomendada de navegación. Finalmente, hemos implementado un sistema de navegación robusto con habilidades para interpretar y adecuar los planes internalizados a las circunstancias concretas del momento. Nuestro sistema de navegación está basado en la teoría de campos de potencial artificial, a la que hemos incorporado la posibilidad de añadir cargas ficticias como ayuda a la evitación de mínimos locales. Como aportación adicional de esta tesis al campo genérico de la ciencia cognitiva, todos estos elementos se integran en una arquitectura centrada en la memoria, lo que pretende resaltar la importancia de ésta en los procesos cognitivos de los seres vivos y aporta un giro conceptual al punto de vista tradicional, centrado en los procesos. The general objective of this thesis is the development of a global navigation system endowed with planning and learning features for a mobile robot. Within this general objective we have devoted a special effort to the autonomous learning problem. Our main concern has been to establish the necessary mechanisms for the incremental development of a topological model of the robot’s environment using the sensory information. These mechanisms are based on a new concept proposed in the thesis: the sensory gradient. The sensory gradient is a mathematical device which works like a detector of “interesting” environment’s events. Once a particular event has been detected the robot can identify its situation in the topological map and to react accordingly. We have called these special situations relevant sensory places because (a) they capture the system’s attention and (b) they can be identified using the sensory information. To conveniently exploit the built-in models we have developed an algorithm able to make internalized plans, establishing a suggestion network in the sensory relevant places in such way that the robot can find at those places a recommended navigation direction. It has been also developed a robust navigation system able to navigate by means of interpreting and adapting the internalized plans to the concrete circumstances at each instant, i.e. a reactive navigation system. This reactive system is based on the artificial potential field approach with the additional feature introduced in the thesis of what we call fictitious charges as an aid to avoid local minima. As a general contribution of the thesis to the cognitive science field all the above described elements are integrated in a memory-based architecture, emphasizing the important role played by the memory in the cognitive processes of living beings and giving a conceptual turn in the usual process-based approach.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo se muestran los resultados preliminares de validación de un sistema de evaluación de habilidades motoras en cirugía de mínima invasión (CMI) basado en el seguimiento por vídeo del instrumental quirúrgico. El sistema, en fase de prototipo aún, se valida con 42 participantes (16 noveles, 22 residentes y 4 expertos). En esta primera fase del trabajo se han analizado varias métricas obtenidas a partir del 2D de la imagen. El sistema presenta validez para las métricas de tiempo, camino recorrido, velocidad media y eficiencia de espacio. A falta de implementar una versión definitiva capaz de llevar a cabo procesamiento en tiempo real de múltiples herramientas, y de la validación de métricas obtenidas a partir del 3D, se demuestra la viabilidad de construir entornos de formación basados en tecnologías de video, que sean transparentes al cirujano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El hambre es un problema que afectaba en el 2011 a 923 millones de personas en el mundo, de las cuales, 52.5 millones estaban en América Latina. En marzo de 2011 el 10.4% de la población hondureña estaba en situación de inseguridad alimentaria; condición debida básicamente a las condiciones de pobreza y su poder adquisitivo limitado para cubrir la canasta básica de alimentos. La inseguridad alimentaria es un problema complejo y para contrarrestarlo es preciso contar con profesionales con amplio conocimiento y con la capacidad de diseñar políticas y ejecutar programas y/o proyectos que contribuyan a su solución. Con el objetivo de proponer un programa formativo que responda adecuadamente a la demanda de profesionales en Seguridad Alimentaria y Nutricional (SAN), se desarrolló una consulta con informantes claves vinculados a la ejecución de programas y proyectos y a Universidades en Honduras. Los resultados plantean que hay un limitado abordaje de la SAN en la educación superior; situación debida a diversos factores, donde destaca la escasa relación de las universidades con las organizaciones que ejecutan programas y proyectos y por lo tanto un desconocimiento de lo que dichas organizaciones están demandando. Los resultados de la consulta orientan a plantear un modelo de formación denominado Diplomado en Seguridad Alimentaria y Nutricional Basado en Competencias. Este diplomado debería ser el inicio de un proceso de formación que posteriormente evolucione a la implementación de un sistema de certificación de profesionales en seguridad alimentaria y nutricional.