836 resultados para Framework Model


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Material properties of soft tissues are highly conditioned by the hierarchical structure of this kind of composites. These collagen-based tissues present a complex framework of fibres, fibrils, tropocollagen molecules and amino-acids. As the structural mechanisms that control the degradation of soft tissues are related with the behaviour of its fundamental constituents, the relationship between the molecular and intermolecular properties and the tissue behaviour needs to be studied.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this article the network configuration for fulfillment and distribution of online orders of two British retailers is analyzed and compared. For this purpose, it is proposed a conceptual framework that consists of the key following aspects: network configuration, transportation management and location of demand. As a result is not obvious to determine the ideal centralization degree in each case. Finally, it is suggested the future development of an analytic tool that helps to choose the most appropriate model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una estructura vibra con la suma de sus infinitos modos de vibración, definidos por sus parámetros modales (frecuencias naturales, formas modales y coeficientes de amortiguamiento). Estos parámetros se pueden identificar a través del Análisis Modal Operacional (OMA). Así, un equipo de investigación de la Universidad Politécnica de Madrid ha identificado las propiedades modales de un edificio de hormigón armado en Madrid con el método Identificación de los sub-espacios estocásticos (SSI). Para completar el estudio dinámico de este edificio, se ha desarrollado un modelo de elementos finitos (FE) de este edificio de 19 plantas. Este modelo se ha calibrado a partir de su comportamiento dinámico obtenido experimentalmente a través del OMA. Los objetivos de esta tesis son; (i) identificar la estructura con varios métodos de SSI y el uso de diferentes ventanas de tiempo de tal manera que se cuantifican incertidumbres de los parámetros modales debidos al proceso de estimación, (ii) desarrollar FEM de este edificio y calibrar este modelo a partir de su comportamiento dinámico, y (iii) valorar la bondad del modelo. Los parámetros modales utilizados en esta calibración han sido; espesor de las losas, densidades de los materiales, módulos de elasticidad, dimensiones de las columnas y las condiciones de contorno de la cimentación. Se ha visto que el modelo actualizado representa el comportamiento dinámico de la estructura con una buena precisión. Por lo tanto, este modelo puede utilizarse dentro de un sistema de monitorización estructural (SHM) y para la detección de daños. En el futuro, podrá estudiar la influencia de los agentes medioambientales, tales como la temperatura o el viento, en los parámetros modales. A structure vibrates according to the sum of its vibration modes, defined by their modal parameters (natural frequencies, damping ratios and modal shapes). These parameters can be identified through Operational Modal Analysis (OMA). Thus, a research team of the Technical University of Madrid has identified the modal properties of a reinforced-concrete-frame building in Madrid using the Stochastic Subspace Identification (SSI) method and a time domain technique for the OMA. To complete the dynamic study of this building, a finite element model (FE) of this 19-floor building has been developed throughout this thesis. This model has been updated from its dynamic behavior identified by the OMA. The objectives of this thesis are to; (i) identify the structure with several SSI methods and using different time blocks in such a way that uncertainties due to the modal parameter estimation are quantified, (ii) develop a FEM of this building and tune this model from its dynamic behavior, and (iii) Assess the quality of the model, the modal parameters used in this updating process have been; thickness of slabs, material densities, modulus of elasticity, column dimensions and foundation boundary conditions. It has been shown that the final updated model represents the structure with a very good accuracy. Thus, this model might be used within a structural health monitoring framework (SHM). The study of the influence of changing environmental factors (such as temperature or wind) on the model parameters might be considered as a future work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD dissertation is framed in the emergent fields of Reverse Logistics and ClosedLoop Supply Chain (CLSC) management. This subarea of supply chain management has gained researchers and practitioners' attention over the last 15 years to become a fully recognized subdiscipline of the Operations Management field. More specifically, among all the activities that are included within the CLSC area, the focus of this dissertation is centered in direct reuse aspects. The main contribution of this dissertation to current knowledge is twofold. First, a framework for the so-called reuse CLSC is developed. This conceptual model is grounded in a set of six case studies conducted by the author in real industrial settings. The model has also been contrasted with existing literature and with academic and professional experts on the topic as well. The framework encompasses four building blocks. In the first block, a typology for reusable articles is put forward, distinguishing between Returnable Transport Items (RTI), Reusable Packaging Materials (RPM), and Reusable Products (RP). In the second block, the common characteristics that render reuse CLSC difficult to manage from a logistical standpoint are identified, namely: fleet shrinkage, significant investment and limited visibility. In the third block, the main problems arising in the management of reuse CLSC are analyzed, such as: (1) define fleet size dimension, (2) control cycle time and promote articles rotation, (3) control return rate and prevent shrinkage, (4) define purchase policies for new articles, (5) plan and control reconditioning activities, and (6) balance inventory between depots. Finally, in the fourth block some solutions to those issues are developed. Firstly, problems (2) and (3) are addressed through the comparative analysis of alternative strategies for controlling cycle time and return rate. Secondly, a methodology for calculating the required fleet size is elaborated (problem (1)). This methodology is valid for different configurations of the physical flows in the reuse CLSC. Likewise, some directions are pointed out for further development of a similar method for defining purchase policies for new articles (problem (4)). The second main contribution of this dissertation is embedded in the solutions part (block 4) of the conceptual framework and comprises a two-level decision problem integrating two mixed integer linear programming (MILP) models that have been formulated and solved to optimality using AIMMS as modeling language, CPLEX as solver and Excel spreadsheet for data introduction and output presentation. The results obtained are analyzed in order to measure in a client-supplier system the economic impact of two alternative control strategies (recovery policies) in the context of reuse. In addition, the models support decision-making regarding the selection of the appropriate recovery policy against the characteristics of demand pattern and the structure of the relevant costs in the system. The triangulation of methods used in this thesis has enabled to address the same research topic with different approaches and thus, the robustness of the results obtained is strengthened.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta tesis se aborda el problema de la externalización segura de servicios de datos y computación. El escenario de interés es aquel en el que el usuario posee datos y quiere subcontratar un servidor en la nube (“Cloud”). Además, el usuario puede querer también delegar el cálculo de un subconjunto de sus datos al servidor. Se presentan dos aspectos de seguridad relacionados con este escenario, en concreto, la integridad y la privacidad y se analizan las posibles soluciones a dichas cuestiones, aprovechando herramientas criptográficas avanzadas, como el Autentificador de Mensajes Homomórfico (“Homomorphic Message Authenticators”) y el Cifrado Totalmente Homomórfico (“Fully Homomorphic Encryption”). La contribución de este trabajo es tanto teórica como práctica. Desde el punto de vista de la contribución teórica, se define un nuevo esquema de externalización (en lo siguiente, denominado con su término inglés Outsourcing), usando como punto de partida los artículos de [3] y [12], con el objetivo de realizar un modelo muy genérico y flexible que podría emplearse para representar varios esquemas de ”outsourcing” seguro. Dicho modelo puede utilizarse para representar esquemas de “outsourcing” seguro proporcionando únicamente integridad, únicamente privacidad o, curiosamente, integridad con privacidad. Utilizando este nuevo modelo también se redefine un esquema altamente eficiente, construido en [12] y que se ha denominado Outsourcinglin. Este esquema permite calcular polinomios multivariados de grado 1 sobre el anillo Z2k . Desde el punto de vista de la contribución práctica, se ha construido una infraestructura marco (“Framework”) para aplicar el esquema de “outsourcing”. Seguidamente, se ha testado dicho “Framework” con varias implementaciones, en concreto la implementación del criptosistema Joye-Libert ([18]) y la implementación del esquema propio Outsourcinglin. En el contexto de este trabajo práctico, la tesis también ha dado lugar a algunas contribuciones innovadoras: el diseño y la implementación de un nuevo algoritmo de descifrado para el esquema de cifrado Joye-Libert, en colaboración con Darío Fiore. Presenta un mejor comportamiento frente a los algoritmos propuestos por los autores de [18];la implementación de la función eficiente pseudo-aleatoria de forma amortizada cerrada (“amortized-closed-form efficient pseudorandom function”) de [12]. Esta función no se había implementado con anterioridad y no supone un problema trivial, por lo que este trabajo puede llegar a ser útil en otros contextos. Finalmente se han usado las implementaciones durante varias pruebas para medir tiempos de ejecución de los principales algoritmos.---ABSTRACT---In this thesis we tackle the problem of secure outsourcing of data and computation. The scenario we are interested in is that in which a user owns some data and wants to “outsource” it to a Cloud server. Furthermore, the user may want also to delegate the computation over a subset of its data to the server. We present the security issues related to this scenario, namely integrity and privacy and we analyse some possible solutions to these two issues, exploiting advanced cryptographic tools, such as Homomorphic Message Authenticators and Fully Homomorphic Encryption. Our contribution is both theoretical and practical. Considering our theoretical contribution, using as starting points the articles of [3] and [12], we introduce a new cryptographic primitive, called Outsourcing with the aim of realizing a very generic and flexible model that might be employed to represent several secure outsourcing schemes. Such model can be used to represent secure outsourcing schemes that provide only integrity, only privacy or, interestingly, integrity with privacy. Using our new model we also re-define an highly efficient scheme constructed in [12], that we called Outsourcinglin and that is a scheme for computing multi-variate polynomials of degree 1 over the ring Z2k. Considering our practical contribution, we build a Framework to implement the Outsourcing scheme. Then, we test such Framework to realize several implementations, specifically the implementation of the Joye-Libert cryptosystem ([18]) and the implementation of our Outsourcinglin scheme. In the context of this practical work, the thesis also led to some novel contributions: the design and the implementation, in collaboration with Dario Fiore, of a new decryption algorithm for the Joye-Libert encryption scheme, that performs better than the algorithms proposed by the authors in [18]; the implementation of the amortized-closed-form efficient pseudorandom function of [12]. There was no prior implementation of this function and it represented a non trivial work, which can become useful in other contexts. Finally we test the implementations to execute several experiments for measuring the timing performances of the main algorithms.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se ha presentado la evaluación y optimización de las reglas de operación de un embalse para gestión de avenidas usando un entorno integrado hidrológico- hidráulico de tipo Monte Carlo. Some reservoirs play a major role in flood protection, managing the floods and reducing or delaying the peak discharges in the river downstream. However, the changing environment (natural and anthropological changes) requires the development of more elaborated strategies for reservoir operation. Three factors are relevant: 1) the natural variability of inflow hydrographs, 2) the competition for reservoir storage capacity between flood control and other uses, and 3) the existence of built-up areas on downstream river reaches. A framework for evaluation/optimization of reservoir operation rules for flood management in a changing environment is presented in this study. The study was carried out using an integrated hydrologic – hydraulic model in a Monte Carlo framework.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día, por primera vez en la historia, la mayor parte de la población podrá vivir hasta los sesenta años y más (United Nations, 2015). Sin embargo, todavía existe poca evidencia que demuestre que las personas mayores, estén viviendo con mejor salud que sus padres, a la misma edad, ya que la mayoría de los problemas de salud en edades avanzadas están asociados a las enfermedades crónicas (WHO, 2015). Los sistemas sanitarios de los países desarrollados funcionan adecuadamente cuando se trata del cuidado de enfermedades agudas, pero no son lo suficientemente eficaces en la gestión de las enfermedades crónicas. Durante la última década, se han realizado esfuerzos para mejorar esta gestión, por medio de la utilización de estrategias de prevención y de reenfoque de la provisión de los servicios de atención para la salud (Kane et al. 2005). Según una revisión sistemática de modelos de cuidado de salud, comisionada por el sistema nacional de salud Británico, pocos modelos han conceptualizado cuáles son los componentes que hay que utilizar para proporcionar un cuidado crónico efectivo, y estos componentes no han sido suficientemente estructurados y articulados. Por lo tanto, no hay suficiente evidencia sobre el impacto real de cualquier modelo existente en la actualidad (Ham, 2006). Las innovaciones podrían ayudar a conseguir mejores diagnósticos, tratamientos y gestión de pacientes crónicos, así como a dar soporte a los profesionales y a los pacientes en el cuidado. Sin embargo, la forma en las que estas innovaciones se proporcionan no es lo suficientemente eficiente, efectiva y amigable para el usuario. Para mejorar esto, hace falta crear equipos de trabajo y estrategias multidisciplinares. En conclusión, hacen falta actividades que permitan conseguir que las innovaciones sean utilizadas en los sistemas de salud que quieren mejorar la gestión del cuidado crónico, para que sea posible: 1) traducir la “atención sanitaria basada en la evidencia” en “conocimiento factible”; 2) hacer frente a la complejidad de la atención sanitaria a través de una investigación multidisciplinaria; 3) identificar una aproximación sistemática para que se establezcan intervenciones innovadoras en el cuidado de salud. El marco de referencia desarrollado en este trabajo de investigación es un intento de aportar estas mejoras. Las siguientes hipótesis han sido propuestas: Hipótesis 1: es posible definir un proceso de traducción que convierta un modelo de cuidado crónico en una descripción estructurada de objetivos, requisitos e indicadores clave de rendimiento. Hipótesis 2: el proceso de traducción, si se ejecuta a través de elementos basados en la evidencia, multidisciplinares y de orientación económica, puede convertir un modelo de cuidado crónico en un marco descriptivo, que define el ciclo de vida de soluciones innovadoras para el cuidado de enfermedades crónicas. Hipótesis 3: es posible definir un método para evaluar procesos, resultados y capacidad de desarrollar habilidades, y asistir equipos multidisciplinares en la creación de soluciones innovadoras para el cuidado crónico. Hipótesis 4: es posible dar soporte al desarrollo de soluciones innovadoras para el cuidado crónico a través de un marco de referencia y conseguir efectos positivos, medidos en indicadores clave de rendimiento. Para verificar las hipótesis, se ha definido una aproximación metodológica compuesta de cuatro Fases, cada una asociada a una hipótesis. Antes de esto, se ha llevado a cabo una “Fase 0”, donde se han analizado los antecedentes sobre el problema (i.e. adopción sistemática de la innovación en el cuidado crónico) desde una perspectiva multi-dominio y multi-disciplinar. Durante la fase 1, se ha desarrollado un Proceso de Traducción del Conocimiento, elaborado a partir del JBI Joanna Briggs Institute (JBI) model of evidence-based healthcare (Pearson, 2005), y sobre el cual se han definido cuatro Bloques de Innovación. Estos bloques consisten en una descripción de elementos innovadores, definidos en la fase 0, que han sido añadidos a los cuatros elementos que componen el modelo JBI. El trabajo llevado a cabo en esta fase ha servido también para definir los materiales que el proceso de traducción tiene que ejecutar. La traducción que se ha llevado a cabo en la fase 2, y que traduce la mejor evidencia disponible de cuidado crónico en acción: resultado de este proceso de traducción es la parte descriptiva del marco de referencia, que consiste en una descripción de un modelo de cuidado crónico (se ha elegido el Chronic Care Model, Wagner, 1996) en términos de objetivos, especificaciones e indicadores clave de rendimiento y organizada en tres ciclos de innovación (diseño, implementación y evaluación). Este resultado ha permitido verificar la segunda hipótesis. Durante la fase 3, para demostrar la tercera hipótesis, se ha desarrollado un método-mixto de evaluación de equipos multidisciplinares que trabajan en innovaciones para el cuidado crónico. Este método se ha creado a partir del método mixto usado para la evaluación de equipo multidisciplinares translacionales (Wooden, 2013). El método creado añade una dimensión procedural al marco. El resultado de esta fase consiste, por lo tanto, en una primera versión del marco de referencia, lista para ser experimentada. En la fase 4, se ha validado el marco a través de un caso de estudio multinivel y con técnicas de observación-participante como método de recolección de datos. Como caso de estudio se han elegido las actividades de investigación que el grupo de investigación LifeStech ha desarrollado desde el 2008 para mejorar la gestión de la diabetes, actividades realizadas en un contexto internacional. Los resultados demuestran que el marco ha permitido mejorar las actividades de trabajo en distintos niveles: 1) la calidad y cantidad de las publicaciones; 2) se han conseguido dos contratos de investigación sobre diabetes: el primero es un proyecto de investigación aplicada, el segundo es un proyecto financiado para acelerar las innovaciones en el mercado; 3) a través de los indicadores claves de rendimiento propuestos en el marco, una prueba de concepto de un prototipo desarrollado en un proyecto de investigación ha sido transformada en una evaluación temprana de una intervención eHealth para el manejo de la diabetes, que ha sido recientemente incluida en Repositorio de prácticas innovadoras del Partenariado de Innovación Europeo en Envejecimiento saludable y activo. La verificación de las 4 hipótesis ha permitido demonstrar la hipótesis principal de este trabajo de investigación: es posible contribuir a crear un puente entre la atención sanitaria y la innovación y, por lo tanto, mejorar la manera en que el cuidado crónico sea procurado en los sistemas sanitarios. ABSTRACT Nowadays, for the first time in history, most people can expect to live into their sixties and beyond (United Nations, 2015). However, little evidence suggests that older people are experiencing better health than their parents, and most of the health problems of older age are linked to Chronic Diseases (WHO, 2015). The established health care systems in developed countries are well suited to the treatment of acute diseases but are mostly inadequate for dealing with CDs. Healthcare systems are challenging the burden of chronic diseases by putting more emphasis on the prevention of disease and by looking for new ways to reorient the provision of care (Kane et al., 2005). According to an evidence-based review commissioned by the British NHS Institute, few models have conceptualized effective components of care for CDs and these components have been not structured and articulated. “Consequently, there is limited evidence about the real impact of any of the existing models” (Ham, 2006). Innovations could support to achieve better diagnosis, treatment and management for patients across the continuum of care, by supporting health professionals and empowering patients to take responsibility. However, the way they are delivered is not sufficiently efficient, effective and consumer friendly. The improvement of innovation delivery, involves the creation of multidisciplinary research teams and taskforces, rather than just working teams. There are several actions to improve the adoption of innovations from healthcare systems that are tackling the epidemics of CDs: 1) Translate Evidence-Based Healthcare (EBH) into actionable knowledge; 2) Face the complexity of healthcare through multidisciplinary research; 3) Identify a systematic approach to support effective implementation of healthcare interventions through innovation. The framework proposed in this research work is an attempt to provide these improvements. The following hypotheses have been drafted: Hypothesis 1: it is possible to define a translation process to convert a model of chronic care into a structured description of goals, requirements and key performance indicators. Hypothesis 2: a translation process, if executed through evidence-based, multidisciplinary, holistic and business-oriented elements, can convert a model of chronic care in a descriptive framework, which defines the whole development cycle of innovative solutions for chronic disease management. Hypothesis 3: it is possible to design a method to evaluate processes, outcomes and skill acquisition capacities, and assist multidisciplinary research teams in the creation of innovative solutions for chronic disease management. Hypothesis 4: it is possible to assist the development of innovative solutions for chronic disease management through a reference framework and produce positive effects, measured through key performance indicators. In order to verify the hypotheses, a methodological approach, composed of four Phases that correspond to each one of the stated hypothesis, was defined. Prior to this, a “Phase 0”, consisting in a multi-domain and multi-disciplinary background analysis of the problem (i.e.: systematic adoption of innovation to chronic care), was carried out. During phase 1, in order to verify the first hypothesis, a Knowledge Translation Process (KTP) was developed, starting from the JBI Joanna Briggs Institute (JBI) model of evidence-based healthcare was used (Pearson, 2005) and adding Four Innovation Blocks. These blocks represent an enriched description, added to the JBI model, to accelerate the transformation of evidence-healthcare through innovation; the innovation blocks are built on top of the conclusions drawn after Phase 0. The background analysis gave also indication on the materials and methods to be used for the execution of the KTP, carried out during phase 2, that translates the actual best available evidence for chronic care into action: this resulted in a descriptive Framework, which is a description of a model of chronic care (the Chronic Care Model was chosen, Wagner, 1996) in terms of goals, specified requirements and Key Performance Indicators, and articulated in the three development cycles of innovation (i.e. design, implementation and evaluation). Thanks to this result the second hypothesis was verified. During phase 3, in order to verify the third hypothesis, a mixed-method to evaluate multidisciplinary teams working on innovations for chronic care, was created, based on a mixed-method used for the evaluation of Multidisciplinary Translational Teams (Wooden, 2013). This method adds a procedural dimension to the descriptive component of the Framework, The result of this phase consisted in a draft version of the framework, ready to be tested in a real scenario. During phase 4, a single and multilevel case study, with participant-observation data collection, was carried out, in order to have a complete but at the same time multi-sectorial evaluation of the framework. The activities that the LifeStech research group carried out since 2008 to improve the management of diabetes have been selected as case study. The results achieved showed that the framework allowed to improve the research activities in different directions: the quality and quantity of the research publications that LifeStech has issued, have increased substantially; 2 project grants to improve the management of diabetes, have been assigned: the first is a grant funding applied research while the second is about accelerating innovations into the market; by using the assessment KPIs of the framework, the proof of concept validation of a prototype developed in a research project was transformed into an early stage assessment of innovative eHealth intervention for Diabetes Management, which has been recently included in the repository of innovative practice of the European Innovation Partnership on Active and Health Ageing initiative. The verification of the 4 hypotheses lead to verify the main hypothesis of this research work: it is possible to contribute to bridge the gap between healthcare and innovation and, in turn, improve the way chronic care is delivered by healthcare systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Emotion is generally argued to be an influence on the behavior of life systems, largely concerning flexibility and adaptivity. The way in which life systems acts in response to a particular situations of the environment, has revealed the decisive and crucial importance of this feature in the success of behaviors. And this source of inspiration has influenced the way of thinking artificial systems. During the last decades, artificial systems have undergone such an evolution that each day more are integrated in our daily life. They have become greater in complexity, and the subsequent effects are related to an increased demand of systems that ensure resilience, robustness, availability, security or safety among others. All of them questions that raise quite a fundamental challenges in control design. This thesis has been developed under the framework of the Autonomous System project, a.k.a the ASys-Project. Short-term objectives of immediate application are focused on to design improved systems, and the approaching of intelligence in control strategies. Besides this, long-term objectives underlying ASys-Project concentrate on high order capabilities such as cognition, awareness and autonomy. This thesis is placed within the general fields of Engineery and Emotion science, and provides a theoretical foundation for engineering and designing computational emotion for artificial systems. The starting question that has grounded this thesis aims the problem of emotion--based autonomy. And how to feedback systems with valuable meaning has conformed the general objective. Both the starting question and the general objective, have underlaid the study of emotion, the influence on systems behavior, the key foundations that justify this feature in life systems, how emotion is integrated within the normal operation, and how this entire problem of emotion can be explained in artificial systems. By assuming essential differences concerning structure, purpose and operation between life and artificial systems, the essential motivation has been the exploration of what emotion solves in nature to afterwards analyze analogies for man--made systems. This work provides a reference model in which a collection of entities, relationships, models, functions and informational artifacts, are all interacting to provide the system with non-explicit knowledge under the form of emotion-like relevances. This solution aims to provide a reference model under which to design solutions for emotional operation, but related to the real needs of artificial systems. The proposal consists of a multi-purpose architecture that implement two broad modules in order to attend: (a) the range of processes related to the environment affectation, and (b) the range or processes related to the emotion perception-like and the higher levels of reasoning. This has required an intense and critical analysis beyond the state of the art around the most relevant theories of emotion and technical systems, in order to obtain the required support for those foundations that sustain each model. The problem has been interpreted and is described on the basis of AGSys, an agent assumed with the minimum rationality as to provide the capability to perform emotional assessment. AGSys is a conceptualization of a Model-based Cognitive agent that embodies an inner agent ESys, the responsible of performing the emotional operation inside of AGSys. The solution consists of multiple computational modules working federated, and aimed at conforming a mutual feedback loop between AGSys and ESys. Throughout this solution, the environment and the effects that might influence over the system are described as different problems. While AGSys operates as a common system within the external environment, ESys is designed to operate within a conceptualized inner environment. And this inner environment is built on the basis of those relevances that might occur inside of AGSys in the interaction with the external environment. This allows for a high-quality separate reasoning concerning mission goals defined in AGSys, and emotional goals defined in ESys. This way, it is provided a possible path for high-level reasoning under the influence of goals congruence. High-level reasoning model uses knowledge about emotional goals stability, letting this way new directions in which mission goals might be assessed under the situational state of this stability. This high-level reasoning is grounded by the work of MEP, a model of emotion perception that is thought as an analogy of a well-known theory in emotion science. The work of this model is described under the operation of a recursive-like process labeled as R-Loop, together with a system of emotional goals that are assumed as individual agents. This way, AGSys integrates knowledge that concerns the relation between a perceived object, and the effect which this perception induces on the situational state of the emotional goals. This knowledge enables a high-order system of information that provides the sustain for a high-level reasoning. The extent to which this reasoning might be approached is just delineated and assumed as future work. This thesis has been studied beyond a long range of fields of knowledge. This knowledge can be structured into two main objectives: (a) the fields of psychology, cognitive science, neurology and biological sciences in order to obtain understanding concerning the problem of the emotional phenomena, and (b) a large amount of computer science branches such as Autonomic Computing (AC), Self-adaptive software, Self-X systems, Model Integrated Computing (MIC) or the paradigm of models@runtime among others, in order to obtain knowledge about tools for designing each part of the solution. The final approach has been mainly performed on the basis of the entire acquired knowledge, and described under the fields of Artificial Intelligence, Model-Based Systems (MBS), and additional mathematical formalizations to provide punctual understanding in those cases that it has been required. This approach describes a reference model to feedback systems with valuable meaning, allowing for reasoning with regard to (a) the relationship between the environment and the relevance of the effects on the system, and (b) dynamical evaluations concerning the inner situational state of the system as a result of those effects. And this reasoning provides a framework of distinguishable states of AGSys derived from its own circumstances, that can be assumed as artificial emotion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En todo el mundo se ha observado un crecimiento exponencial en la incidencia de enfermedades crónicas como la hipertensión y enfermedades cardiovasculares y respiratorias, así como la diabetes mellitus, que causa un número de muertes cada vez mayor en todo el mundo (Beaglehole et al., 2008). En concreto, la prevalencia de diabetes mellitus (DM) está aumentando de manera considerable en todas las edades y representa un serio problema de salud mundial. La diabetes fue la responsable directa de 1,5 millones de muertes en 2012 y 89 millones de años de vida ajustados por discapacidad (AVAD) (OMS, 2014). Uno de los principales dilemas que suelen asociarse a la gestión de EC es la adherencia de los pacientes a los tratamientos, que representa un aspecto multifactorial que necesita asistencia en lo relativo a: educación, autogestión, interacción entre los pacientes y cuidadores y compromiso de los pacientes. Medir la adherencia del tratamiento es complicado y, aunque se ha hablado ampliamente de ello, aún no hay soluciones “de oro” (Reviews, 2002). El compromiso de los pacientes, a través de la participación, colaboración, negociación y a veces del compromiso firme, aumentan las oportunidades para una terapia óptima en la que los pacientes se responsabilizan de su parte en la ecuación de adherencia. Comprometer e involucrar a los pacientes diabéticos en las decisiones de su tratamiento, junto con expertos profesionales, puede ayudar a favorecer un enfoque centrado en el paciente hacia la atención a la diabetes (Martin et al., 2005). La motivación y atribución de poder de los pacientes son quizás los dos factores interventores más relevantes que afectan directamente a la autogestión de la atención a la diabetes. Se ha demostrado que estos dos factores desempeñan un papel fundamental en la adherencia a la prescripción, así como en el fomento exitoso de un estilo de vida sana y otros cambios de conducta (Heneghan et al., 2013). Un plan de educación personalizada es indispensable para proporcionarle al paciente las herramientas adecuadas que necesita para la autogestión efectiva de la enfermedad (El-Gayar et al. 2013). La comunicación efectiva es fundamental para proporcionar una atención centrada en el paciente puesto que influye en las conductas y actitudes hacia un problema de salud ((Frampton et al. 2008). En este sentido, la interactividad, la frecuencia, la temporalización y la adaptación de los mensajes de texto pueden promover la adherencia a un régimen de medicación. Como consecuencia, adaptar los mensajes de texto a los pacientes puede resultar ser una manera de hacer que las sugerencias y la información sean más relevantes y efectivas (Nundy et al. 2013). En este contexto, las tecnologías móviles en el ámbito de la salud (mHealth) están desempeñando un papel importante al conectar con pacientes para mejorar la adherencia a medicamentos recetados (Krishna et al., 2009). La adaptación de los mensajes de texto específicos de diabetes sigue siendo un área de oportunidad para mejorar la adherencia a la medicación y ofrecer motivación a adultos con diabetes. Sin embargo, se necesita más investigación para entender totalmente su eficacia. Los consejos de texto personalizados han demostrado causar un impacto positivo en la atribución de poder a los pacientes, su autogestión y su adherencia a la prescripción (Gatwood et al., 2014). mHealth se puede utilizar para ofrecer programas de asistencia de autogestión a los pacientes con diabetes y, al mismo tiempo, superar las dificultades técnicas y financieras que supone el tratamiento de la diabetes (Free at al., 2013). El objetivo principal de este trabajo de investigación es demostrar que un marco tecnológico basado en las teorías de cambios de conducta, aplicado al campo de la mHealth, permite una mejora de la adherencia al tratamiento en pacientes diabéticos. Como método de definición de una solución tecnológica, se han adoptado un conjunto de diferentes técnicas de conducta validadas denominado marco de compromiso de retroacción conductual (EBF, por sus siglas en inglés) para formular los mensajes, guiar el contenido y evaluar los resultados. Los estudios incorporan elementos del modelo transteórico (TTM, por sus siglas en inglés), la teoría de la fijación de objetivos (GST, por sus siglas en inglés) y los principios de comunicación sanitaria persuasiva y eficaz. Como concepto general, el modelo TTM ayuda a los pacientes a progresar a su próxima fase de conducta a través de mensajes de texto motivados específicos y permite que el médico identifique la fase actual y adapte sus estrategias individualmente. Además, se adoptan las directrices del TTM para fijar objetivos personalizados a un nivel apropiado a la fase de cambio del paciente. La GST encierra normas que van a ponerse en práctica para promover la intervención educativa y objetivos de pérdida de peso. Finalmente, los principios de comunicación sanitaria persuasiva y eficaz aplicados a la aparición de los mensajes se han puesto en marcha para aumentar la efectividad. El EBF tiene como objetivo ayudar a los pacientes a mejorar su adherencia a la prescripción y encaminarlos a una mejora general en la autogestión de la diabetes mediante mensajes de texto personalizados denominados mensajes de retroacción automáticos (AFM, por sus siglas en inglés). Después de una primera revisión del perfil, consistente en identificar características significativas del paciente basadas en las necesidades de tratamiento, actitudes y conductas de atención sanitaria, el sistema elige los AFM personalizados, los aprueba el médico y al final se transfieren a la interfaz del paciente. Durante el tratamiento, el usuario recopila los datos en dispositivos de monitorización de pacientes (PMD, por sus siglas en inglés) de una serie de dispositivos médicos y registros manuales. Los registros consisten en la toma de medicación, dieta y actividad física y tareas de aprendizaje y control de la medida del metabolismo. El compromiso general del paciente se comprueba al estimar el uso del sistema y la adherencia del tratamiento y el estado de los objetivos del paciente a corto y largo plazo. El módulo de análisis conductual, que consiste en una serie de reglas y ecuaciones, calcula la conducta del paciente. Tras lograr el análisis conductual, el módulo de gestión de AFM actualiza la lista de AFM y la configuración de los envíos. Las actualizaciones incluyen el número, el tipo y la frecuencia de mensajes. Los AFM los revisa periódicamente el médico que también participa en el perfeccionamiento del tratamiento, adaptado a la fase transteórica actual. Los AFM se segmentan en distintas categorías y niveles y los pacientes pueden ajustar la entrega del mensaje de acuerdo con sus necesidades personales. El EBF se ha puesto en marcha integrado dentro del sistema METABO, diseñado para facilitar al paciente diabético que controle sus condiciones relevantes de una manera menos intrusiva. El dispositivo del paciente se vincula en una plataforma móvil, mientras que una interfaz de panel médico permite que los profesionales controlen la evolución del tratamiento. Herramientas específicas posibilitan que los profesionales comprueben la adherencia del paciente y actualicen la gestión de envíos de AFM. El EBF fue probado en un proyecto piloto controlado de manera aleatoria. El principal objetivo era examinar la viabilidad y aceptación del sistema. Los objetivos secundarios eran también la evaluación de la eficacia del sistema en lo referente a la mejora de la adherencia, el control glucémico y la calidad de vida. Se reclutaron participantes de cuatro centros clínicos distintos en Europa. La evaluación del punto de referencia incluía datos demográficos, estado de la diabetes, información del perfil, conocimiento de la diabetes en general, uso de las plataformas TIC, opinión y experiencia con dispositivos electrónicos y adopción de buenas prácticas con la diabetes. La aceptación y eficacia de los criterios de evaluación se aplicaron para valorar el funcionamiento del marco tecnológico. El principal objetivo era la valoración de la eficacia del sistema en lo referente a la mejora de la adherencia. En las pruebas participaron 54 pacientes. 26 fueron asignados al grupo de intervención y equipados con tecnología móvil donde estaba instalado el EBF: 14 pacientes tenían T1DM y 12 tenían T2DM. El grupo de control estaba compuesto por 25 pa cientes que fueron tratados con atención estándar, sin el empleo del EBF. La intervención profesional tanto de los grupos de control como de intervención corrió a cargo de 24 cuidadores, entre los que incluían diabetólogos, nutricionistas y enfermeras. Para evaluar la aceptabilidad del sistema y analizar la satisfacción de los usuarios, a través de LimeSurvey, se creó una encuesta multilingüe tanto para los pacientes como para los profesionales. Los resultados también se recopilaron de los archivos de registro generados en los PMD, el panel médico profesional y las entradas de la base de datos. Los mensajes enviados hacia y desde el EBF y los archivos de registro del sistema y los servicios de comunicación se grabaron durante las cinco semanas del estudio. Se entregaron un total de 2795 mensajes, lo que supuso una media de 107,50 mensajes por paciente. Como se muestra, los mensajes disminuyen con el tiempo, indicando una mejora global de la adherencia al plan de tratamiento. Como se esperaba, los pacientes con T1DM recibieron más consejos a corto plazo, en relación a su estado. Del mismo modo, al ser el centro de T2DM en cambios de estilo de vida sostenible a largo plazo, los pacientes con T2DM recibieron más consejos de recomendación, en cuanto a dietas y actividad física. También se ha llevado a cabo una comparación de la adherencia e índices de uso para pacientes con T1DM y T2DM, entre la primera y la segunda mitad de la prueba. Se han observado resultados favorables para el uso. En lo relativo a la adherencia, los resultados denotaron una mejora general en cada dimensión del plan de tratamiento, como la nutrición y las mediciones de inserción de glucosa en la sangre. Se han llevado a cabo más estudios acerca del cambio a nivel educativo antes y después de la prueba, medidos tanto para grupos de control como de intervención. Los resultados indicaron que el grupo de intervención había mejorado su nivel de conocimientos mientras que el grupo de control mostró una leve disminución. El análisis de correlación entre el nivel de adherencia y las AFM ha mostrado una mejora en la adherencia de uso para los pacientes que recibieron los mensajes de tipo alertas, y unos resultados no significativos aunque positivos relacionados con la adherencia tanto al tratamiento que al uso correlacionado con los recordatorios. Por otra parte, los AFM parecían ayudar a los pacientes que no tomaban suficientemente en serio su tratamiento en el principio y que sí estaban dispuestos a responder a los mensajes recibidos. Aun así, los pacientes que recibieron demasiadas advertencias, comenzaron a considerar el envío de mensajes un poco estresante. El trabajo de investigación llevado a cabo al desarrollar este proyecto ofrece respuestas a las cuatro hipótesis de investigación que fueron la motivación para el trabajo. • Hipótesis 1 : es posible definir una serie de criterios para medir la adherencia en pacientes diabéticos. • Hipótesis 2: es posible diseñar un marco tecnológico basado en los criterios y teorías de cambio de conducta mencionados con anterioridad para hacer que los pacientes diabéticos se comprometan a controlar su enfermedad y adherirse a planes de atención. • Hipótesis 3: es posible poner en marcha el marco tecnológico en el sector de la salud móvil. • Hipótesis 4: es posible utilizar el marco tecnológico como solución de salud móvil en un contexto real y tener efectos positivos en lo referente a indicadores de control de diabetes. La verificación de cada hipótesis permite ofrecer respuesta a la hipótesis principal: La hipótesis principal es: es posible mejorar la adherencia diabética a través de un marco tecnológico mHealth basado en teorías de cambio de conducta. El trabajo llevado a cabo para responder estas preguntas se explica en este trabajo de investigación. El marco fue desarrollado y puesto en práctica en el Proyecto METABO. METABO es un Proyecto I+D, cofinanciado por la Comisión Europea (METABO 2008) que integra infraestructura móvil para ayudar al control, gestión y tratamiento de los pacientes con diabetes mellitus de tipo 1 (T1DM) y los que padecen diabetes mellitus de tipo 2 (T2DM). ABSTRACT Worldwide there is an exponential growth in the incidence of Chronic Diseases (CDs), such as: hypertension, cardiovascular and respiratory diseases, as well as diabetes mellitus, leading to rising numbers of deaths worldwide (Beaglehole et al. 2008). In particular, the prevalence of diabetes mellitus (DM) is largely increasing among all ages and constitutes a major worldwide health problem. Diabetes was directly responsible for 1,5 million deaths in 2012 and 89 million Disability-adjusted life year (DALYs) (WHO 2014). One of the key dilemmas often associated to CD management is the patients’ adherence to treatments, representing a multi-factorial aspect that requires support in terms of: education, self-management, interaction between patients and caregivers, and patients’ engagement. Measuring adherence is complex and, even if widely discussed, there are still no “gold” standards ((Giardini et al. 2015), (Costa et al. 2015). Patient’s engagement, through participation, collaboration, negotiation, and sometimes compromise, enhance opportunities for optimal therapy in which patients take responsibility for their part of the adherence equation. Engaging and involving diabetic patients in treatment decisions, along with professional expertise, can help foster a patient-centered approach to diabetes care (Martin et al. 2005). Patients’ motivation and empowerment are perhaps the two most relevant intervening factors that directly affect self-management of diabetes care. It has been demonstrated that these two factors play an essential role in prescription adherence, as well as for the successful encouragement of a healthy life-style and other behavioural changes (Heneghan et al. 2013). A personalised education plan is indispensable in order to provide the patient with the appropriate tools needed for the effective self-management of the disease (El-Gayar et al. 2013). Effective communication is at the core of providing patient-centred care since it influences behaviours and attitudes towards a health problem (Frampton et al. 2008). In this regard, interactivity, frequency, timing, and tailoring of text messages may promote adherence to a medication regimen. As a consequence, tailoring text messages to patients can constitute a way of making suggestions and information more relevant and effective (Nundy et al. 2013). In this context, mobile health technologies (mHealth) are playing significant roles in improving adherence to prescribed medications (Krishna et al. 2009). The tailoring of diabetes-specific text messages remains an area of opportunity to improve medication adherence and provide motivation to adults with diabetes but further research is needed to fully understand their effectiveness. Personalized text advices have proven to produce a positive impact on patients’ empowerment, self-management, and adherence to prescriptions (Gatwood et al. 2014). mHealth can be used for offering self-management support programs to diabetes patients and at the same time surmounting the technical and financial difficulties involved in diabetes treatment (Free et al. 2013). The main objective of this research work is to demonstrate that a technological framework, based on behavioural change theories, applied to mHealth domain, allows improving adherence treatment in diabetic patients. The framework, named Engagement Behavioural Feedback Framework (EBF), is built on top of validated behavioural techniques to frame messages, guide the definition of contents and assess outcomes: elements from the Transtheoretical Model (TTM), the Goal-Setting Theory (GST), Effective Health Communication (EHC) guidelines and Principles of Persuasive Technology (PPT) were incorporated. The TTM helps patients to progress to a next behavioural stage, through specific motivated text messages, and allow clinician’s identifying the current stage and tailor its strategies individually. Moreover, TTM guidelines are adopted to set customised goals at a level appropriate to the patient’s stage of change. The GST was used to build rules to be applied for enhancing educational intervention and weight loss objectives. Finally, the EHC guidelines and the PPT were applied to increase the effectiveness of messages. The EBF aims to support patients on improving their prescription adherence and persuade them towards a general improvement in diabetes self-management, by means of personalised text messages, named Automatic Feedback Messages (AFM). After a first profile screening, consisting in identifying meaningful patient characteristics based on treatment needs, attitudes and health care behaviours, customised AFMs are selected by the system, approved by the professional, and finally transferred into the patient interface. During the treatment, the user collects the data into a Patient Monitoring Device (PMD) from a set of medical devices and from manual inputs. Inputs consist in medication intake, diet and physical activity, metabolic measurement monitoring and learning tasks. Patient general engagement is checked by estimating the usage of the system and the adherence of treatment and patient goals status in the short and the long term period. The Behavioural Analysis Module, consisting in a set of rules and equations, calculates the patient’s behaviour. After behavioural analysis is accomplished, the AFM library and the dispatch setting are updated by the AFM Manager module. Updates include the number, the type and the frequency of messages. The AFMs are periodically supervised by the professional who also participates to the refinement of the treatment, adapted to the current transtheoretical stage. The AFMs are segmented in different categories and levels and patients can adjust message delivery in accordance with their personal needs. The EBF was integrated to the METABO system, designed to facilitate diabetic patients in managing their disease in a less intrusive approach. Patient device corresponds in a mobile platform, while a medical panel interface allows professionals to monitoring the treatment evolution. Specific tools allow professional to check patient adherence and to update the AFMs dispatch management. The EBF was tested in a randomised controlled pilot. The main objective was to examine the feasibility and acceptance of the system. Secondary objectives were also the assessment of the effectiveness of system in terms of adherence improvement, glycaemic control, and quality of life. Participants were recruited from four different clinical centres in Europe. The baseline assessment included demographics, diabetes status, profile information, knowledge about diabetes in general, usage of ICT platforms, opinion and experience about electronic devices and adoption of good practices with diabetes. Acceptance and the effectiveness evaluation criteria were applied to evaluate the performance of the technological framework. The main objective was the assessment of the effectiveness of system in terms of adherence improvement. Fifty-four patients participated on the trials. Twenty-six patients were assigned in the intervention group and equipped with mobile where the EBF was installed: 14 patients were T1DM and 12 were T2DM. The control group was composed of 25 patients that were treated through a standard care, without the usage of the EBF. Professional’s intervention for both intervention and control groups was carried out by 24 care providers, including endocrinologists, nutritionists, and nurses. In order to evaluate the system acceptability and analyse the users’ satisfaction, an online multi-language survey, using LimeSurvey, was produced for both patients and professionals. Results were also collected from the log-files generated in the PMDs, the professional medical panel and the entries of the data base. The messages sent to and from the EBF and the log-files of the system and communication services were recorded over 5 weeks of the study. A total of 2795 messages were submitted, representing an average of 107,50 messages per patient. As demonstrated, messages decrease over time indicating an overall improvement of the care plan’s adherence. As expected, T1DM patients were more loaded with short-term advices, in accordance with their condition. Similarly, being the focus of T2DM on long-term sustainable lifestyle changes, T2DM received more reminders advices, as for diet and physical activity. Favourable outcomes were observed for treatment and usage adherences of the intervention group: for both the adherence indices, results denoted a general improvement on each care plan’s dimension, such as on nutrition and blood glucose input measurements. Further studies were conducted on the change on educational level before and after the trial, measured for both control and intervention groups. The outcomes indicated the intervention group has improved its level of knowledge, while the control group denoted a low decrease. The correlation analysis between the level of adherences and the AFMs showed an improvement in usage adherence for patients who received warnings message, while non-significantly yet even positive indicators related to both treatment and usage adherence correlated with the Reminders. Moreover, the AFMs seemed to help those patients who did not take their treatment seriously enough in the beginning and who were willing to respond to the messages they received. Even though, patients who received too many Warnings, started to consider the message dispatch to be a bit stressful. The research work carried out in developing this research work provides responses to the four research hypothesis that were the motivation for the work: •Hypothesis 1: It is possible to define a set of criteria to measure adherence in diabetic patients. •Hypothesis 2: It is possible to design a technological framework, based on the aforementioned criteria and behavioural change theories, to engage diabetic patients in managing their disease and adhere to care plans. •Hypothesis 3: It is possible to implement the technological framework in the mobile health domain. •Hypothesis 4: It is possible to use the technological framework as a mobile health solution in a real context and have positive effects in terms of diabetes management indicators. The verification of each hypothesis allowed us to provide a response to the main hypothesis: The Main Hypothesis is: It is possible to improve diabetic adherence through a mHealth technological framework based on behavioural change theories. The work carried out to answer these questions is explained in this research work. The framework was developed and applied in the METABO project. METABO is an R&D project, co-funded by the European Commission (METABO 2008) that integrates mobile infrastructure for supporting the monitoring, management, and treatment of type 1 diabetes mellitus (T1DM) and type 2 diabetes mellitus (T2DM) patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El auge y penetración de las nuevas tecnologías junto con la llamada Web Social están cambiando la forma en la que accedemos a la medicina. Cada vez más pacientes y profesionales de la medicina están creando y consumiendo recursos digitales de contenido clínico a través de Internet, surgiendo el problema de cómo asegurar la fiabilidad de estos recursos. Además, un nuevo concepto está apareciendo, el de pervasive healthcare o sanidad ubicua, motivado por pacientes que demandan un acceso a los servicios sanitarios en todo momento y en todo lugar. Este nuevo escenario lleva aparejado un problema de confianza en los proveedores de servicios sanitarios. Las plataformas de eLearning se están erigiendo como paradigma de esta nueva Medicina 2.0 ya que proveen un servicio abierto a la vez que controlado/supervisado a recursos digitales, y facilitan las interacciones y consultas entre usuarios, suponiendo una buena aproximación para esta sanidad ubicua. En estos entornos los problemas de fiabilidad y confianza pueden ser solventados mediante la implementación de mecanismos de recomendación de recursos y personas de manera confiable. Tradicionalmente las plataformas de eLearning ya cuentan con mecanismos de recomendación, si bien están más enfocados a la recomendación de recursos. Para la recomendación de usuarios es necesario acudir a mecanismos más elaborados como son los sistemas de confianza y reputación (trust and reputation) En ambos casos, tanto la recomendación de recursos como el cálculo de la reputación de los usuarios se realiza teniendo en cuenta criterios principalmente subjetivos como son las opiniones de los usuarios. En esta tesis doctoral proponemos un nuevo modelo de confianza y reputación que combina evaluaciones automáticas de los recursos digitales en una plataforma de eLearning, con las opiniones vertidas por los usuarios como resultado de las interacciones con otros usuarios o después de consumir un recurso. El enfoque seguido presenta la novedad de la combinación de una parte objetiva con otra subjetiva, persiguiendo mitigar el efecto de posibles castigos subjetivos por parte de usuarios malintencionados, a la vez que enriquecer las evaluaciones objetivas con información adicional acerca de la capacidad pedagógica del recurso o de la persona. El resultado son recomendaciones siempre adaptadas a los requisitos de los usuarios, y de la máxima calidad tanto técnica como educativa. Esta nueva aproximación requiere una nueva herramienta para su validación in-silico, al no existir ninguna aplicación que permita la simulación de plataformas de eLearning con mecanismos de recomendación de recursos y personas, donde además los recursos sean evaluados objetivamente. Este trabajo de investigación propone pues una nueva herramienta, basada en el paradigma de programación orientada a agentes inteligentes para el modelado de comportamientos complejos de usuarios en plataformas de eLearning. Además, la herramienta permite también la simulación del funcionamiento de este tipo de entornos dedicados al intercambio de conocimiento. La evaluación del trabajo propuesto en este documento de tesis se ha realizado de manera iterativa a lo largo de diferentes escenarios en los que se ha situado al sistema frente a una amplia gama de comportamientos de usuarios. Se ha comparado el rendimiento del modelo de confianza y reputación propuesto frente a dos modos de recomendación tradicionales: a) utilizando sólo las opiniones subjetivas de los usuarios para el cálculo de la reputación y por extensión la recomendación; y b) teniendo en cuenta sólo la calidad objetiva del recurso sin hacer ningún cálculo de reputación. Los resultados obtenidos nos permiten afirmar que el modelo desarrollado mejora la recomendación ofrecida por las aproximaciones tradicionales, mostrando una mayor flexibilidad y capacidad de adaptación a diferentes situaciones. Además, el modelo propuesto es capaz de asegurar la recomendación de nuevos usuarios entrando al sistema frente a la nula recomendación para estos usuarios presentada por el modo de recomendación predominante en otras plataformas que basan la recomendación sólo en las opiniones de otros usuarios. Por último, el paradigma de agentes inteligentes ha probado su valía a la hora de modelar plataformas virtuales complejas orientadas al intercambio de conocimiento, especialmente a la hora de modelar y simular el comportamiento de los usuarios de estos entornos. La herramienta de simulación desarrollada ha permitido la evaluación del modelo de confianza y reputación propuesto en esta tesis en una amplia gama de situaciones diferentes. ABSTRACT Internet is changing everything, and this revolution is especially present in traditionally offline spaces such as medicine. In recent years health consumers and health service providers are actively creating and consuming Web contents stimulated by the emergence of the Social Web. Reliability stands out as the main concern when accessing the overwhelming amount of information available online. Along with this new way of accessing the medicine, new concepts like ubiquitous or pervasive healthcare are appearing. Trustworthiness assessment is gaining relevance: open health provisioning systems require mechanisms that help evaluating individuals’ reputation in pursuit of introducing safety to these open and dynamic environments. Technical Enhanced Learning (TEL) -commonly known as eLearning- platforms arise as a paradigm of this Medicine 2.0. They provide an open while controlled/supervised access to resources generated and shared by users, enhancing what it is being called informal learning. TEL systems also facilitate direct interactions amongst users for consultation, resulting in a good approach to ubiquitous healthcare. The aforementioned reliability and trustworthiness problems can be faced by the implementation of mechanisms for the trusted recommendation of both resources and healthcare services providers. Traditionally, eLearning platforms already integrate recommendation mechanisms, although this recommendations are basically focused on providing an ordered classifications of resources. For users’ recommendation, the implementation of trust and reputation systems appears as the best solution. Nevertheless, both approaches base the recommendation on the information from the subjective opinions of other users of the platform regarding the resources or the users. In this PhD work a novel approach is presented for the recommendation of both resources and users within open environments focused on knowledge exchange, as it is the case of TEL systems for ubiquitous healthcare. The proposed solution adds the objective evaluation of the resources to the traditional subjective personal opinions to estimate the reputation of the resources and of the users of the system. This combined measure, along with the reliability of that calculation, is used to provide trusted recommendations. The integration of opinions and evaluations, subjective and objective, allows the model to defend itself against misbehaviours. Furthermore, it also allows ‘colouring’ cold evaluation values by providing additional quality information such as the educational capacities of a digital resource in an eLearning system. As a result, the recommendations are always adapted to user requirements, and of the maximum technical and educational quality. To our knowledge, the combination of objective assessments and subjective opinions to provide recommendation has not been considered before in the literature. Therefore, for the evaluation of the trust and reputation model defined in this PhD thesis, a new simulation tool will be developed following the agent-oriented programming paradigm. The multi-agent approach allows an easy modelling of independent and proactive behaviours for the simulation of users of the system, conforming a faithful resemblance of real users of TEL platforms. For the evaluation of the proposed work, an iterative approach have been followed, testing the performance of the trust and reputation model while providing recommendation in a varied range of scenarios. A comparison with two traditional recommendation mechanisms was performed: a) using only users’ past opinions about a resource and/or other users; and b) not using any reputation assessment and providing the recommendation considering directly the objective quality of the resources. The results show that the developed model improves traditional approaches at providing recommendations in Technology Enhanced Learning (TEL) platforms, presenting a higher adaptability to different situations, whereas traditional approaches only have good results under favourable conditions. Furthermore the promotion period mechanism implemented successfully helps new users in the system to be recommended for direct interactions as well as the resources created by them. On the contrary OnlyOpinions fails completely and new users are never recommended, while traditional approaches only work partially. Finally, the agent-oriented programming (AOP) paradigm has proven its validity at modelling users’ behaviours in TEL platforms. Intelligent software agents’ characteristics matched the main requirements of the simulation tool. The proactivity, sociability and adaptability of the developed agents allowed reproducing real users’ actions and attitudes through the diverse situations defined in the evaluation framework. The result were independent users, accessing to different resources and communicating amongst them to fulfil their needs, basing these interactions on the recommendations provided by the reputation engine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

PURPOSE The decision-making process plays a key role in organizations. Every decision-making process produces a final choice that may or may not prompt action. Recurrently, decision makers find themselves in the dichotomous question of following a traditional sequence decision-making process where the output of a decision is used as the input of the next stage of the decision, or following a joint decision-making approach where several decisions are taken simultaneously. The implication of the decision-making process will impact different players of the organization. The choice of the decision- making approach becomes difficult to find, even with the current literature and practitioners’ knowledge. The pursuit of better ways for making decisions has been a common goal for academics and practitioners. Management scientists use different techniques and approaches to improve different types of decisions. The purpose of this decision is to use the available resources as well as possible (data and techniques) to achieve the objectives of the organization. The developing and applying of models and concepts may be helpful to solve managerial problems faced every day in different companies. As a result of this research different decision models are presented to contribute to the body of knowledge of management science. The first models are focused on the manufacturing industry and the second part of the models on the health care industry. Despite these models being case specific, they serve the purpose of exemplifying that different approaches to the problems and could provide interesting results. Unfortunately, there is no universal recipe that could be applied to all the problems. Furthermore, the same model could deliver good results with certain data and bad results for other data. A framework to analyse the data before selecting the model to be used is presented and tested in the models developed to exemplify the ideas. METHODOLOGY As the first step of the research a systematic literature review on the joint decision is presented, as are the different opinions and suggestions of different scholars. For the next stage of the thesis, the decision-making process of more than 50 companies was analysed in companies from different sectors in the production planning area at the Job Shop level. The data was obtained using surveys and face-to-face interviews. The following part of the research into the decision-making process was held in two application fields that are highly relevant for our society; manufacturing and health care. The first step was to study the interactions and develop a mathematical model for the replenishment of the car assembly where the problem of “Vehicle routing problem and Inventory” were combined. The next step was to add the scheduling or car production (car sequencing) decision and use some metaheuristics such as ant colony and genetic algorithms to measure if the behaviour is kept up with different case size problems. A similar approach is presented in a production of semiconductors and aviation parts, where a hoist has to change from one station to another to deal with the work, and a jobs schedule has to be done. However, for this problem simulation was used for experimentation. In parallel, the scheduling of operating rooms was studied. Surgeries were allocated to surgeons and the scheduling of operating rooms was analysed. The first part of the research was done in a Teaching hospital, and for the second part the interaction of uncertainty was added. Once the previous problem had been analysed a general framework to characterize the instance was built. In the final chapter a general conclusion is presented. FINDINGS AND PRACTICAL IMPLICATIONS The first part of the contributions is an update of the decision-making literature review. Also an analysis of the possible savings resulting from a change in the decision process is made. Then, the results of the survey, which present a lack of consistency between what the managers believe and the reality of the integration of their decisions. In the next stage of the thesis, a contribution to the body of knowledge of the operation research, with the joint solution of the replenishment, sequencing and inventory problem in the assembly line is made, together with a parallel work with the operating rooms scheduling where different solutions approaches are presented. In addition to the contribution of the solving methods, with the use of different techniques, the main contribution is the framework that is proposed to pre-evaluate the problem before thinking of the techniques to solve it. However, there is no straightforward answer as to whether it is better to have joint or sequential solutions. Following the proposed framework with the evaluation of factors such as the flexibility of the answer, the number of actors, and the tightness of the data, give us important hints as to the most suitable direction to take to tackle the problem. RESEARCH LIMITATIONS AND AVENUES FOR FUTURE RESEARCH In the first part of the work it was really complicated to calculate the possible savings of different projects, since in many papers these quantities are not reported or the impact is based on non-quantifiable benefits. The other issue is the confidentiality of many projects where the data cannot be presented. For the car assembly line problem more computational power would allow us to solve bigger instances. For the operation research problem there was a lack of historical data to perform a parallel analysis in the teaching hospital. In order to keep testing the decision framework it is necessary to keep applying more case studies in order to generalize the results and make them more evident and less ambiguous. The health care field offers great opportunities since despite the recent awareness of the need to improve the decision-making process there are many opportunities to improve. Another big difference with the automotive industry is that the last improvements are not spread among all the actors. Therefore, in the future this research will focus more on the collaboration between academia and the health care sector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las transformaciones martensíticas (MT) se definen como un cambio en la estructura del cristal para formar una fase coherente o estructuras de dominio multivariante, a partir de la fase inicial con la misma composición, debido a pequeños intercambios o movimientos atómicos cooperativos. En el siglo pasado se han descubierto MT en diferentes materiales partiendo desde los aceros hasta las aleaciones con memoria de forma, materiales cerámicos y materiales inteligentes. Todos muestran propiedades destacables como alta resistencia mecánica, memoria de forma, efectos de superelasticidad o funcionalidades ferroicas como la piezoelectricidad, electro y magneto-estricción etc. Varios modelos/teorías se han desarrollado en sinergia con el desarrollo de la física del estado sólido para entender por qué las MT generan microstructuras muy variadas y ricas que muestran propiedades muy interesantes. Entre las teorías mejor aceptadas se encuentra la Teoría Fenomenológica de la Cristalografía Martensítica (PTMC, por sus siglas en inglés) que predice el plano de hábito y las relaciones de orientación entre la austenita y la martensita. La reinterpretación de la teoría PTMC en un entorno de mecánica del continuo (CM-PTMC) explica la formación de los dominios de estructuras multivariantes, mientras que la teoría de Landau con dinámica de inercia desentraña los mecanismos físicos de los precursores y otros comportamientos dinámicos. La dinámica de red cristalina desvela la reducción de la dureza acústica de las ondas de tensión de red que da lugar a transformaciones débiles de primer orden en el desplazamiento. A pesar de las diferencias entre las teorías estáticas y dinámicas dado su origen en diversas ramas de la física (por ejemplo mecánica continua o dinámica de la red cristalina), estas teorías deben estar inherentemente conectadas entre sí y mostrar ciertos elementos en común en una perspectiva unificada de la física. No obstante las conexiones físicas y diferencias entre las teorías/modelos no se han tratado hasta la fecha, aun siendo de importancia crítica para la mejora de modelos de MT y para el desarrollo integrado de modelos de transformaciones acopladas de desplazamiento-difusión. Por lo tanto, esta tesis comenzó con dos objetivos claros. El primero fue encontrar las conexiones físicas y las diferencias entre los modelos de MT mediante un análisis teórico detallado y simulaciones numéricas. El segundo objetivo fue expandir el modelo de Landau para ser capaz de estudiar MT en policristales, en el caso de transformaciones acopladas de desplazamiento-difusión, y en presencia de dislocaciones. Comenzando con un resumen de los antecedente, en este trabajo se presentan las bases físicas de los modelos actuales de MT. Su capacidad para predecir MT se clarifica mediante el ansis teórico y las simulaciones de la evolución microstructural de MT de cúbicoatetragonal y cúbicoatrigonal en 3D. Este análisis revela que el modelo de Landau con representación irreducible de la deformación transformada es equivalente a la teoría CM-PTMC y al modelo de microelasticidad para predecir los rasgos estáticos durante la MT, pero proporciona una mejor interpretación de los comportamientos dinámicos. Sin embargo, las aplicaciones del modelo de Landau en materiales estructurales están limitadas por su complejidad. Por tanto, el primer resultado de esta tesis es el desarrollo del modelo de Landau nolineal con representación irreducible de deformaciones y de la dinámica de inercia para policristales. La simulación demuestra que el modelo propuesto es consistente fcamente con el CM-PTMC en la descripción estática, y también permite una predicción del diagrama de fases con la clásica forma ’en C’ de los modos de nucleación martensítica activados por la combinación de temperaturas de enfriamiento y las condiciones de tensión aplicada correlacionadas con la transformación de energía de Landau. Posteriomente, el modelo de Landau de MT es integrado con un modelo de transformación de difusión cuantitativa para elucidar la relajación atómica y la difusión de corto alcance de los elementos durante la MT en acero. El modelo de transformaciones de desplazamiento y difusión incluye los efectos de la relajación en borde de grano para la nucleación heterogenea y la evolución espacio-temporal de potenciales de difusión y movilidades químicas mediante el acoplamiento de herramientas de cálculo y bases de datos termo-cinéticos de tipo CALPHAD. El modelo se aplica para estudiar la evolución microstructural de aceros al carbono policristalinos procesados por enfriamiento y partición (Q&P) en 2D. La microstructura y la composición obtenida mediante la simulación se comparan con los datos experimentales disponibles. Los resultados muestran el importante papel jugado por las diferencias en movilidad de difusión entre la fase austenita y martensita en la distibución de carbono en las aceros. Finalmente, un modelo multi-campo es propuesto mediante la incorporación del modelo de dislocación en grano-grueso al modelo desarrollado de Landau para incluir las diferencias morfológicas entre aceros y aleaciones con memoria de forma con la misma ruptura de simetría. La nucleación de dislocaciones, la formación de la martensita ’butterfly’, y la redistribución del carbono después del revenido son bien representadas en las simulaciones 2D del estudio de la evolución de la microstructura en aceros representativos. Con dicha simulación demostramos que incluyendo las dislocaciones obtenemos para dichos aceros, una buena comparación frente a los datos experimentales de la morfología de los bordes de macla, la existencia de austenita retenida dentro de la martensita, etc. Por tanto, basado en un modelo integral y en el desarrollo de códigos durante esta tesis, se ha creado una herramienta de modelización multiescala y multi-campo. Dicha herramienta acopla la termodinámica y la mecánica del continuo en la macroescala con la cinética de difusión y los modelos de campo de fase/Landau en la mesoescala, y también incluye los principios de la cristalografía y de la dinámica de red cristalina en la microescala. ABSTRACT Martensitic transformation (MT), in a narrow sense, is defined as the change of the crystal structure to form a coherent phase, or multi-variant domain structures out from a parent phase with the same composition, by small shuffles or co-operative movements of atoms. Over the past century, MTs have been discovered in different materials from steels to shape memory alloys, ceramics, and smart materials. They lead to remarkable properties such as high strength, shape memory/superelasticity effects or ferroic functionalities including piezoelectricity, electro- and magneto-striction, etc. Various theories/models have been developed, in synergy with development of solid state physics, to understand why MT can generate these rich microstructures and give rise to intriguing properties. Among the well-established theories, the Phenomenological Theory of Martensitic Crystallography (PTMC) is able to predict the habit plane and the orientation relationship between austenite and martensite. The re-interpretation of the PTMC theory within a continuum mechanics framework (CM-PTMC) explains the formation of the multivariant domain structures, while the Landau theory with inertial dynamics unravels the physical origins of precursors and other dynamic behaviors. The crystal lattice dynamics unveils the acoustic softening of the lattice strain waves leading to the weak first-order displacive transformation, etc. Though differing in statics or dynamics due to their origins in different branches of physics (e.g. continuum mechanics or crystal lattice dynamics), these theories should be inherently connected with each other and show certain elements in common within a unified perspective of physics. However, the physical connections and distinctions among the theories/models have not been addressed yet, although they are critical to further improving the models of MTs and to develop integrated models for more complex displacivediffusive coupled transformations. Therefore, this thesis started with two objectives. The first one was to reveal the physical connections and distinctions among the models of MT by means of detailed theoretical analyses and numerical simulations. The second objective was to expand the Landau model to be able to study MTs in polycrystals, in the case of displacive-diffusive coupled transformations, and in the presence of the dislocations. Starting with a comprehensive review, the physical kernels of the current models of MTs are presented. Their ability to predict MTs is clarified by means of theoretical analyses and simulations of the microstructure evolution of cubic-to-tetragonal and cubic-to-trigonal MTs in 3D. This analysis reveals that the Landau model with irreducible representation of the transformed strain is equivalent to the CM-PTMC theory and microelasticity model to predict the static features during MTs but provides better interpretation of the dynamic behaviors. However, the applications of the Landau model in structural materials are limited due its the complexity. Thus, the first result of this thesis is the development of a nonlinear Landau model with irreducible representation of strains and the inertial dynamics for polycrystals. The simulation demonstrates that the updated model is physically consistent with the CM-PTMC in statics, and also permits a prediction of a classical ’C shaped’ phase diagram of martensitic nucleation modes activated by the combination of quenching temperature and applied stress conditions interplaying with Landau transformation energy. Next, the Landau model of MT is further integrated with a quantitative diffusional transformation model to elucidate atomic relaxation and short range diffusion of elements during the MT in steel. The model for displacive-diffusive transformations includes the effects of grain boundary relaxation for heterogeneous nucleation and the spatio-temporal evolution of diffusion potentials and chemical mobility by means of coupling with a CALPHAD-type thermo-kinetic calculation engine and database. The model is applied to study for the microstructure evolution of polycrystalline carbon steels processed by the Quenching and Partitioning (Q&P) process in 2D. The simulated mixed microstructure and composition distribution are compared with available experimental data. The results show that the important role played by the differences in diffusion mobility between austenite and martensite to the partitioning in carbon steels. Finally, a multi-field model is proposed by incorporating the coarse-grained dislocation model to the developed Landau model to account for the morphological difference between steels and shape memory alloys with same symmetry breaking. The dislocation nucleation, the formation of the ’butterfly’ martensite, and the redistribution of carbon after tempering are well represented in the 2D simulations for the microstructure evolution of the representative steels. With the simulation, we demonstrate that the dislocations account for the experimental observation of rough twin boundaries, retained austenite within martensite, etc. in steels. Thus, based on the integrated model and the in-house codes developed in thesis, a preliminary multi-field, multiscale modeling tool is built up. The new tool couples thermodynamics and continuum mechanics at the macroscale with diffusion kinetics and phase field/Landau model at the mesoscale, and also includes the essentials of crystallography and crystal lattice dynamics at microscale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.