289 resultados para siglas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Encontrar el árbol de expansión mínimo con restricción de grado de un grafo (DCMST por sus siglas en inglés) es un problema NP-complejo ampliamente estudiado. Una de sus aplicaciones más importantes es el dise~no de redes. Aquí nosotros tratamos una nueva variante del problema DCMST, que consiste en encontrar el árbol de expansión mínimo no solo con restricciones de grado, sino también con restricciones de rol (DRCMST), es decir, a~nadimos restricciones para restringir el rol que los nodos tienen en el árbol. Estos roles pueden ser nodo raíz, nodo intermedio o nodo hoja. Por otra parte, no limitamos el número de nodos raíz a uno, por lo que, en general, construiremos bosques de DRCMSTs. El modelado en los problemas de dise~no de redes puede beneficiarse de la posibilidad de generar más de un árbol y determinar el rol de los nodos en la red. Proponemos una nueva representación basada en permutaciones para codificar los bosques de DRCMSTs. En esta nueva representación, una permutación codifica simultáneamente todos los árboles que se construirán. Nosotros simulamos una amplia variedad de problemas DRCMST que optimizamos utilizando ocho algoritmos de computación evolutiva diferentes que codifican los individuos de la población utilizando la representación propuesta. Los algoritmos que utilizamos son: algoritmo de estimación de distribuciones (EDA), algoritmo genético generacional (gGA), algoritmo genético de estado estacionario (ssGA), estrategia evolutiva basada en la matriz de covarianzas (CMAES), evolución diferencial (DE), estrategia evolutiva elitista (ElitistES), estrategia evolutiva no elitista (NonElitistES) y optimización por enjambre de partículas (PSO). Los mejores resultados fueron para el algoritmo de estimación de distribuciones utilizado y ambos tipos de algoritmos genéticos, aunque los algoritmos genéticos fueron significativamente más rápidos.---ABSTRACT---Finding the degree-constrained minimum spanning tree (DCMST) of a graph is a widely studied NP-hard problem. One of its most important applications is network design. Here we deal with a new variant of the DCMST problem, which consists of finding not only the degree- but also the role-constrained minimum spanning tree (DRCMST), i.e., we add constraints to restrict the role of the nodes in the tree to root, intermediate or leaf node. Furthermore, we do not limit the number of root nodes to one, thereby, generally, building a forest of DRCMSTs. The modeling of network design problems can benefit from the possibility of generating more than one tree and determining the role of the nodes in the network. We propose a novel permutation-based representation to encode the forest of DRCMSTs. In this new representation, one permutation simultaneously encodes all the trees to be built. We simulate a wide variety of DRCMST problems which we optimize using eight diferent evolutionary computation algorithms encoding individuals of the population using the proposed representation. The algorithms we use are: estimation of distribution algorithm (EDA), generational genetic algorithm (gGA), steady-state genetic algorithm (ssGA), covariance matrix adaptation evolution strategy (CMAES), diferential evolution (DE), elitist evolution strategy (ElististES), non-elitist evolution strategy (NonElististES) and particle swarm optimization (PSO). The best results are for the estimation of distribution algorithm and both types of genetic algorithms, although the genetic algorithms are significantly faster. iv

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas, ha aumentado el interés de la investigación sobre el desarrollo de la coordinación motriz en la adolescencia por ser una etapa sensible, crítica y crucial para la adquisición de hábitos y conductas saludables de vida. Estos estudios han mostrado que la adquisición de unos niveles óptimos de coordinación y competencia motriz van a ser determinantes para el bienestar del adolescente y van a estar relacionados e influidos por otras dimensiones del desarrollo de la persona. Recientes investigaciones han sacado a la luz datos alarmantes sobre el aumento de problemas de coordinación motriz en la población infantil y adolescente (Cantell, Smyth y Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutiérrez y Miyahara, 2003; Sudgen y Chambers, 2005) donde abrocharse los botones de una camisa o correr de forma armónica puede ser todo un mundo lleno de dificultades y consecuencias sobre otras dimensiones del desarrollo (Ramón-Otero y Ruiz, 2015). Estos problemas han sido tratados por investigadores como una “dificultad oculta” (Gómez, Ruiz y Mata, 2006), cuya manifestación está presente en las actividades de la vida cotidiana, en contextos deportivos, en juegos y/o en la clase de Educación Física (Ruiz, 2004). La preocupación por estas dificultades se ha extendido a nivel internacional, creando todo un campo de investigación que estudia el diagnóstico de éstos problemas, conocido bajo las siglas DCD (Developmental Coordination Disorder). El presente estudio se centra en la etapa adolescente, periodo de transición entre la etapa infantil y adulta, caracterizada por numerosos cambios biológicos, cognitivos y socioemocionales (Santrock, 2005), que van a determinar la adaptación con el entorno (Gallahue, Ozmun y Goodway, 2011; Gómez, Ruiz, y Mata, 2006). El propósito principal del estudio es analizar el desarrollo de la coordinación motriz en la etapa adolescente investigando las diferencias de género y de edad en relación con variables psicosociales, los hábitos de práctica y las variables antropométricas. El diseño de la investigación se estructura en dos estudios. El primero de ellos, de carácter transversal, analizó una muestra representativa de 1.966 adolescentes de 1º a 4º de la ESO. El segundo, de naturaleza longitudinal, utilizó un grupo de 89 adolescentes del estudio transversal los cuales fueron estudiados durante 4 años, desde los 12 a los 15 años. Los mismos instrumentos fueron utilizados en ambos estudios: el Test Sportcomp para la evaluación de la coordinación motriz, el test AMPET4 para valorar la motivación de logro para el aprendizaje en Educación Física, el inventario HBSC para conocer los hábitos saludables sobre la práctica de actividad física y, por ultimo, se utilizó un estadiómetro para obtener el peso y la altura y así calcular el índice de masa corporal (IMC). La toma de datos del Estudio Transversal se realizó en 2 cursos académicos (2011/12 - 2012/13), en la cual se requirieron 3 sesiones coincidiendo con la clase de Educación Física. En la primera sesión, se evaluó la coordinación motriz. En la segunda se aplicaron los cuestionarios (AMPET4 y HBSC) y, en la última sesión se midió el peso y la altura en un espacio reservado al estadiómetro. El análisis de datos fue descriptivo y diferencial de cada una de las variables estudiadas: motoras, psicosociales, de hábitos de práctica de actividad física y antropométricas. Asimismo, se llevaron a cabo pruebas de análisis univariante y multivariante, calculando el valor-p y las pruebas de efecto. Respecto al Estudio Longitudinal, la toma de datos se llevó cabo durante 4 años desde el 2011 al 2014. La evaluación de la coordinación motriz se realizó en cada uno de los 4 años. Sin embargo, los 2 cuestionarios y las medidas antropométricas fueron evaluadas en el primer y cuarto año. Los análisis de datos fueron descriptivos y comparativos entre las variables analizadas. En el caso de la coordinación motriz, se realizaron las pruebas de medidas repetidas y, en el caso de las demás variables analizadas, se realizaron Prueba T para muestras relacionadas. Los resultados globales mostraron que el índice motor en el Estudio Transversal fue progresivo en el conjunto de chicos. Sin embargo, en las chicas, el rendimiento se estabiliza a partir de los 13 años. En el caso del Estudio Longitudinal, este índice se estabiliza en los 3 primeros años y a la edad de los 14, es cuando comienzan a acusarse las diferencias de género. En el caso de los hombres el rendimiento mejora y, por el contrario, en las mujeres empeora. En el Estudio Transversal, el análisis de varianza mostraron diferencias en función de la edad [F(7, 1958) = 220.70, p < .001; η2 = .101], del género [F(7, 1958) = 29.76, p < .001; η2 = .044], así como en la interacción entre ambos [F(7, 1958)= 11.90, p < .001; η2 = .018]. Únicamente aparecieron diferencias significativas con la edad en todos los grupos de hombres, excepto entre 14 y 15 años. En el Longitudinal, los contrastes multivariados mostraron que no hubo diferencias sgnificativas en el tiempo [F(3,85) = .05, p = .987, η2= .002] mostrando un nivel de coordinación estable a lo largo de los años, aunque existieron diferencias entre chicos y chicas [F(3,85) = 4.64 p = .005] con un tamaño de efecto destacable (η2 = .141). En cuanto a la motivación de logro para prender en Educación Física, en ambos estudios, los chicos fueron los que obtuvieron puntuaciones más elevadas en todas las dimensiones positivas del test (compromiso de aprendizaje, competencia autopercibida y comparada). Sin embargo, en la dimensión negativa del test, la referida a la ansiedad y al agobio ante el fracaso, fueron las chicas las que puntuaron más alto. En el Estudio Transversal, los resultados mostraron diferencias significativas en todas las dimensiones del AMPET4 en función del nivel de coordinación motriz: compromiso con el aprendizaje [F(2, 1644) = 8.66, p < .001; η2 = .010], competencia autopercibida [F(2, 1644) = 50.94, p < .001; η2 = .048], competencia comparada [F(2, 1644) = 41.56, p < .001, η2 = .020] y ansiedad [F(2, 1644) = 16.67, p < .001, η2 = .058]. En este sentido, los grupos de mejor nivel de coordinación motriz, fueron los que mayor puntuación obtuvieron en las dimensiones positivas y los que menor, en la negativa. En el Estudio Longitudinal, también se encontraron diferencias entre el primer y cuarto año de estudio en todas las dimensiones, excepto en competencia motriz autopercibida. Estas diferencias se tradujeron en una disminución en las 3 variables significativas del primer al cuarto año. Respecto al inventario HBSC, en el Estudio Longitudinal, la prueba T mostró únicamente la existencia de diferencias significativas entre el primer y cuarto año en 2 de los 11 ítems: percepción de la forma física (p = .006) y percepción de la salud (p = .047), los cuales disminuyeron en el intervalo de tiempo del estudio. En el Transversal, las diferencias se observaron en función del género (p < .001) y de la edad (p < .001). Asimismo, se mostraron diferencias significativas en todos los ítems respecto al nivel de coordinación motriz, excepto en 2 de ellos: frecuencia tiempo libre con los amigos fuera del colegio (p = .580) y facilidad para hacer amigos en el centro escolar (p = .098). Por último, en las variables antropométricas, los resultados del Estudio Transversal y Longitudinal coinciden tanto en la estatura como en el peso, apuntando, que en ambos estudios, se produce un aumento progresivo tanto en chicos como en chicas a medida que se avanza en edad. Concretamente en el Transversal, estas diferencias en la edad se encuentran en todos los grupos en ambos géneros, excepto en el conjunto de chicas entre los 14 y los 15 años. Asimismo, ambos estudios coincidieron en que tanto las ganancias en cm y kg, como las puntuaciones medias, fueron mayores en los chicos que en las chicas. Respecto al IMC, los 2 estudios coincidieron en que la evolución es paralela, y tal y como apuntan los resultados del Transversal, no se encontraron diferencias ni en la edad (p = 792) ni en el género (p = 284). No obstante, el Longitudinal apuntó únicamente diferencias significativas entre el primer y cuarto año en el conjunto de los hombres [t(41) = -4.01, p < .001]. Finalmente, y en relación con los niveles de coordinación motriz, hubo diferencias significativas en relación con el IMC (p = .012), mostrando como el grupo de peso normal coincide con puntuaciones óptimas de coordinación motriz. A modo de conclusiones, el presente estudio revela cómo la adquisición de un nivel de coordinación óptimo va a ser fundamental para el desarrollo psicosocial, para el desarrollo de hábitos saludables de práctica y para mantener un IMC dentro de la normalidad para el género y la edad. De esta manera, el desarrollo de la coordinación motriz será un aspecto fundamental para lograr un estado de bienestar físico y mental, y unos hábitos favorables para la práctica de actividad física. ABSTRACT In the past couple of decades, adolescence stage in motor coordination gained significant interest in research especially due to its sensitive and critical importance to achieving a healthy life style. These studies observed how to acquire optimum levels of coordination and motor competence, which proved crucial to the quality of the adolescent stage in addition to being influenced by other dimensions of development for each individual. Recent research shed light to an alarming set of data, which showed increased motor coordination problems in children and adolescents (Cantell, Smyth & Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutierrez & Miyahara, 2003; Sugden & Chambers, 2005). For instance, even to the extent that buttoning a shirt or running in a harmonic form can lead to a whole set of consequences and difficulties on the development stage. Researchers have addressed such problems in various studies such as “dificultad oculta” (Gomez, Ruiz & Mata, 2006), which literally translates as “hidden trouble”. The studies are evidently present in the activities of daily life, sporting contexts, games and/or Physical Education (Ruiz, 2004). Concern about these difficulties spread internationally, creating a whole framework research studying the diagnosis of these problems, known under the acronym DCD (Developmental Coordination Disorder). The study focuses on the adolescent stage, transition period between childhood and adulthood characterized by numerous biological, cognitive and socio-emotional changes (Santrock, 2005), which interestingly determines an individual´s adaptation to the environment (Gallahue, Ozmun & Goodway, 2011; Gomez, Ruiz & Mata, 2006). The main purpose of the study is to analyse the development of motor coordination in the adolescent stage investigating gender differences and age in relation to psychological variables, physical activity habits and anthropometric variables. The research design is structured in two studies. The first (transversal nature), analyses a representative sample of 1,966 adolescents from 1st to 4th of Secondary Education School. The second (longitudinal nature) used a group of 89 teenagers from cross-sectional study, which were studied for four years, from 12 to 15 years. The same instruments were used in both studies, namely; “Sportcomp Test” used to evaluate of motor coordination; “AMPET4 Test” which assesses the motivational achievement of learning Physical Education; “HBSC Inventory” to find out the healthy habits gained from physical activities; And finally a “stadiometer” was used to obtain the weight and height and thus calculate the body mass index (BMI). The data collection of the cross-sectional Study was conducted in two academic years (2011/12 - 2012/13), in which 3 sessions coinciding with the Physical Education level are required. In the first session, motor coordination was evaluated; questionnaires were applied in the second session (AMPET4 and HBSC); and in the last session the weight and height were measured in a reserved space for the “stadiometer”. Notably, data analysis was descriptive and differential in each of the variable studies: motor, psychological, practical and anthropometric habits of physical activity. Thus the tests were conducted in a univariate and multivariate analysis, calculating the p-value and effect tests. Regarding the Longitudinal Study, data collection was carried out during four years from 2011 to 2014 inclusively. The assessment of motor coordination was performed on each of the four years, however, the 2 questionnaires and anthropometric measures were evaluated in the first and fourth year. Data analyses were also descriptive and comparative among the variables that were put to the test. In the case of motor coordination tests, they were done on repeated measures, whilst, in the case of other variables analysed, they were accomplished through T Tests under comparable samples. The overall results showed that the engine Motor Index in Study 1 was progressive in all male gender studies, however in the females the performance remained constant after reaching 13 years of age. For the Longitudinal Study, this index is stabilized in the first 3 years and at the age of 14 is when the gender differences take place. In the case of males, the performance improves, however, in females worsens. The cross-sectional Study, analysis of variance showed differences in terms of age [F(7, 1958) = 220.70, p < .001; η2 = .101], gender [F(7, 1958) = 29.76, p <.001; η2 = .044], as well as their interaction [F(7, 1958) = 11.90, p <.001; η2 = .018]. They only show significant differences in respect to age in the male set sample, in all groups except between 14 and 15 years old. In the Longitudinal, the multivariate contrasts showed no significant differences in time [F(3,85) = 0.05, p = 0.987, η2 = 0.002] showing a stable level of coordination over the years, but if there were differences between both genders [F(3,85) = 4.64, p = .005] it took place with a noteworthy effect size (η2 = .141). In regards, to the Motivational Achievement for learning Physical Education, in both studies the male sample administered obtained higher scores on all the positive dimensions of the test (commitment to learning, self-assessed competence, and comparable competence). However, on the negative assessment side, namely, anxiety and fear of failure, the female sample scored higher than the male one. In Study 1, the multivariate analysis showed significant differences between the psychosocial dimensions and levels of motor coordination with moderate to significant effect [Lambada de Wilks = .931, F(8, 3282) = 14.99; p = <0.001; η2 = .035]. By the same token, the groups with the best level of motor coordination were the highest scoring ones in the positive dimensions, whilst the lower performing ones, performed better in the negative dimension. In the longitudinal study, there is also differences were also found between the first and fourth years of study in all dimensions, except in self-perceived motor competition. These differences resulted in a significant decrease in the 3 variables from first to fourth year. Regarding, the “HBSC Inventory”, the T test in the longitudinal study showed uniquely the existence of significant differences between the first and fourth year in 2 of the 11 items: perception of physical fitness (p = .006) and perceived health (p = 047), which diminished in the interval time of the study. In the Cross-sectional study, the se differences were also observed in gender (p < .001) and age (p < .001). Similarly, they showed significant differences in all items in respect to the motor coordination level, except in 2 of them; frequency of free time with friends outside of school (p = .580) and the ease to make friends at the educational centre (p = 098). And last but not least, the anthropometric variables, both the results of the Transversal and Longitudinal Study matched both height and weight, pointing out that in both studies a gradual increase in both genders, as they grow older. Notably in the Cross-sectional, these differences in age are found in all groups in both genders, except for the set of girls between 14 and 15 years. Thus both studies concluded that both gains in cm and kg and the mean scores were higher amongst males compared to females. Regarding BMI, the 2 studies concluded that the evolution is parallel, and as pointed cross-sectional study there isn’t differences found in age (p = 792) or in gender (p = 284). However, the Longitudinal study uniquely shows significant difference between the first and fourth year for male set sample [t (41) = -4.01, p < .001]. Finally, in relation to levels of motor coordination, there were significant differences in relation to BMI (p = .012), showing how the “normal weight group” matches the optimal scores of motor coordination. In conclusion, this study reveals how the acquisition of an optimal level of coordination is vital for psychological development, to develop and practice healthy habits, and to maintain a BMI within the normal range for age and gender. Therefore, the development of motor coordination is fundamental to achieving a state of physical and mental wellbeing, and preferable habits to pursuing physical activity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El hormigón como material de construcción constituye la base fundamental del desarrollo de la infraestructura de nuestras sociedades modernas. Este material compuesto en su forma mas básica de material cementoso, áridos finos, gruesos y agua es muy versátil dada la posibilidad de fabricación en obra, su capacidad de moldeo y sus altas prestaciones mecánicas ante cargas de compresión El uso de fibras dentro de la matriz del hormigón surge como una opción para mejorar las capacidades mecánicas del hormigón, tendiente principalmente a un aumento de su capacidad de absorción de energía (Aumento de ductilidad). El objetivo de este trabajo fue el estudio del comportamiento mecánico de hormigones autocompactantes reforzados con fibras de poliolefina y metálicas sometidos a esfuerzos de cortante puro. Para esto se realizaron ensayos tipo “Push-Off” sobre diferentes dosificaciones de fibras agregadas a hormigones patrón de referencia. La campana experimental se realizo sobre hormigones autocompactantes de campanas experimentales anteriores. La campana abarca hormigones reforzados con fibra de poliolefina desde el umbral inferior de 3kg/m3 hasta un valor máximo de 10kg/m3, así como hormigones reforzados con fibra de acero con 26 y 70 kilogramos de fibra por metro cúbico de hormigón, buscando evaluar su comportamiento mecánico en estado endurecido a ensayos de cortante puro tipo “Push-off”. Dichos ensayos fueron instrumentados mediante la colocación de CMOD (Crack mouth open displacement) en las entallas, así como usando la técnica de la video extensometría (DIC por sus siglas en ingles), la cual permite hacer un análisis mas minucioso de los estados de deformaciones de toda la probeta. Se concluyo que los hormigones con bajos y medios contenidos de fibras de poliolefina aumentan en pequeña magnitud su ductilidad, estando condicionados los ensayos tipo “Push-off” de los mismos a la probabilidad de encontrar fibras en la interfaz de la fisura por cortante. En el caso de los hormigones con contenido medio de fibras de acero, se concluyo que tienen una gran mejoría en su comportamiento frente a cortante puro. Su comportamiento post-pico tiene aumentos considerables con respecto a los hormigones no reforzados, ductilidad y capacidad de conservación de cargas residuales, y la capacidad de disipación de energía de estos es intermedia entre los hormigones de bajo contenido de fibras de poliolefina y los de alto contenido tanto de acero como de poliolefina. Estos hormigones constituyen en general un punto medio entre economía y facilidad de fabricación y desempeño mecánico. En el caso de los hormigones de alto contenido de fibras de poliolefina, se obtuvieron comportamientos post-pico con alta ductilidad, con deformaciones que superan valores de 2mm. Las cargas pico de los mismos fueron levemente superiores a los hormigones no reforzados y un poco inferiores a los de alto contenido de fibras de acero sin ser concluyentes los resultados al respecto. Estos hormigones disipan menos energía en la fractura que los hormigones de acero hasta deformaciones de 2mm pero una vez alcanzada la misma se evidencio que el cortante residual de estos superaba la de los hormigones con fibra de acero. Los hormigones con alto contenido de fibra de acero presentaron los mejores resultados de la campana experimental, con cargas pico mayores, ramas de descarga con pendiente reducida (fallas dúctiles) y mayor cantidad de energía disipada. A pesar de esto es importante tener en cuenta que los resultados obtenidos no estuvieron muy alejados de los hormigones con alto contenido de fibras de poliolefina, los cuales son mas económicos, menos densos, mas durables y mas manejables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se aborda el problema del seguimiento de objetos, cuyo objetivo es encontrar la trayectoria de un objeto en una secuencia de video. Para ello, se ha desarrollado un método de seguimiento-por-detección que construye un modelo de apariencia en un dominio comprimido usando una nueva e innovadora técnica: “compressive sensing”. La única información necesaria es la situación del objeto a seguir en la primera imagen de la secuencia. El seguimiento de objetos es una aplicación típica del área de visión artificial con un desarrollo de bastantes años. Aun así, sigue siendo una tarea desafiante debido a varios factores: cambios de iluminación, oclusión parcial o total de los objetos y complejidad del fondo de la escena, los cuales deben ser considerados para conseguir un seguimiento robusto. Para lidiar lo más eficazmente posible con estos factores, hemos propuesto un algoritmo de tracking que entrena un clasificador Máquina Vector Soporte (“Support Vector Machine” o SVM en sus siglas en inglés) en modo online para separar los objetos del fondo de la escena. Con este fin, hemos generado nuestro modelo de apariencia por medio de un descriptor de características muy robusto que describe los objetos y el fondo devolviendo un vector de dimensiones muy altas. Por ello, se ha implementado seguidamente un paso para reducir la dimensionalidad de dichos vectores y así poder entrenar nuestro clasificador en un dominio mucho menor, al que denominamos domino comprimido. La reducción de la dimensionalidad de los vectores de características se basa en la teoría de “compressive sensing”, que dice que una señal con poca dispersión (pocos componentes distintos de cero) puede estar bien representada, e incluso puede ser reconstruida, a partir de un conjunto muy pequeño de muestras. La teoría de “compressive sensing” se ha aplicado satisfactoriamente en este trabajo y diferentes técnicas de medida y reconstrucción han sido probadas para evaluar nuestros vectores reducidos, de tal forma que se ha verificado que son capaces de preservar la información de los vectores originales. También incluimos una actualización del modelo de apariencia del objeto a seguir, mediante el reentrenamiento de nuestro clasificador en cada cuadro de la secuencia con muestras positivas y negativas, las cuales han sido obtenidas a partir de la posición predicha por el algoritmo de seguimiento en cada instante temporal. El algoritmo propuesto ha sido evaluado en distintas secuencias y comparado con otros algoritmos del estado del arte de seguimiento, para así demostrar el éxito de nuestro método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diabetes comprende un conjunto de enfermedades metabólicas que se caracterizan por concentraciones de glucosa en sangre anormalmente altas. En el caso de la diabetes tipo 1 (T1D, por sus siglas en inglés), esta situación es debida a una ausencia total de secreción endógena de insulina, lo que impide a la mayoría de tejidos usar la glucosa. En tales circunstancias, se hace necesario el suministro exógeno de insulina para preservar la vida del paciente; no obstante, siempre con la precaución de evitar caídas agudas de la glucemia por debajo de los niveles recomendados de seguridad. Además de la administración de insulina, las ingestas y la actividad física son factores fundamentales que influyen en la homeostasis de la glucosa. En consecuencia, una gestión apropiada de la T1D debería incorporar estos dos fenómenos fisiológicos, en base a una identificación y un modelado apropiado de los mismos y de sus sorrespondientes efectos en el balance glucosa-insulina. En particular, los sistemas de páncreas artificial –ideados para llevar a cabo un control automático de los niveles de glucemia del paciente– podrían beneficiarse de la integración de esta clase de información. La primera parte de esta tesis doctoral cubre la caracterización del efecto agudo de la actividad física en los perfiles de glucosa. Con este objetivo se ha llevado a cabo una revisión sistemática de la literatura y meta-análisis que determinen las respuestas ante varias modalidades de ejercicio para pacientes con T1D, abordando esta caracterización mediante unas magnitudes que cuantifican las tasas de cambio en la glucemia a lo largo del tiempo. Por otro lado, una identificación fiable de los periodos con actividad física es un requisito imprescindible para poder proveer de esa información a los sistemas de páncreas artificial en condiciones libres y ambulatorias. Por esta razón, la segunda parte de esta tesis está enfocada a la propuesta y evaluación de un sistema automático diseñado para reconocer periodos de actividad física, clasificando su nivel de intensidad (ligera, moderada o vigorosa); así como, en el caso de periodos vigorosos, identificando también la modalidad de ejercicio (aeróbica, mixta o de fuerza). En este sentido, ambos aspectos tienen una influencia específica en el mecanismo metabólico que suministra la energía para llevar a cabo el ejercicio y, por tanto, en las respuestas glucémicas en T1D. En este trabajo se aplican varias combinaciones de técnicas de aprendizaje máquina y reconocimiento de patrones sobre la fusión multimodal de señales de acelerometría y ritmo cardíaco, las cuales describen tanto aspectos mecánicos del movimiento como la respuesta fisiológica del sistema cardiovascular ante el ejercicio. Después del reconocimiento de patrones se incorpora también un módulo de filtrado temporal para sacar partido a la considerable coherencia temporal presente en los datos, una redundancia que se origina en el hecho de que en la práctica, las tendencias en cuanto a actividad física suelen mantenerse estables a lo largo de cierto tiempo, sin fluctuaciones rápidas y repetitivas. El tercer bloque de esta tesis doctoral aborda el tema de las ingestas en el ámbito de la T1D. En concreto, se propone una serie de modelos compartimentales y se evalúan éstos en función de su capacidad para describir matemáticamente el efecto remoto de las concetraciones plasmáticas de insulina exógena sobre las tasas de eleiminación de la glucosa atribuible a la ingesta; un aspecto hasta ahora no incorporado en los principales modelos de paciente para T1D existentes en la literatura. Los datos aquí utilizados se obtuvieron gracias a un experimento realizado por el Institute of Metabolic Science (Universidad de Cambridge, Reino Unido) con 16 pacientes jóvenes. En el experimento, de tipo ‘clamp’ con objetivo variable, se replicaron los perfiles individuales de glucosa, según lo observado durante una visita preliminar tras la ingesta de una cena con o bien alta carga glucémica, o bien baja. Los seis modelos mecanísticos evaluados constaban de: a) submodelos de doble compartimento para las masas de trazadores de glucosa, b) un submodelo de único compartimento para reflejar el efecto remoto de la insulina, c) dos tipos de activación de este mismo efecto remoto (bien lineal, bien con un punto de corte), y d) diversas condiciones iniciales. ABSTRACT Diabetes encompasses a series of metabolic diseases characterized by abnormally high blood glucose concentrations. In the case of type 1 diabetes (T1D), this situation is caused by a total absence of endogenous insulin secretion, which impedes the use of glucose by most tissues. In these circumstances, exogenous insulin supplies are necessary to maintain patient’s life; although caution is always needed to avoid acute decays in glycaemia below safe levels. In addition to insulin administrations, meal intakes and physical activity are fundamental factors influencing glucose homoeostasis. Consequently, a successful management of T1D should incorporate these two physiological phenomena, based on an appropriate identification and modelling of these events and their corresponding effect on the glucose-insulin balance. In particular, artificial pancreas systems –designed to perform an automated control of patient’s glycaemia levels– may benefit from the integration of this type of information. The first part of this PhD thesis covers the characterization of the acute effect of physical activity on glucose profiles. With this aim, a systematic review of literature and metaanalyses are conduced to determine responses to various exercise modalities in patients with T1D, assessed via rates-of-change magnitudes to quantify temporal variations in glycaemia. On the other hand, a reliable identification of physical activity periods is an essential prerequisite to feed artificial pancreas systems with information concerning exercise in ambulatory, free-living conditions. For this reason, the second part of this thesis focuses on the proposal and evaluation of an automatic system devised to recognize physical activity, classifying its intensity level (light, moderate or vigorous) and for vigorous periods, identifying also its exercise modality (aerobic, mixed or resistance); since both aspects have a distinctive influence on the predominant metabolic pathway involved in fuelling exercise, and therefore, in the glycaemic responses in T1D. Various combinations of machine learning and pattern recognition techniques are applied on the fusion of multi-modal signal sources, namely: accelerometry and heart rate measurements, which describe both mechanical aspects of movement and the physiological response of the cardiovascular system to exercise. An additional temporal filtering module is incorporated after recognition in order to exploit the considerable temporal coherence (i.e. redundancy) present in data, which stems from the fact that in practice, physical activity trends are often maintained stable along time, instead of fluctuating rapid and repeatedly. The third block of this PhD thesis addresses meal intakes in the context of T1D. In particular, a number of compartmental models are proposed and compared in terms of their ability to describe mathematically the remote effect of exogenous plasma insulin concentrations on the disposal rates of meal-attributable glucose, an aspect which had not yet been incorporated to the prevailing T1D patient models in literature. Data were acquired in an experiment conduced at the Institute of Metabolic Science (University of Cambridge, UK) on 16 young patients. A variable-target glucose clamp replicated their individual glucose profiles, observed during a preliminary visit after ingesting either a high glycaemic-load or a low glycaemic-load evening meal. The six mechanistic models under evaluation here comprised: a) two-compartmental submodels for glucose tracer masses, b) a single-compartmental submodel for insulin’s remote effect, c) two types of activations for this remote effect (either linear or with a ‘cut-off’ point), and d) diverse forms of initial conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se evaluó la eficiencia técnica de 30 explotaciones de frijol ubicadas en el estado Portuguesa, Venezuela, considerando cinco insumos y un producto, que fue relacionada con variables de tipo socioeconómico y geoespacial. Se empleó el método Análisis Envolvente de Datos (DEA), por sus siglas en inglés, con un modelo orientado al producto. Según los resultados, en promedio, la eficiencia técnica global (ETG) fue 81.2%, desglosada en una eficiencia técnica pura (ETP) de 86.0% y una eficiencia de escala (EE) de 95.1%. Las ineficiencias causadas por la tecnología son mayores que las generadas por un tamaño o escala de producción subóptimo. Según las metas de planificación se puede elevar la producción agregada de frijol en 23.1%, sin aumentar la cantidad de insumos aplicados actualmente. Las variables socioeconómicas y las de tipo geoespacial no determinaron los niveles de eficiencia técnica de las fincas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se evaluó la eficiencia técnica de explotaciones agrarias con producción de frijol ubicadas en el Sector La Palaciera, municipio San Genaro de Boconoíto del estado Portuguesa, Venezuela. De la muestra de 30 fincas se recabó, mediante cuestionarios, información de cinco insumos y un producto, que corresponden al cultivo sembrado en el año 2010, así como de variables de tipo socioeconómico y geoespacial. Se empleó el método Análisis Envolvente de Datos (DEA, por sus siglas en inglés), con un modelo orientado al producto. Según los resultados, en promedio, la eficiencia técnica global (ETG) fue de 81,2%, desglosada en una eficiencia técnica pura (ETP) de 86,0% y una eficiencia de escala (EE) de 95,1%. Las ineficiencias causadas por la tecnología son mayores que las generadas por un tamaño o escala de producción subóptimo. Según las metas del plan formulado para la muestra de fincas, se puede elevar la producción agregada de frijol de 234.970 kg a 289.200 kg, lo que supone un incremento de 54.230 kg (23,1%), sin aumentar la cantidad de insumos aplicados actualmente. Las variables socioeconómicas y las de tipo geoespacial no determinaron los niveles de eficiencia técnica de las fincas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El consumo energético de las Redes de Sensores Inalámbricas (WSNs por sus siglas en inglés) es un problema histórico que ha sido abordado desde diferentes niveles y visiones, ya que no solo afecta a la propia supervivencia de la red sino que el creciente uso de dispositivos inteligentes y el nuevo paradigma del Internet de las Cosas hace que las WSNs tengan cada vez una mayor influencia en la huella energética. Debido a la tendencia al alza en el uso de estas redes se añade un nuevo problema, la saturación espectral. Las WSNs operan habitualmente en bandas sin licencia como son las bandas Industrial, Científica y Médica (ISM por sus siglas en inglés). Estas bandas se comparten con otro tipo de redes como Wi-Fi o Bluetooth cuyo uso ha crecido exponencialmente en los últimos años. Para abordar este problema aparece el paradigma de la Radio Cognitiva (CR), una tecnología que permite el acceso oportunista al espectro. La introducción de capacidades cognitivas en las WSNs no solo permite optimizar su eficiencia espectral sino que también tiene un impacto positivo en parámetros como la calidad de servicio, la seguridad o el consumo energético. Sin embargo, por otra parte, este nuevo paradigma plantea algunos retos relacionados con el consumo energético. Concretamente, el sensado del espectro, la colaboración entre los nodos (que requiere comunicación adicional) y el cambio en los parámetros de transmisión aumentan el consumo respecto a las WSN clásicas. Teniendo en cuenta que la investigación en el campo del consumo energético ha sido ampliamente abordada puesto que se trata de una de sus principales limitaciones, asumimos que las nuevas estrategias deben surgir de las nuevas capacidades añadidas por las redes cognitivas. Por otro lado, a la hora de diseñar estrategias de optimización para CWSN hay que tener muy presentes las limitaciones de recursos de estas redes en cuanto a memoria, computación y consumo energético de los nodos. En esta tesis doctoral proponemos dos estrategias de reducción de consumo energético en CWSNs basadas en tres pilares fundamentales. El primero son las capacidades cognitivas añadidas a las WSNs que proporcionan la posibilidad de adaptar los parámetros de transmisión en función del espectro disponible. La segunda es la colaboración, como característica intrínseca de las CWSNs. Finalmente, el tercer pilar de este trabajo es teoría de juegos como algoritmo de soporte a la decisión, ampliamente utilizado en WSNs debido a su simplicidad. Como primer aporte de la tesis se presenta un análisis completo de las posibilidades introducidas por la radio cognitiva en materia de reducción de consumo para WSNs. Gracias a las conclusiones extraídas de este análisis, se han planteado las hipótesis de esta tesis relacionadas con la validez de usar capacidades cognitivas como herramienta para la reducción de consumo en CWSNs. Una vez presentada las hipótesis, pasamos a desarrollar las principales contribuciones de la tesis: las dos estrategias diseñadas para reducción de consumo basadas en teoría de juegos y CR. La primera de ellas hace uso de un juego no cooperativo que se juega mediante pares de jugadores. En la segunda estrategia, aunque el juego continúa siendo no cooperativo, se añade el concepto de colaboración. Para cada una de las estrategias se presenta el modelo del juego, el análisis formal de equilibrios y óptimos y la descripción de la estrategia completa donde se incluye la interacción entre nodos. Con el propósito de probar las estrategias mediante simulación e implementación en dispositivos reales hemos desarrollado un marco de pruebas compuesto por un simulador cognitivo y un banco de pruebas formado por nodos cognitivos capaces de comunicarse en tres bandas ISM desarrollados en el B105 Lab. Este marco de pruebas constituye otra de las aportaciones de la tesis que permitirá el avance en la investigación en el área de las CWSNs. Finalmente, se presentan y discuten los resultados derivados de la prueba de las estrategias desarrolladas. La primera estrategia proporciona ahorros de energía mayores al 65% comparados con una WSN sin capacidades cognitivas y alrededor del 25% si la comparamos con una estrategia cognitiva basada en el sensado periódico del espectro para el cambio de canal de acuerdo a un nivel de ruido fijado. Este algoritmo se comporta de forma similar independientemente del nivel de ruido siempre que éste sea espacialmente uniformemente. Esta estrategia, a pesar de su sencillez, nos asegura el comportamiento óptimo en cuanto a consumo energético debido a la utilización de teoría de juegos en la fase de diseño del comportamiento de los nodos. La estrategia colaborativa presenta mejoras respecto a la anterior en términos de protección frente al ruido en escenarios de ruido más complejos donde aporta una mejora del 50% comparada con la estrategia anterior. ABSTRACT Energy consumption in Wireless Sensor Networks (WSNs) is a known historical problem that has been addressed from different areas and on many levels. But this problem should not only be approached from the point of view of their own efficiency for survival. A major portion of communication traffic has migrated to mobile networks and systems. The increased use of smart devices and the introduction of the Internet of Things (IoT) give WSNs a great influence on the carbon footprint. Thus, optimizing the energy consumption of wireless networks could reduce their environmental impact considerably. In recent years, another problem has been added to the equation: spectrum saturation. Wireless Sensor Networks usually operate in unlicensed spectrum bands such as Industrial, Scientific, and Medical (ISM) bands shared with other networks (mainly Wi-Fi and Bluetooth). To address the efficient spectrum utilization problem, Cognitive Radio (CR) has emerged as the key technology that enables opportunistic access to the spectrum. Therefore, the introduction of cognitive capabilities to WSNs allows optimizing their spectral occupation. Cognitive Wireless Sensor Networks (CWSNs) do not only increase the reliability of communications, but they also have a positive impact on parameters such as the Quality of Service (QoS), network security, or energy consumption. These new opportunities introduced by CWSNs unveil a wide field in the energy consumption research area. However, this also implies some challenges. Specifically, the spectrum sensing stage, collaboration among devices (which requires extra communication), and changes in the transmission parameters increase the total energy consumption of the network. When designing CWSN optimization strategies, the fact that WSN nodes are very limited in terms of memory, computational power, or energy consumption has to be considered. Thus, light strategies that require a low computing capacity must be found. Since the field of energy conservation in WSNs has been widely explored, we assume that new strategies could emerge from the new opportunities presented by cognitive networks. In this PhD Thesis, we present two strategies for energy consumption reduction in CWSNs supported by three main pillars. The first pillar is that cognitive capabilities added to the WSN provide the ability to change the transmission parameters according to the spectrum. The second pillar is that the ability to collaborate is a basic characteristic of CWSNs. Finally, the third pillar for this work is the game theory as a decision-making algorithm, which has been widely used in WSNs due to its lightness and simplicity that make it valid to operate in CWSNs. For the development of these strategies, a complete analysis of the possibilities is first carried out by incorporating the cognitive abilities into the network. Once this analysis has been performed, we expose the hypotheses of this thesis related to the use of cognitive capabilities as a useful tool to reduce energy consumption in CWSNs. Once the analyses are exposed, we present the main contribution of this thesis: the two designed strategies for energy consumption reduction based on game theory and cognitive capabilities. The first one is based on a non-cooperative game played between two players in a simple and selfish way. In the second strategy, the concept of collaboration is introduced. Despite the fact that the game used is also a non-cooperative game, the decisions are taken through collaboration. For each strategy, we present the modeled game, the formal analysis of equilibrium and optimum, and the complete strategy describing the interaction between nodes. In order to test the strategies through simulation and implementation in real devices, we have developed a CWSN framework composed by a CWSN simulator based on Castalia and a testbed based on CWSN nodes able to communicate in three different ISM bands. We present and discuss the results derived by the energy optimization strategies. The first strategy brings energy improvement rates of over 65% compared to WSN without cognitive techniques. It also brings energy improvement rates of over 25% compared with sensing strategies for changing channels based on a decision threshold. We have also seen that the algorithm behaves similarly even with significant variations in the level of noise while working in a uniform noise scenario. The collaborative strategy presents improvements respecting the previous strategy in terms of noise protection when the noise scheme is more complex where this strategy shows improvement rates of over 50%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los nombres que se usan actualmente para las grúas los ponen las empresas fabricantes y muy frecuentemente no tienen relación con su tipología ni con su capacidad. Por otra parte, es de uso común en la construcción, llamar a las grúas usando su tonelaje nominal que coincide normalmente con su capacidad máxima que se obtiene a radio mínimo. Existe una controversia por el uso de este valor ya que no suele definir bien la capacidad de las maquinas. En cuanto el radio de trabajo se aleja de sus valores mínimos, las grúas están limitadas por el momento de vuelco que no tiene porque comportarse de manera proporcional o ni siquiera relacionada con el valor de la capacidad nominal. Esto hace que comparar grúas mediante sus capacidades nominales (que son sus denominaciones) pueda inducir a errores importantes. Como alternativa, se pretende estudiar el uso de momento máximo de vuelco MLM por sus siglas en ingles (Maximum Load Moment) para intentar definir la capacidad real de las grúas. Se procede a realizar un análisis técnico y financiero de grúas con respecto a ambos valores mencionados con objeto de poder determinar cual de los dos parámetros es más fiable a la hora de definir la capacidad real de estas maquinas. Para ello, se seleccionan dentro de las tres tipologías más importantes por su presencia e importancia en la construcción (grúas de celosía sobre cadenas, grúas telescópicas sobre camión y grúas torre) nueve grúas de distintos tamaños y capacidades con objeto de analizar una serie de parámetros técnicos y sus costes. Se realizan de este modo diversas comparativas analizando los resultados en función de las tipologías y de los tamaños de las distintas maquinas. Para cada máquina se obtienen las capacidades y los momentos de vuelco correspondientes a distintos radios de trabajo. Asimismo, se obtiene el MLM y el coste hora de cada grúa, este último como suma de la amortización de la máquina, intereses del capital invertido, consumos, mantenimiento y coste del operador. Los resultados muestran las claras deficiencias del tonelaje nominal como valor de referencia para definir la capacidad de las grúas ya que grúas con el mismo tonelaje nominal pueden dar valores de capacidad de tres a uno (e incluso mayores) cuando los radios de trabajo son importantes. A raiz de este análisis se propone el uso del MLM en lugar del tonelaje nominal para la denominación de las grúas ya que es un parámetro mucho más fiable. Siendo conscientes de la dificultad que supone un cambio de esta entidad al tratarse de un uso común a nivel mundial, se indican posibles actuaciones concretas que puedan ir avanzando en esa dirección como seria por ejemplo la nomenclatura oficial de los fabricantes usando el MLM dentro del nombre de la grúa que también podría incluir la tipología o al menos alguna actuación legislativa sencilla como obligar al fabricante a indicar este valor en las tablas y características de cada máquina. El ratio analizado Coste horario de la grúa / MLM resulta ser de gran interés y permite llegar a la conclusión que en todas las tipologías de grúas, la eficiencia del coste por hora y por la capacidad (dada por el MLM) aumenta al aumentar la capacidad de la grúa. Cuando los tamaños de cada tipología se reducen, esta eficiencia disminuye y en algunos casos incluso drasticamente. La tendencia del mundo de la construcción de prefabricación y modularización que conlleva pesos y dimensiones de cargas cada vez más grandes, demandan cada vez grúas de mayor capacidad y se podría pensar en un primer momento que ante un crecimiento de capacidades tan significativo, el coste de las grúas se podría disparar y por ello disminuir la eficiencia de estas máquinas. A la vista de los resultados obtenidos con este análisis, no solo no ocurre este problema sino que se observa que dicho aumento de tamaños y capacidades de grúas redunda en un aumento de su eficiencia en cualquiera de las tipologías de estas maquinas que han sido estudiadas. The crane names that are actually used are given by crane manufacturers and, very frequently, they do not have any relationship with the crane type nor with its capacity. On the other hand, it is common in construction to use the nominal capacity (which corresponds in general to the capacity at minimum radius) as crane name. The use of this figure is controversial since it does not really reflect the real crane capacity. When the working radius increases a certain amount from its minimum values, the crane capacity starts to be limited by the crane tipping load and the moment is not really related to the value of the nominal capacity. Therefore, comparing cranes by their nominal capacity (their names) can lead to important mistakes. As an alternative, the use of the maximum load moment (MLM) can be studied for a better definition of real crane capacity. A technical and financial analysis of cranes is conducted using both parameters to determine which one is more reliable in order to define crane’s real capacity. For this purpose, nine cranes with different sizes and capacities will be selected within the most relevant crane types (crawler lattice boom cranes, telescopic truck mounted cranes and tower cranes) in order to analyze several parameters. The technical and economic results will be compared according to the crane types and sizes of the machines. For each machine, capacities and load moments are obtained for several working radius as well as MLM and hourly costs of cranes. Hourly cost is calculated adding up depreciation, interests of invested capital, consumables, maintenance and operator’s cost. The results show clear limitations for the use of nominal capacity as a reference value for crane definition since cranes with the same nominal capacity can have capacity differences of 3 to 1 (or even bigger) when working on important radius. From this analysis, the use of MLM as crane name instead of nominal capacity is proposed since it is a much more reliable figure. Being aware of the difficulty of such change since nominal capacity is commonly used worldwide; specific actions are suggested to progress in that direction. One good example would be that manufacturers would include MLM in their official crane names which could also include the type as well. Even legal action can be taken by simply requiring to state this figure in the crane charts and characteristics of every machine. The analyzed ratio: hourly cost / MLM is really interesting since it leads to the conclusion that for all crane types, the efficiency of the hourly cost divided by capacity (given by MLM) increases when the crane capacity is higher. When crane sizes are smaller, this efficiency is lower and can fall dramatically in certain cases. The developments in the construction world regarding prefabrication and modularization mean bigger weights and dimensions, which create a demand for bigger crane capacities. On a first approach, it could be thought that crane costs could rise significantly because of this capacity hugh increase reducing in this way crane efficiency. From the results obtained here, it is clear that it is definitely not the case but the capacity increase of cranes will end up in higher efficiency levels for all crane types that have been studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Disponer de información precisa y actualizada de inventario forestal es una pieza clave para mejorar la gestión forestal sostenible y para proponer y evaluar políticas de conservación de bosques que permitan la reducción de emisiones de carbono debidas a la deforestación y degradación forestal (REDD). En este sentido, la tecnología LiDAR ha demostrado ser una herramienta perfecta para caracterizar y estimar de forma continua y en áreas extensas la estructura del bosque y las principales variables de inventario forestal. Variables como la biomasa, el número de pies, el volumen de madera, la altura dominante, el diámetro o la altura media son estimadas con una calidad comparable a los inventarios tradicionales de campo. La presente tesis se centra en analizar la aplicación de los denominados métodos de masa de inventario forestal con datos LIDAR bajo diferentes condiciones y características de masa forestal (bosque templados puros y mixtos) y utilizando diferentes bases de datos LiDAR (información proveniente de vuelo nacionales e información capturada de forma específica). Como consecuencia de lo anterior, se profundiza en la generación de inventarios forestales continuos con LiDAR en grandes áreas. Los métodos de masa se basan en la búsqueda de relaciones estadísticas entre variables predictoras derivadas de la nube de puntos LiDAR y las variables de inventario forestal medidas en campo con el objeto de generar una cartografía continua de inventario forestal. El rápido desarrollo de esta tecnología en los últimos años ha llevado a muchos países a implantar programas nacionales de captura de información LiDAR aerotransportada. Estos vuelos nacionales no están pensados ni diseñados para fines forestales por lo que es necesaria la evaluación de la validez de esta información LiDAR para la descripción de la estructura del bosque y la medición de variables forestales. Esta información podría suponer una drástica reducción de costes en la generación de información continua de alta resolución de inventario forestal. En el capítulo 2 se evalúa la estimación de variables forestales a partir de la información LiDAR capturada en el marco del Plan Nacional de Ortofotografía Aérea (PNOA-LiDAR) en España. Para ello se compara un vuelo específico diseñado para inventario forestal con la información de la misma zona capturada dentro del PNOA-LiDAR. El caso de estudio muestra cómo el ángulo de escaneo, la pendiente y orientación del terreno afectan de forma estadísticamente significativa, aunque con pequeñas diferencias, a la estimación de biomasa y variables de estructura forestal derivadas del LiDAR. La cobertura de copas resultó más afectada por estos factores que los percentiles de alturas. Considerando toda la zona de estudio, la estimación de la biomasa con ambas bases de datos no presentó diferencias estadísticamente significativas. Las simulaciones realizadas muestran que las diferencias medias en la estimación de biomasa entre un vuelo específico y el vuelo nacional podrán superar el 4% en áreas abruptas, con ángulos de escaneo altos y cuando la pendiente de la ladera no esté orientada hacia la línea de escaneo. En el capítulo 3 se desarrolla un estudio en masas mixtas y puras de pino silvestre y haya, con un enfoque multi-fuente empleando toda la información disponible (vuelos LiDAR nacionales de baja densidad de puntos, imágenes satelitales Landsat y parcelas permanentes del inventario forestal nacional español). Se concluye que este enfoque multi-fuente es adecuado para realizar inventarios forestales continuos de alta resolución en grandes superficies. Los errores obtenidos en la fase de ajuste y de validación de los modelos de área basimétrica y volumen son similares a los registrados por otros autores (usando un vuelo específico y parcelas de campo específicas). Se observan errores mayores en la variable número de pies que los encontrados en la literatura, que pueden ser explicados por la influencia de la metodología de parcelas de radio variable en esta variable. En los capítulos 4 y 5 se evalúan los métodos de masa para estimar biomasa y densidad de carbono en bosques tropicales. Para ello se trabaja con datos del Parque Nacional Volcán Poás (Costa Rica) en dos situaciones diferentes: i) se dispone de una cobertura completa LiDAR del área de estudio (capitulo 4) y ii) la cobertura LiDAR completa no es técnica o económicamente posible y se combina una cobertura incompleta de LiDAR con imágenes Landsat e información auxiliar para la estimación de biomasa y carbono (capitulo 5). En el capítulo 4 se valida un modelo LiDAR general de estimación de biomasa aérea en bosques tropicales y se compara con los resultados obtenidos con un modelo ajustado de forma específica para el área de estudio. Ambos modelos están basados en la variable altura media de copas (TCH por sus siglas en inglés) derivada del modelo digital LiDAR de altura de la vegetación. Los resultados en el área de estudio muestran que el modelo general es una alternativa fiable al ajuste de modelos específicos y que la biomasa aérea puede ser estimada en una nueva zona midiendo en campo únicamente la variable área basimétrica (BA). Para mejorar la aplicación de esta metodología es necesario definir en futuros trabajos procedimientos adecuados de medición de la variable área basimétrica en campo (localización, tamaño y forma de las parcelas de campo). La relación entre la altura media de copas del LiDAR y el área basimétrica (Coeficiente de Stock) obtenida en el área de estudio varía localmente. Por tanto es necesario contar con más información de campo para caracterizar la variabilidad del Coeficiente de Stock entre zonas de vida y si estrategias como la estratificación pueden reducir los errores en la estimación de biomasa y carbono en bosques tropicales. En el capítulo 5 se concluye que la combinación de una muestra sistemática de información LiDAR con una cobertura completa de imagen satelital de moderada resolución (e información auxiliar) es una alternativa efectiva para la realización de inventarios continuos en bosques tropicales. Esta metodología permite estimar altura de la vegetación, biomasa y carbono en grandes zonas donde la captura de una cobertura completa de LiDAR y la realización de un gran volumen de trabajo de campo es económica o/y técnicamente inviable. Las alternativas examinadas para la predicción de biomasa a partir de imágenes Landsat muestran una ligera disminución del coeficiente de determinación y un pequeño aumento del RMSE cuando la cobertura de LiDAR es reducida de forma considerable. Los resultados indican que la altura de la vegetación, la biomasa y la densidad de carbono pueden ser estimadas en bosques tropicales de forma adecuada usando coberturas de LIDAR bajas (entre el 5% y el 20% del área de estudio). ABSTRACT The availability of accurate and updated forest data is essential for improving sustainable forest management, promoting forest conservation policies and reducing carbon emissions from deforestation and forest degradation (REDD). In this sense, LiDAR technology proves to be a clear-cut tool for characterizing forest structure in large areas and assessing main forest-stand variables. Forest variables such as biomass, stem volume, basal area, mean diameter, mean height, dominant height, and stem number can be thus predicted with better or comparable quality than with costly traditional field inventories. In this thesis, it is analysed the potential of LiDAR technology for the estimation of plot-level forest variables under a range of conditions (conifer & broadleaf temperate forests and tropical forests) and different LiDAR capture characteristics (nationwide LiDAR information vs. specific forest LiDAR data). This study evaluates the application of LiDAR-based plot-level methods in large areas. These methods are based on statistical relationships between predictor variables (derived from airborne data) and field-measured variables to generate wall to wall forest inventories. The fast development of this technology in recent years has led to an increasing availability of national LiDAR datasets, usually developed for multiple purposes throughout an expanding number of countries and regions. The evaluation of the validity of nationwide LiDAR databases (not designed specifically for forest purposes) is needed and presents a great opportunity for substantially reducing the costs of forest inventories. In chapter 2, the suitability of Spanish nationwide LiDAR flight (PNOA) to estimate forest variables is analyzed and compared to a specifically forest designed LiDAR flight. This study case shows that scan angle, terrain slope and aspect significantly affect the assessment of most of the LiDAR-derived forest variables and biomass estimation. Especially, the estimation of canopy cover is more affected than height percentiles. Considering the entire study area, biomass estimations from both databases do not show significant differences. Simulations show that differences in biomass could be larger (more than 4%) only in particular situations, such as steep areas when the slopes are non-oriented towards the scan lines and the scan angles are larger than 15º. In chapter 3, a multi-source approach is developed, integrating available databases such as nationwide LiDAR flights, Landsat imagery and permanent field plots from SNFI, with good resultos in the generation of wall to wall forest inventories. Volume and basal area errors are similar to those obtained by other authors (using specific LiDAR flights and field plots) for the same species. Errors in the estimation of stem number are larger than literature values as a consequence of the great influence that variable-radius plots, as used in SNFI, have on this variable. In chapters 4 and 5 wall to wall plot-level methodologies to estimate aboveground biomass and carbon density in tropical forest are evaluated. The study area is located in the Poas Volcano National Park (Costa Rica) and two different situations are analyzed: i) available complete LiDAR coverage (chapter 4) and ii) a complete LiDAR coverage is not available and wall to wall estimation is carried out combining LiDAR, Landsat and ancillary data (chapter 5). In chapter 4, a general aboveground biomass plot-level LiDAR model for tropical forest (Asner & Mascaro, 2014) is validated and a specific model for the study area is fitted. Both LiDAR plot-level models are based on the top-of-canopy height (TCH) variable that is derived from the LiDAR digital canopy model. Results show that the pantropical plot-level LiDAR methodology is a reliable alternative to the development of specific models for tropical forests and thus, aboveground biomass in a new study area could be estimated by only measuring basal area (BA). Applying this methodology, the definition of precise BA field measurement procedures (e.g. location, size and shape of the field plots) is decisive to achieve reliable results in future studies. The relation between BA and TCH (Stocking Coefficient) obtained in our study area in Costa Rica varied locally. Therefore, more field work is needed for assessing Stocking Coefficient variations between different life zones and the influence of the stratification of the study areas in tropical forests on the reduction of uncertainty. In chapter 5, the combination of systematic LiDAR information sampling and full coverage Landsat imagery (and ancillary data) prove to be an effective alternative for forest inventories in tropical areas. This methodology allows estimating wall to wall vegetation height, biomass and carbon density in large areas where full LiDAR coverage and traditional field work are technically and/or economically unfeasible. Carbon density prediction using Landsat imaginery shows a slight decrease in the determination coefficient and an increase in RMSE when harshly decreasing LiDAR coverage area. Results indicate that feasible estimates of vegetation height, biomass and carbon density can be accomplished using low LiDAR coverage areas (between 5% and 20% of the total area) in tropical locations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En todo el mundo se ha observado un crecimiento exponencial en la incidencia de enfermedades crónicas como la hipertensión y enfermedades cardiovasculares y respiratorias, así como la diabetes mellitus, que causa un número de muertes cada vez mayor en todo el mundo (Beaglehole et al., 2008). En concreto, la prevalencia de diabetes mellitus (DM) está aumentando de manera considerable en todas las edades y representa un serio problema de salud mundial. La diabetes fue la responsable directa de 1,5 millones de muertes en 2012 y 89 millones de años de vida ajustados por discapacidad (AVAD) (OMS, 2014). Uno de los principales dilemas que suelen asociarse a la gestión de EC es la adherencia de los pacientes a los tratamientos, que representa un aspecto multifactorial que necesita asistencia en lo relativo a: educación, autogestión, interacción entre los pacientes y cuidadores y compromiso de los pacientes. Medir la adherencia del tratamiento es complicado y, aunque se ha hablado ampliamente de ello, aún no hay soluciones “de oro” (Reviews, 2002). El compromiso de los pacientes, a través de la participación, colaboración, negociación y a veces del compromiso firme, aumentan las oportunidades para una terapia óptima en la que los pacientes se responsabilizan de su parte en la ecuación de adherencia. Comprometer e involucrar a los pacientes diabéticos en las decisiones de su tratamiento, junto con expertos profesionales, puede ayudar a favorecer un enfoque centrado en el paciente hacia la atención a la diabetes (Martin et al., 2005). La motivación y atribución de poder de los pacientes son quizás los dos factores interventores más relevantes que afectan directamente a la autogestión de la atención a la diabetes. Se ha demostrado que estos dos factores desempeñan un papel fundamental en la adherencia a la prescripción, así como en el fomento exitoso de un estilo de vida sana y otros cambios de conducta (Heneghan et al., 2013). Un plan de educación personalizada es indispensable para proporcionarle al paciente las herramientas adecuadas que necesita para la autogestión efectiva de la enfermedad (El-Gayar et al. 2013). La comunicación efectiva es fundamental para proporcionar una atención centrada en el paciente puesto que influye en las conductas y actitudes hacia un problema de salud ((Frampton et al. 2008). En este sentido, la interactividad, la frecuencia, la temporalización y la adaptación de los mensajes de texto pueden promover la adherencia a un régimen de medicación. Como consecuencia, adaptar los mensajes de texto a los pacientes puede resultar ser una manera de hacer que las sugerencias y la información sean más relevantes y efectivas (Nundy et al. 2013). En este contexto, las tecnologías móviles en el ámbito de la salud (mHealth) están desempeñando un papel importante al conectar con pacientes para mejorar la adherencia a medicamentos recetados (Krishna et al., 2009). La adaptación de los mensajes de texto específicos de diabetes sigue siendo un área de oportunidad para mejorar la adherencia a la medicación y ofrecer motivación a adultos con diabetes. Sin embargo, se necesita más investigación para entender totalmente su eficacia. Los consejos de texto personalizados han demostrado causar un impacto positivo en la atribución de poder a los pacientes, su autogestión y su adherencia a la prescripción (Gatwood et al., 2014). mHealth se puede utilizar para ofrecer programas de asistencia de autogestión a los pacientes con diabetes y, al mismo tiempo, superar las dificultades técnicas y financieras que supone el tratamiento de la diabetes (Free at al., 2013). El objetivo principal de este trabajo de investigación es demostrar que un marco tecnológico basado en las teorías de cambios de conducta, aplicado al campo de la mHealth, permite una mejora de la adherencia al tratamiento en pacientes diabéticos. Como método de definición de una solución tecnológica, se han adoptado un conjunto de diferentes técnicas de conducta validadas denominado marco de compromiso de retroacción conductual (EBF, por sus siglas en inglés) para formular los mensajes, guiar el contenido y evaluar los resultados. Los estudios incorporan elementos del modelo transteórico (TTM, por sus siglas en inglés), la teoría de la fijación de objetivos (GST, por sus siglas en inglés) y los principios de comunicación sanitaria persuasiva y eficaz. Como concepto general, el modelo TTM ayuda a los pacientes a progresar a su próxima fase de conducta a través de mensajes de texto motivados específicos y permite que el médico identifique la fase actual y adapte sus estrategias individualmente. Además, se adoptan las directrices del TTM para fijar objetivos personalizados a un nivel apropiado a la fase de cambio del paciente. La GST encierra normas que van a ponerse en práctica para promover la intervención educativa y objetivos de pérdida de peso. Finalmente, los principios de comunicación sanitaria persuasiva y eficaz aplicados a la aparición de los mensajes se han puesto en marcha para aumentar la efectividad. El EBF tiene como objetivo ayudar a los pacientes a mejorar su adherencia a la prescripción y encaminarlos a una mejora general en la autogestión de la diabetes mediante mensajes de texto personalizados denominados mensajes de retroacción automáticos (AFM, por sus siglas en inglés). Después de una primera revisión del perfil, consistente en identificar características significativas del paciente basadas en las necesidades de tratamiento, actitudes y conductas de atención sanitaria, el sistema elige los AFM personalizados, los aprueba el médico y al final se transfieren a la interfaz del paciente. Durante el tratamiento, el usuario recopila los datos en dispositivos de monitorización de pacientes (PMD, por sus siglas en inglés) de una serie de dispositivos médicos y registros manuales. Los registros consisten en la toma de medicación, dieta y actividad física y tareas de aprendizaje y control de la medida del metabolismo. El compromiso general del paciente se comprueba al estimar el uso del sistema y la adherencia del tratamiento y el estado de los objetivos del paciente a corto y largo plazo. El módulo de análisis conductual, que consiste en una serie de reglas y ecuaciones, calcula la conducta del paciente. Tras lograr el análisis conductual, el módulo de gestión de AFM actualiza la lista de AFM y la configuración de los envíos. Las actualizaciones incluyen el número, el tipo y la frecuencia de mensajes. Los AFM los revisa periódicamente el médico que también participa en el perfeccionamiento del tratamiento, adaptado a la fase transteórica actual. Los AFM se segmentan en distintas categorías y niveles y los pacientes pueden ajustar la entrega del mensaje de acuerdo con sus necesidades personales. El EBF se ha puesto en marcha integrado dentro del sistema METABO, diseñado para facilitar al paciente diabético que controle sus condiciones relevantes de una manera menos intrusiva. El dispositivo del paciente se vincula en una plataforma móvil, mientras que una interfaz de panel médico permite que los profesionales controlen la evolución del tratamiento. Herramientas específicas posibilitan que los profesionales comprueben la adherencia del paciente y actualicen la gestión de envíos de AFM. El EBF fue probado en un proyecto piloto controlado de manera aleatoria. El principal objetivo era examinar la viabilidad y aceptación del sistema. Los objetivos secundarios eran también la evaluación de la eficacia del sistema en lo referente a la mejora de la adherencia, el control glucémico y la calidad de vida. Se reclutaron participantes de cuatro centros clínicos distintos en Europa. La evaluación del punto de referencia incluía datos demográficos, estado de la diabetes, información del perfil, conocimiento de la diabetes en general, uso de las plataformas TIC, opinión y experiencia con dispositivos electrónicos y adopción de buenas prácticas con la diabetes. La aceptación y eficacia de los criterios de evaluación se aplicaron para valorar el funcionamiento del marco tecnológico. El principal objetivo era la valoración de la eficacia del sistema en lo referente a la mejora de la adherencia. En las pruebas participaron 54 pacientes. 26 fueron asignados al grupo de intervención y equipados con tecnología móvil donde estaba instalado el EBF: 14 pacientes tenían T1DM y 12 tenían T2DM. El grupo de control estaba compuesto por 25 pa cientes que fueron tratados con atención estándar, sin el empleo del EBF. La intervención profesional tanto de los grupos de control como de intervención corrió a cargo de 24 cuidadores, entre los que incluían diabetólogos, nutricionistas y enfermeras. Para evaluar la aceptabilidad del sistema y analizar la satisfacción de los usuarios, a través de LimeSurvey, se creó una encuesta multilingüe tanto para los pacientes como para los profesionales. Los resultados también se recopilaron de los archivos de registro generados en los PMD, el panel médico profesional y las entradas de la base de datos. Los mensajes enviados hacia y desde el EBF y los archivos de registro del sistema y los servicios de comunicación se grabaron durante las cinco semanas del estudio. Se entregaron un total de 2795 mensajes, lo que supuso una media de 107,50 mensajes por paciente. Como se muestra, los mensajes disminuyen con el tiempo, indicando una mejora global de la adherencia al plan de tratamiento. Como se esperaba, los pacientes con T1DM recibieron más consejos a corto plazo, en relación a su estado. Del mismo modo, al ser el centro de T2DM en cambios de estilo de vida sostenible a largo plazo, los pacientes con T2DM recibieron más consejos de recomendación, en cuanto a dietas y actividad física. También se ha llevado a cabo una comparación de la adherencia e índices de uso para pacientes con T1DM y T2DM, entre la primera y la segunda mitad de la prueba. Se han observado resultados favorables para el uso. En lo relativo a la adherencia, los resultados denotaron una mejora general en cada dimensión del plan de tratamiento, como la nutrición y las mediciones de inserción de glucosa en la sangre. Se han llevado a cabo más estudios acerca del cambio a nivel educativo antes y después de la prueba, medidos tanto para grupos de control como de intervención. Los resultados indicaron que el grupo de intervención había mejorado su nivel de conocimientos mientras que el grupo de control mostró una leve disminución. El análisis de correlación entre el nivel de adherencia y las AFM ha mostrado una mejora en la adherencia de uso para los pacientes que recibieron los mensajes de tipo alertas, y unos resultados no significativos aunque positivos relacionados con la adherencia tanto al tratamiento que al uso correlacionado con los recordatorios. Por otra parte, los AFM parecían ayudar a los pacientes que no tomaban suficientemente en serio su tratamiento en el principio y que sí estaban dispuestos a responder a los mensajes recibidos. Aun así, los pacientes que recibieron demasiadas advertencias, comenzaron a considerar el envío de mensajes un poco estresante. El trabajo de investigación llevado a cabo al desarrollar este proyecto ofrece respuestas a las cuatro hipótesis de investigación que fueron la motivación para el trabajo. • Hipótesis 1 : es posible definir una serie de criterios para medir la adherencia en pacientes diabéticos. • Hipótesis 2: es posible diseñar un marco tecnológico basado en los criterios y teorías de cambio de conducta mencionados con anterioridad para hacer que los pacientes diabéticos se comprometan a controlar su enfermedad y adherirse a planes de atención. • Hipótesis 3: es posible poner en marcha el marco tecnológico en el sector de la salud móvil. • Hipótesis 4: es posible utilizar el marco tecnológico como solución de salud móvil en un contexto real y tener efectos positivos en lo referente a indicadores de control de diabetes. La verificación de cada hipótesis permite ofrecer respuesta a la hipótesis principal: La hipótesis principal es: es posible mejorar la adherencia diabética a través de un marco tecnológico mHealth basado en teorías de cambio de conducta. El trabajo llevado a cabo para responder estas preguntas se explica en este trabajo de investigación. El marco fue desarrollado y puesto en práctica en el Proyecto METABO. METABO es un Proyecto I+D, cofinanciado por la Comisión Europea (METABO 2008) que integra infraestructura móvil para ayudar al control, gestión y tratamiento de los pacientes con diabetes mellitus de tipo 1 (T1DM) y los que padecen diabetes mellitus de tipo 2 (T2DM). ABSTRACT Worldwide there is an exponential growth in the incidence of Chronic Diseases (CDs), such as: hypertension, cardiovascular and respiratory diseases, as well as diabetes mellitus, leading to rising numbers of deaths worldwide (Beaglehole et al. 2008). In particular, the prevalence of diabetes mellitus (DM) is largely increasing among all ages and constitutes a major worldwide health problem. Diabetes was directly responsible for 1,5 million deaths in 2012 and 89 million Disability-adjusted life year (DALYs) (WHO 2014). One of the key dilemmas often associated to CD management is the patients’ adherence to treatments, representing a multi-factorial aspect that requires support in terms of: education, self-management, interaction between patients and caregivers, and patients’ engagement. Measuring adherence is complex and, even if widely discussed, there are still no “gold” standards ((Giardini et al. 2015), (Costa et al. 2015). Patient’s engagement, through participation, collaboration, negotiation, and sometimes compromise, enhance opportunities for optimal therapy in which patients take responsibility for their part of the adherence equation. Engaging and involving diabetic patients in treatment decisions, along with professional expertise, can help foster a patient-centered approach to diabetes care (Martin et al. 2005). Patients’ motivation and empowerment are perhaps the two most relevant intervening factors that directly affect self-management of diabetes care. It has been demonstrated that these two factors play an essential role in prescription adherence, as well as for the successful encouragement of a healthy life-style and other behavioural changes (Heneghan et al. 2013). A personalised education plan is indispensable in order to provide the patient with the appropriate tools needed for the effective self-management of the disease (El-Gayar et al. 2013). Effective communication is at the core of providing patient-centred care since it influences behaviours and attitudes towards a health problem (Frampton et al. 2008). In this regard, interactivity, frequency, timing, and tailoring of text messages may promote adherence to a medication regimen. As a consequence, tailoring text messages to patients can constitute a way of making suggestions and information more relevant and effective (Nundy et al. 2013). In this context, mobile health technologies (mHealth) are playing significant roles in improving adherence to prescribed medications (Krishna et al. 2009). The tailoring of diabetes-specific text messages remains an area of opportunity to improve medication adherence and provide motivation to adults with diabetes but further research is needed to fully understand their effectiveness. Personalized text advices have proven to produce a positive impact on patients’ empowerment, self-management, and adherence to prescriptions (Gatwood et al. 2014). mHealth can be used for offering self-management support programs to diabetes patients and at the same time surmounting the technical and financial difficulties involved in diabetes treatment (Free et al. 2013). The main objective of this research work is to demonstrate that a technological framework, based on behavioural change theories, applied to mHealth domain, allows improving adherence treatment in diabetic patients. The framework, named Engagement Behavioural Feedback Framework (EBF), is built on top of validated behavioural techniques to frame messages, guide the definition of contents and assess outcomes: elements from the Transtheoretical Model (TTM), the Goal-Setting Theory (GST), Effective Health Communication (EHC) guidelines and Principles of Persuasive Technology (PPT) were incorporated. The TTM helps patients to progress to a next behavioural stage, through specific motivated text messages, and allow clinician’s identifying the current stage and tailor its strategies individually. Moreover, TTM guidelines are adopted to set customised goals at a level appropriate to the patient’s stage of change. The GST was used to build rules to be applied for enhancing educational intervention and weight loss objectives. Finally, the EHC guidelines and the PPT were applied to increase the effectiveness of messages. The EBF aims to support patients on improving their prescription adherence and persuade them towards a general improvement in diabetes self-management, by means of personalised text messages, named Automatic Feedback Messages (AFM). After a first profile screening, consisting in identifying meaningful patient characteristics based on treatment needs, attitudes and health care behaviours, customised AFMs are selected by the system, approved by the professional, and finally transferred into the patient interface. During the treatment, the user collects the data into a Patient Monitoring Device (PMD) from a set of medical devices and from manual inputs. Inputs consist in medication intake, diet and physical activity, metabolic measurement monitoring and learning tasks. Patient general engagement is checked by estimating the usage of the system and the adherence of treatment and patient goals status in the short and the long term period. The Behavioural Analysis Module, consisting in a set of rules and equations, calculates the patient’s behaviour. After behavioural analysis is accomplished, the AFM library and the dispatch setting are updated by the AFM Manager module. Updates include the number, the type and the frequency of messages. The AFMs are periodically supervised by the professional who also participates to the refinement of the treatment, adapted to the current transtheoretical stage. The AFMs are segmented in different categories and levels and patients can adjust message delivery in accordance with their personal needs. The EBF was integrated to the METABO system, designed to facilitate diabetic patients in managing their disease in a less intrusive approach. Patient device corresponds in a mobile platform, while a medical panel interface allows professionals to monitoring the treatment evolution. Specific tools allow professional to check patient adherence and to update the AFMs dispatch management. The EBF was tested in a randomised controlled pilot. The main objective was to examine the feasibility and acceptance of the system. Secondary objectives were also the assessment of the effectiveness of system in terms of adherence improvement, glycaemic control, and quality of life. Participants were recruited from four different clinical centres in Europe. The baseline assessment included demographics, diabetes status, profile information, knowledge about diabetes in general, usage of ICT platforms, opinion and experience about electronic devices and adoption of good practices with diabetes. Acceptance and the effectiveness evaluation criteria were applied to evaluate the performance of the technological framework. The main objective was the assessment of the effectiveness of system in terms of adherence improvement. Fifty-four patients participated on the trials. Twenty-six patients were assigned in the intervention group and equipped with mobile where the EBF was installed: 14 patients were T1DM and 12 were T2DM. The control group was composed of 25 patients that were treated through a standard care, without the usage of the EBF. Professional’s intervention for both intervention and control groups was carried out by 24 care providers, including endocrinologists, nutritionists, and nurses. In order to evaluate the system acceptability and analyse the users’ satisfaction, an online multi-language survey, using LimeSurvey, was produced for both patients and professionals. Results were also collected from the log-files generated in the PMDs, the professional medical panel and the entries of the data base. The messages sent to and from the EBF and the log-files of the system and communication services were recorded over 5 weeks of the study. A total of 2795 messages were submitted, representing an average of 107,50 messages per patient. As demonstrated, messages decrease over time indicating an overall improvement of the care plan’s adherence. As expected, T1DM patients were more loaded with short-term advices, in accordance with their condition. Similarly, being the focus of T2DM on long-term sustainable lifestyle changes, T2DM received more reminders advices, as for diet and physical activity. Favourable outcomes were observed for treatment and usage adherences of the intervention group: for both the adherence indices, results denoted a general improvement on each care plan’s dimension, such as on nutrition and blood glucose input measurements. Further studies were conducted on the change on educational level before and after the trial, measured for both control and intervention groups. The outcomes indicated the intervention group has improved its level of knowledge, while the control group denoted a low decrease. The correlation analysis between the level of adherences and the AFMs showed an improvement in usage adherence for patients who received warnings message, while non-significantly yet even positive indicators related to both treatment and usage adherence correlated with the Reminders. Moreover, the AFMs seemed to help those patients who did not take their treatment seriously enough in the beginning and who were willing to respond to the messages they received. Even though, patients who received too many Warnings, started to consider the message dispatch to be a bit stressful. The research work carried out in developing this research work provides responses to the four research hypothesis that were the motivation for the work: •Hypothesis 1: It is possible to define a set of criteria to measure adherence in diabetic patients. •Hypothesis 2: It is possible to design a technological framework, based on the aforementioned criteria and behavioural change theories, to engage diabetic patients in managing their disease and adhere to care plans. •Hypothesis 3: It is possible to implement the technological framework in the mobile health domain. •Hypothesis 4: It is possible to use the technological framework as a mobile health solution in a real context and have positive effects in terms of diabetes management indicators. The verification of each hypothesis allowed us to provide a response to the main hypothesis: The Main Hypothesis is: It is possible to improve diabetic adherence through a mHealth technological framework based on behavioural change theories. The work carried out to answer these questions is explained in this research work. The framework was developed and applied in the METABO project. METABO is an R&D project, co-funded by the European Commission (METABO 2008) that integrates mobile infrastructure for supporting the monitoring, management, and treatment of type 1 diabetes mellitus (T1DM) and type 2 diabetes mellitus (T2DM) patients.