62 resultados para Dominios convexos

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo de relaciones binarias fue creado por De Morgan en 1860 para ser posteriormente desarrollado en gran medida por Peirce y Schröder. Tarski, Givant, Freyd y Scedrov demostraron que las álgebras relacionales son capaces de formalizar la lógica de primer orden, la lógica de orden superior así como la teoría de conjuntos. A partir de los resultados matemáticos de Tarski y Freyd, esta tesis desarrolla semánticas denotacionales y operacionales para la programación lógica con restricciones usando el álgebra relacional como base. La idea principal es la utilización del concepto de semántica ejecutable, semánticas cuya característica principal es el que la ejecución es posible utilizando el razonamiento estándar del universo semántico, este caso, razonamiento ecuacional. En el caso de este trabajo, se muestra que las álgebras relacionales distributivas con un operador de punto fijo capturan toda la teoría y metateoría estándar de la programación lógica con restricciones incluyendo los árboles utilizados en la búsqueda de demostraciones. La mayor parte de técnicas de optimización de programas, evaluación parcial e interpretación abstracta pueden ser llevadas a cabo utilizando las semánticas aquí presentadas. La demostración de la corrección de la implementación resulta extremadamente sencilla. En la primera parte de la tesis, un programa lógico con restricciones es traducido a un conjunto de términos relacionales. La interpretación estándar en la teoría de conjuntos de dichas relaciones coincide con la semántica estándar para CLP. Las consultas contra el programa traducido son llevadas a cabo mediante la reescritura de relaciones. Para concluir la primera parte, se demuestra la corrección y equivalencia operacional de esta nueva semántica, así como se define un algoritmo de unificación mediante la reescritura de relaciones. La segunda parte de la tesis desarrolla una semántica para la programación lógica con restricciones usando la teoría de alegorías—versión categórica del álgebra de relaciones—de Freyd. Para ello, se definen dos nuevos conceptos de Categoría Regular de Lawvere y _-Alegoría, en las cuales es posible interpretar un programa lógico. La ventaja fundamental que el enfoque categórico aporta es la definición de una máquina categórica que mejora e sistema de reescritura presentado en la primera parte. Gracias al uso de relaciones tabulares, la máquina modela la ejecución eficiente sin salir de un marco estrictamente formal. Utilizando la reescritura de diagramas, se define un algoritmo para el cálculo de pullbacks en Categorías Regulares de Lawvere. Los dominios de las tabulaciones aportan información sobre la utilización de memoria y variable libres, mientras que el estado compartido queda capturado por los diagramas. La especificación de la máquina induce la derivación formal de un juego de instrucciones eficiente. El marco categórico aporta otras importantes ventajas, como la posibilidad de incorporar tipos de datos algebraicos, funciones y otras extensiones a Prolog, a la vez que se conserva el carácter 100% declarativo de nuestra semántica. ABSTRACT The calculus of binary relations was introduced by De Morgan in 1860, to be greatly developed by Peirce and Schröder, as well as many others in the twentieth century. Using different formulations of relational structures, Tarski, Givant, Freyd, and Scedrov have shown how relation algebras can provide a variable-free way of formalizing first order logic, higher order logic and set theory, among other formal systems. Building on those mathematical results, we develop denotational and operational semantics for Constraint Logic Programming using relation algebra. The idea of executable semantics plays a fundamental role in this work, both as a philosophical and technical foundation. We call a semantics executable when program execution can be carried out using the regular theory and tools that define the semantic universe. Throughout this work, the use of pure algebraic reasoning is the basis of denotational and operational results, eliminating all the classical non-equational meta-theory associated to traditional semantics for Logic Programming. All algebraic reasoning, including execution, is performed in an algebraic way, to the point we could state that the denotational semantics of a CLP program is directly executable. Techniques like optimization, partial evaluation and abstract interpretation find a natural place in our algebraic models. Other properties, like correctness of the implementation or program transformation are easy to check, as they are carried out using instances of the general equational theory. In the first part of the work, we translate Constraint Logic Programs to binary relations in a modified version of the distributive relation algebras used by Tarski. Execution is carried out by a rewriting system. We prove adequacy and operational equivalence of the semantics. In the second part of the work, the relation algebraic approach is improved by using allegory theory, a categorical version of the algebra of relations developed by Freyd and Scedrov. The use of allegories lifts the semantics to typed relations, which capture the number of logical variables used by a predicate or program state in a declarative way. A logic program is interpreted in a _-allegory, which is in turn generated from a new notion of Regular Lawvere Category. As in the untyped case, program translation coincides with program interpretation. Thus, we develop a categorical machine directly from the semantics. The machine is based on relation composition, with a pullback calculation algorithm at its core. The algorithm is defined with the help of a notion of diagram rewriting. In this operational interpretation, types represent information about memory allocation and the execution mechanism is more efficient, thanks to the faithful representation of shared state by categorical projections. We finish the work by illustrating how the categorical semantics allows the incorporation into Prolog of constructs typical of Functional Programming, like abstract data types, and strict and lazy functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo tiene la vocación de dibujar el mapa de los dominios de oportunidad que hay a disposición de un arquitecto, al imaginar el aspecto sonoro de la ciudad en relación con la campana. Muchas de las dimensiones señaladas, tanto conocidas como desconocidas, son sencillamente despertadas al estudio de lo que un diseñador del espacio sonoro, como Llorenç Barber, viene a decirnos, desde una disciplina aparentemente contactada, pero muchas veces paralela a la arquitectónica. Tomando los conciertos de campanas celebrados hasta la fecha como puestas en práctica real de la condición instrumental de más de doscientas ciudades de todo el mundo, el estudio analiza los hallazgos, éxitos y fracasos, obtenidos a lo largo de estos últimos veinticinco años de experiencia, como resultados explícitos de un trabajo sonoro en la ciudad, probado, contrastado y afinado, del que extraer indicaciones concretas susceptibles de ser aplicadas en el diseño del espacio urbano. Mediante un análisis triangular de vértices definidos: emisor-campana, medio-ciudad, receptor-ciudadano; la investigación aborda los aspectos relativos a la producción y recepción del fenómeno sonoro generado por la campana en la ciudad. En relación con la producción, una parte del trabajo se dedica al estudio de los efectos acústicos observados, ordenado por escalas graduales en las que se produce una distribución del sonido susceptible de diseño: el vaso de la campana, la sala de campanas, el campanario, el cuerpo del edificio, la ciudad y el territorio. A modo de cajas de resonancia y leídas como muñecas rusas, unas dentro de otras, los espacios identificados muestran cualidades sonoras específicas, definidas tanto por sus condiciones geométricas, formales, constructivas o de uso; como por las correspondientes a las subsiguientes cajas que alojan. A fin de esclarecer la influencia de tales cuestiones en el aspecto sonoro de la ciudad, se propone un modelo ordenado de conexión y desconexión de escalas, utilizando una paramétrica puramente técnica creada ex profeso, junto con variables metodológicas más tradicionales. Al mismo tiempo, y tratando de esclarecer cómo, al ser puesta en vibración, la ciudad es aprehendida, disfrutada y rememorada por el ciudadano-oyente, otra parte del trabajo se dedica al estudio de los aspectos relativos a su recepción aural en deambulación compartida. En este caso la investigación se propone reclamar otras dimensiones más subversivas que, si bien escapan a los modos habituales de trabajar del arquitecto, se revelan intensamente en la experiencia plurifocal, multiplicando los efectos a considerar: efectos funcionales y significativos, de reconocimiento, integración y pertenencia a un cuerpo territorial y social de coordenadas históricas y geográficas de nuevo significadas; efectos perceptuales de inmersión, ubicuidad, temporalidad o inestabilidad; efectos estéticos, de rememoración, interpretación simbólica y recreación poética; e incluso efectos políticos, descubriendo un espacio urbano en continua regeneración, lugar para la exposición en su doble acepción, para la exhibición y el peligro, o como contenedor situacional del más profundo sentido ciudadano. Para afinar la relevancia de lo obtenido en cada una de las dimensiones señaladas, el trabajo se articula en tres aproximaciones graduales: el corpus general de los conciertos celebrados hasta la fecha; los conciertos celebrados en España; los tres conciertos para Madrid: Magna Mater (1991), Festi Clamores (2000) y Aurea Catena (2007). Si bien el modelo propuesto nace a la luz de los conciertos de campanas de Llorenç Barber, a escala de una ciudad entera y con una intención compositiva individual, se entiende que sería útil para el uso ordenado de cualquier profesional interesado en el aspecto sonoro de la ciudad, faceta escasamente atendida, dicho sea de paso, desde la disciplina arquitectónica. ABSTRACT This work has the vocation of drawing out the numerous opportunities an architect has at his disposal, upon imagining the sonorous aspect of the city in relation to the bell. Many of the dimensions indicated, both known and unknown, are just awakened to the study of what a sound space designer, as Llorenç Barber, comes to tell us, from a discipline apparently contacted, but often parallel to the architecture. Taking the bell concerts held so far as actual implementation of the instrumental condition of over two hundred cities around the world, the study analyzes the findings, successes and failures, obtained over the last twenty years of experience, as explicit results of a sound work in the city, tested, verified and refined, from which to extract specific indications that can be applied in the design of urban space. By triangular analyzing of defined vertices: sender-bell, half-city, receptor-citizen; the research addresses issues relating to the production and reception of sound phenomenon generated by the bell in the city. In relation to production, part of the work is devoted to the study of observed acoustic effects, ordered gradual scale which produces a distribution of sound capable of design: the glass of the bell, the bell room, the bell tower and the body of the building, the city and territory. By way of sounding boards and read as if they were Russian dolls, one inside the other, the show spaces identified specific sound qualities, defined both for their geometric, formal, constructive use, such as those for hosting the subsequent boxes. In order to clarify the influence of such issues in the sound aspect of the city, we propose an ordered pattern of connection and disconnection of scales, using a purely parametric technique created on purpose, along with more traditional methodological variables. At the same time, and trying to clarify how, when set in vibration, the city is apprehended, enjoyed and remembered for the citizen-listener, another part of the work is devoted to the study of aspects of aural reception in shared ambulation. In this case the research aims to claim more subversive than other dimensions, but beyond the usual ways in which an architect works, the experience reveals intensely plurifocal multiplying effects to consider: functional effects and significant recognition and integration belonging to a body of territorial and social historical and geographical coordinates of new meaning and perceptual effects of immersion, ubiquity, timeliness or instability; aesthetic effects of recall, interpretation and recreation of symbolic poetic; and even political effects, revealing a continuous urban space regeneration site for the exhibition in its double meaning, for display and danger, or as a citizen sense container. To sharpen the relevance of what was obtained in each of the dimensions mentioned, the work is divided into three incremental approaches: the general corpus of the concerts held so far, the concerts in Spain, the three concerts for Madrid: Magna Mater (1991), Festi Clamores (2000) and Aurea Catena (2007). While the proposed model comes in the light of the bells concert Llorenç Barber, the scale of a whole city and individual compositional intent, it is understood that it would be useful for the orderly use of any professional interested in the sound aspect of the city, an aspect sparsely attended, incidentally, from the architectural discipline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto se encuadra en el ámbito de la generación automática de interfaces de usuario, orientados a entornos web y con contenido multimedia, por otro lado dicha generación de interfaces, encaja en la disciplina de simulación del periodismo de datos, concretamente en el área de presentación y difusión. Sobre la generación automática de interfaces de usuario, en este proyecto se considera un tipo de interfaz de usuario a modo de periódico virtual, que permita al usuario visualizar de forma clara la información de diferentes noticias y permita la interacción entre los diferentes elementos de dicha presentación. Dicho interfaz de usuario se diseña usando la metáfora periodística, es decir, con un esquema de organización similar al del periódico clásico, para así facilitar la comprensión de las noticias, gracias a un interfaz sencillo y claro. OBJETIVOS El objetivo principal de este proyecto consiste en dar solución a la problemática de generar presentaciones multimedia de manera automática. Dichas presentaciones deben mostrar de una manera clara y sencilla la información a partir de planes de presentación de noticias y un sistema de base de datos. Para dicho fin se pretende desarrollar una herramienta, que genere presentaciones, a modo de periódico virtual. Las presentaciones de las noticias permiten al usuario interactuar de manera directa con los diferentes elementos de la presentación, ya sean texto, imágenes, animaciones, gráficos, mapas, etc. lo que facilita la comprensión de la información que se quiere ofrecer al usuario. De manera más detallada se presentan los objetivos concretos para el desarrollo del presente proyecto fin de carrera: • Análisis del problema. Se realiza un estudio de la problemática que se pretende solucionar con el sistema. Se revisan las técnicas y estado de la técnica en el campo Generador de interfaces de usuario como periódicos gráficos interactivos 4 de la generación automática de interfaces de usuario y su adaptación para ofrecer la difusión de la información a través de internet mediante aplicaciones web. Se identifica y estudia el contexto del sistema, el cual se orienta a la simulación del periodismo de datos. • Diseño del sistema. Se pretende diseñar un sistema informático completo, desde la capa de datos hasta la capa de presentación, que cumpla con los objetivos o requisitos propuestos. El diseño es general dado que un objetivo es permitir que el sistema pueda operar en dominios de naturaleza variada. • Implementación. Se aborda la fase de implementación con el objetivo de realizar un código modular, que sea fácil de mantener y aumentar, ya que esta herramienta pretende ofrecer servicio a diferentes sistemas de dominios variados y por lo tanto pueden surgir nuevas necesidades según el ámbito donde opere. Otro objetivo en esta parte del desarrollo, es que el sistema sea eficiente y capaz de manejar grandes volúmenes de datos así como realizar una adecuada generación automática de la presentación multimedia con texto y gráficos. • Validación. Para verificar el buen funcionamiento del sistema se desarrollan pruebas específicas que prueban las funcionalidades del sistema de manera unitaria. Para probar la generalidad del sistema se plantean diversos ejemplos de noticias en diferentes escenarios o dominios de datos, lo que nos permite comprobar la versatilidad del sistema. Para probar la robustez y solidez del sistema se pretende introducir este generador de interfaces de usuario dentro de un sistema generador automático de noticias de información hidrológica en tiempo real. El sistema generador de interfaces de usuario debe recoger cada plan de noticia, realizar automáticamente la presentación de cada noticia y organizar toda la colección de dichas noticias en un periódico virtual adaptado a las noticias que va a presentar. ORGANIZACIÓN DE LA MEMORIA La memoria se estructura de la siguiente manera; en primer lugar se presenta el estado de la técnica, con los avances y últimos desarrollos en la temática de la generación automática de interfaces de usuario, las aplicaciones web como solución de interfaz de usuario y de difusión a través de internet y los avances en simulación de periodismo dirigido por datos. Seguidamente se presenta la descripción del software, con una explicación de las diferentes fases del proceso de desarrollo software, como análisis, diseño e implementación, así como la ubicación que ocupa este sistema en un sistema de simulación de periodismo de datos. En esta parte se muestran los detalles concretos a tecnologías, lenguajes y bibliotecas utilizadas. En el siguiente capítulo se trata la validación del producto, se detallan las características del sistema automático de información hidrológica (SAIH), con el cual se ha podido probar completamente el sistema de generación automática de interfaces de usuario. Seguidamente se detallan las conclusiones a las que se ha llegado después de la realización de este proyecto, haciendo un repaso de los objetivos planteados así como las líneas futuras sobre estas técnicas. Por último se adjunta el manual de usuario de la herramienta y una colección de ejemplos mostrando las entradas y salidas procesadas por el software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modelo de Ising es un problema de física estadística que tiene solución exacta en dos dimensiones, para el caso de tres dimensiones es preciso utilizar procedimientos de simulación. En este trabajo se ha utilizado un método de Monte Carlo para estudiar el comportamiento del sistema en distintas situaciones, siendo de especial interés el estudio del paso por la transición de fase a la temperatura crítica (Temperatura de Curie, Tc). Se ha estudiado la cinética de los dominios magnéticos, considerando la estructura de los dominios desde el punto de vista de la energía, y en consecuencia, hemos tenido en cuenta la energía de canje que tiende a mantener alineados los espines de los electrones en los materiales ferromagnéticos. Este término contribuye a hacer mayor el espesor de la pared, por la tendencia a que los espines de los átomos vecinos se mantengan alineados. Se ha considerado el ferromagnetismo desde el punto de vista cuántico y basado en las propiedades de simetría de las funciones de onda de los electrones, que se manifiestan en variaciones de la energía electrostática de un sistema en función de la orientación de sus espines. Se han estudiado los efectos de histéresis que resultan al aplicar un campo magnético externo a la red y la orientación de los espines de la misma a lo largo de su evolución. Para la determinación de las propiedades de los materiales ferromagnéticos se utiliza el ciclo de histéresis aunque algunas de las propiedades magnéticas, como la dirección de anisotropía, no pueden ser deducidas directamente de esta manera. Se utilizan distintos métodos para la determinación de la anisotropía de las muestras. El acoplamiento entre la magnetización en zonas próximas a la superficie y la magnetización en zonas internas de la muestra puede ser utilizado para obtener un ciclo de histéresis, que permita obtener sensores magnéticos adaptados a las medidas que se quieran realizar. Mediante el control del campo coercitivo y la susceptibilidad se abre una línea de investigación para el desarrollo de sensores magnéticos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo presenta resultados de la exploración del campo de velocidades en estelas de distintos modelos de barreras porosas, con vistas a suposible utilización para proteger plantaciones o zonas habitadas de los efectos perniciosos del viento. Los ensayos se han hecho en túnel aerodinámico y, para las medidas, se ha utilizado un anemómetro de hilo caliente. Se ha medido: la velocidad media temporal, el nivel de turbulencia y, en algunos casos, el transporte turbulento y la inclinación del vector velocidad, en cuatro secciones distintas corriente abajo de cada barrera. El trabajo está dividido en ocho capítulos. En el primero se discute la posible utilidad de las barreras en agricultura. En el segundo se revisan ciertas características de las estelas turbulentas de diferentes obstáculos,con el fin de contrastar los resultados obtenidos con otros análogos. En el capítulo tercero se describen los métodos de medida. El cuarto presenta el grueso de los resultados, y los cuatro siguientes: la influencia del número de Reynolds, rugosidad del suelo, perfil del viento incidente y presencia de las paredes y techo del túnel, respectivamente. Los ensayos muestran que los perfiles de velocidades correspondientes a secciones situadas a cierta distancia de la barrera (mayor de seis a ocho veces la altura de ésta) se asemejan a los de un semichorro de baja velocidad que descarga paralelamente a una corriente más rápida. Los perfiles próximos y las condiciones iniciales del semichorro dependen de la configuración de la barrera. El modelo del semichorro equivalente permite calcular las características de la estela a distancias mayores que las que es posible reproducir en los experimentos. Por otra parte, sugiere ciertas modificaciones de la forma de la barrera para aumentar la longitud de la zona protegida del viento. La rugosidad del suelo y la existencia de perfiles de viento distintos del uniforme y más ajustados a la realidad, contribuyen a disminuir la longitud de la zona protegida. Esta observación está de acuerdo con los resultados de otros autores. Se observa que el nivel de turbulencia es muy sensible a las características geométricas de la barrera, lo que sugiere la posibilidad de controlar la capa límite sobre el terreno y, por tanto, el transporte de calor y masa en provecho de la productividad de cultivo. El trabajo que se presenta es parte de un programa más amplio, que tiene por objeto transmitir tecnología avanzada a ciertos dominios de interés para la agricultura y la industria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, applications in domains such as telecommunications, network security or large scale sensor networks showed the limits of the traditional store-then-process paradigm. In this context, Stream Processing Engines emerged as a candidate solution for all these applications demanding for high processing capacity with low processing latency guarantees. With Stream Processing Engines, data streams are not persisted but rather processed on the fly, producing results continuously. Current Stream Processing Engines, either centralized or distributed, do not scale with the input load due to single-node bottlenecks. Moreover, they are based on static configurations that lead to either under or over-provisioning. This Ph.D. thesis discusses StreamCloud, an elastic paralleldistributed stream processing engine that enables for processing of large data stream volumes. Stream- Cloud minimizes the distribution and parallelization overhead introducing novel techniques that split queries into parallel subqueries and allocate them to independent sets of nodes. Moreover, Stream- Cloud elastic and dynamic load balancing protocols enable for effective adjustment of resources depending on the incoming load. Together with the parallelization and elasticity techniques, Stream- Cloud defines a novel fault tolerance protocol that introduces minimal overhead while providing fast recovery. StreamCloud has been fully implemented and evaluated using several real word applications such as fraud detection applications or network analysis applications. The evaluation, conducted using a cluster with more than 300 cores, demonstrates the large scalability, the elasticity and fault tolerance effectiveness of StreamCloud. Resumen En los útimos años, aplicaciones en dominios tales como telecomunicaciones, seguridad de redes y redes de sensores de gran escala se han encontrado con múltiples limitaciones en el paradigma tradicional de bases de datos. En este contexto, los sistemas de procesamiento de flujos de datos han emergido como solución a estas aplicaciones que demandan una alta capacidad de procesamiento con una baja latencia. En los sistemas de procesamiento de flujos de datos, los datos no se persisten y luego se procesan, en su lugar los datos son procesados al vuelo en memoria produciendo resultados de forma continua. Los actuales sistemas de procesamiento de flujos de datos, tanto los centralizados, como los distribuidos, no escalan respecto a la carga de entrada del sistema debido a un cuello de botella producido por la concentración de flujos de datos completos en nodos individuales. Por otra parte, éstos están basados en configuraciones estáticas lo que conducen a un sobre o bajo aprovisionamiento. Esta tesis doctoral presenta StreamCloud, un sistema elástico paralelo-distribuido para el procesamiento de flujos de datos que es capaz de procesar grandes volúmenes de datos. StreamCloud minimiza el coste de distribución y paralelización por medio de una técnica novedosa la cual particiona las queries en subqueries paralelas repartiéndolas en subconjuntos de nodos independientes. Ademas, Stream- Cloud posee protocolos de elasticidad y equilibrado de carga que permiten una optimización de los recursos dependiendo de la carga del sistema. Unidos a los protocolos de paralelización y elasticidad, StreamCloud define un protocolo de tolerancia a fallos que introduce un coste mínimo mientras que proporciona una rápida recuperación. StreamCloud ha sido implementado y evaluado mediante varias aplicaciones del mundo real tales como aplicaciones de detección de fraude o aplicaciones de análisis del tráfico de red. La evaluación ha sido realizada en un cluster con más de 300 núcleos, demostrando la alta escalabilidad y la efectividad tanto de la elasticidad, como de la tolerancia a fallos de StreamCloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las plantas son organismos sésiles que han desarrollado la capacidad para detectar variaciones sutiles en su ambiente y producir respuestas adaptativas mediante rutas de señalización. Los estímulos causados por el estrés biótico y abiótico son numerosos y dependiendo del tiempo de exposición y su intensidad, pueden reducir la tasa de crecimiento de las plantas y la producción. Los cambios en la concentración del calcio citosólico libre constituyen una de las primeras reacciones intracelulares a las situaciones de estrés abiótico. En esta situación, el calcio actúa como segundo mensajero y las variaciones en su concentración son descodificadas por proteínas de unión a calcio. Las más conocidas son las manos-EF y los dominios C2. Los dominios C2 han sido descritos como dominios de unión a lípidos dependientes de calcio. Estos dominios se consideran proteínas periféricas solubles en agua que se asocian de manera reversible a los lípidos de la membrana mediante una o dos regiones funcionales: el sitio de unión a calcio y el sitio polibásico. A pesar de que se conoce la estructura molecular de algunos dominios C2, se desconocen aspectos relacionados como las reglas que dirigen su forma de interaccionar con los diferentes fosfolípidos y proteínas, la posición que ocupan en la bicapa lipídica y su papel en la transmisión de señales. En esta tesis se ha estudiado una proteína de Arabidopsis thaliana (At3g17980) representativa de una nueva familia de proteínas con dominios C2, que consiste únicamente de un dominio C2. Esta proteína, llamada AtC2.1, ha sido clonada en el vector pETM11, expresada en E. coli y purificada a homogeneidad en dos pasos cromatográficos. Se obtuvieron cristales de AtC2.1 de buena calidad mediante técnicas de difusión de vapor. La proteína fue co-cristalizada con calcio, fosfocolina (POC) y el fosfolípido 1,2-dihexanoil-sn-glicero-3-fosfo-L-serina (PSF). Se recogieron ocho conjuntos de datos de difracción de rayos X empleando radiación sincrotrón. Los cristales difractaron hasta 1.6 Å de resolución. Siete de ellos pertenecían al grupo ortorrómbico P212121, con las dimensiones de la celdilla unidad a = 35.3, b = 88.9, c = 110.6 Å, y un cristal pertenecía al grupo espacial monoclínico C2, con a = 124.84, b = 35.27, c = 92.32 Å y = 121.70º. La estructura se resolvió mediante la técnica MR-SAD utilizando el cinc como dispersor anómalo. La estructura cristalina mostró que la molécula forma un dímero en el que cada protómero se pliega como un dominio C2 típico, con la topología tipo II y presenta una inserción de 43 aminoácidos que la diferencia de los dominios C2 conocidos. El mapa de densidad electrónica mostró dos átomos de calcio por protómero. Se resolvieron las estructuras de AtC2.1 en complejo con POC o PSF. En ambos complejos, el análisis cristalográfico detectó máximos de densidad electrónica en la región correspondiente al sitio polibásico formado por las hebras 2, 3 5 y el lazo 3. Éstos se interpretaron correctamente como dos moléculas de POC y un átomo de cinc, en un complejo, y como la cabeza polar del PSF en el otro. AtC2.1 define un sitio de interacción con lípidos dependiente de cinc. En conclusión, en este trabajo se presenta la estructura tridimensional de AtC2.1, miembro representativo de una familia de proteínas de Arabidopsis thaliana, identificadas como proteínas que interaccionan con los receptores de ABA. Estas proteínas están constituidas únicamente por un dominio C2. El análisis conjunto de los datos biofísicos y cristalográficos muestra que AtC2.1 es un sensor de calcio que une lípidos usando dos sitios funcionales. Estos datos sugieren un mecanismo de inserción en membrana dependiente de calcio que trae consigo la disociación de la estructura dimérica y, por consiguiente, un cambio en las propiedades de superficie de la molécula. Este mecanismo proporciona las bases del reconocimiento y transporte de los receptores de ABA y/o otras moléculas a la membrana celular. Plants are sessile organisms that have developed the capacity to detect slight variations of their environment. They are able to perceive biotic and abiotic stress signals and to transduce them by signaling pathways in order to trigger adaptative responses. Stress factors are numerous and, depending on their exposition time and their concentration, can reduce plant growth rate, limiting the productivity of crop plants. Changes in the cytosolic free calcium concentration are observed as one of the earliest intracellular reactions to abiotic stress signals. Calcium plays a key role as a second messenger, and calcium concentration signatures, called calcium signals, are decodified by calcium binding proteins. The main calcium binding structures are the EF-hand motif and the C2 domains. C2 domain is a calcium dependent lipid-binding domain of approximately 130 amino acids. C2 domain displays two functional regions: the Ca-binding region and the polybasic cluster. Both of them can interact with the membrane phospholipids. Despite the number of C2 domain 3D structures currently available, questions about how they interact with the different target phospholipids, their precise spatial position in the lipid bilayer, interactions with other proteins and their role in transmitting signals downstream, have not yet been explored. In this work we have studied an uncharacterized protein from Arabidopsis thaliana (At3g17980) consisting of only a single C2 domain, as member of a new protein C2-domain family. This protein called AtC2.1 was cloned into the pETM11 vector and expressed in E. coli, allowing the purification to homogeneity in two chromatographic steps. Good quality diffracting crystals were obtained using vapor-diffusion techniques. Crystals were co-crystalized with calcium; phosphocholine (POC) and/or the phospholipid 1,2-dihexanoyl-sn-glycero-3-phospho-L-serine (PSF). Eight data set were collected with synchrotron radiation. Crystals diffracted up to 1.6 Å resolution and seven of them belong to the orthorhombic space group P212121, with unit-cell parameters a = 35.3, b = 88.9, c = 110.6 Å. Another crystal was monoclinic, space group C2, with a = 124.84, b = 35.27, c = 92.32 Å and = 121.70º. The structural model was solved by MR-SAD using Zn2+ as anomalous scatterer. The crystal structure shows that the molecule is a dimer. Each monomer was folded as a canonical C2 domain with the topology II with a 43 residues insertion. The electron density map reveals two calcium ions per molecule. Structures of AtC2.1, complexed with POC and PSF, have been solved. Well-defined extra electron densities were found, in both complexes, within the concave surface formed by strands 2, 3, 5 and loop 3 of AtC2.1. These densities were clearly explained by the presence of the two POC molecules, one zinc atom and head groups of PSF, occupying the cavity of the polybasic site. AtC2.1 defines a new metal dependent lipid-binding site into the polybasic site. In conclusion, in this thesis it is presented the molecular structure of AtC2.1, a representative member of a family of Arabidopsis thaliana C2 domain proteins, of unknown function, but identified as a molecular interacting unit of the ABA receptors. The joint analyses of the biophysical and crystallographic data show that AtC2.1 is a calcium sensor that binds lipids in two sites and suggest a model of calcium-dependent membrane insertion mechanism that will involve either dimer dissociation or a strong rearrangement of the dimeric structure. This mechanism may be the basis for the recognition and delivery of ABA receptors or other protein molecules to cell membranes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando se modelan sistemas físicos no lineales de extensión infinita, como las excavaciones, se hace necesario simular adecuadamente tanto la solución en el infinito como la no linealidad. El método de elementos finitos es una herramienta efectiva para representar la no linealidad. Sin embargo, el tratamiento del campo infinito truncando el dominio es bastante cuestionable. Por otro lado, el método de elementos de contorno es adecuado para simular el comportamiento en el infinito sin truncamientos. Por combinación de ambos métodos, se puede obtener un uso adecuado de las ventajas de cada uno. En este trabajo se proponen diversas posibilidades de acoplamiento entre los dos métodos. Se desarrollan algoritmos de acoplamiento basados en una descomposición de dominios y se comparan con los esquemas más tradicionales de acoplamiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is easy to get frustrated at spoken conversational agents (SCAs), perhaps because they seem to be callous. By and large, the quality of human-computer interaction is affected due to the inability of the SCAs to recognise and adapt to user emotional state. Now with the mass appeal of artificially-mediated communication, there has been an increasing need for SCAs to be socially and emotionally intelligent, that is, to infer and adapt to their human interlocutors’ emotions on the fly, in order to ascertain an affective, empathetic and naturalistic interaction. An enhanced quality of interaction would reduce users’ frustrations and consequently increase their satisfactions. These reasons have motivated the development of SCAs towards including socio-emotional elements, turning them into affective and socially-sensitive interfaces. One barrier to the creation of such interfaces has been the lack of methods for modelling emotions in a task-independent environment. Most emotion models for spoken dialog systems are task-dependent and thus cannot be used “as-is” in different applications. This Thesis focuses on improving this, in which it concerns computational modeling of emotion, personality and their interrelationship for task-independent autonomous SCAs. The generation of emotion is driven by needs, inspired by human’s motivational systems. The work in this Thesis is organised in three stages, each one with its own contribution. The first stage involved defining, integrating and quantifying the psychological-based motivational and emotional models sourced from. Later these were transformed into a computational model by implementing them into software entities. The computational model was then incorporated and put to test with an existing SCA host, a HiFi-control agent. The second stage concerned automatic prediction of affect, which has been the main challenge towards the greater aim of infusing social intelligence into the HiFi agent. In recent years, studies on affect detection from voice have moved on to using realistic, non-acted data, which is subtler. However, it is more challenging to perceive subtler emotions and this is demonstrated in tasks such as labelling and machine prediction. In this stage, we attempted to address part of this challenge by considering the roles of user satisfaction ratings and conversational/dialog features as the respective target and predictors in discriminating contentment and frustration, two types of emotions that are known to be prevalent within spoken human-computer interaction. The final stage concerned the evaluation of the emotional model through the HiFi agent. A series of user studies with 70 subjects were conducted in a real-time environment, each in a different phase and with its own conditions. All the studies involved the comparisons between the baseline non-modified and the modified agent. The findings have gone some way towards enhancing our understanding of the utility of emotion in spoken dialog systems in several ways; first, an SCA should not express its emotions blindly, albeit positive. Rather, it should adapt its emotions to user states. Second, low performance in an SCA may be compensated by the exploitation of emotion. Third, the expression of emotion through the exploitation of prosody could better improve users’ perceptions of an SCA compared to exploiting emotions through just lexical contents. Taken together, these findings not only support the success of the emotional model, but also provide substantial evidences with respect to the benefits of adding emotion in an SCA, especially in mitigating users’ frustrations and ultimately improving their satisfactions. Resumen Es relativamente fácil experimentar cierta frustración al interaccionar con agentes conversacionales (Spoken Conversational Agents, SCA), a menudo porque parecen ser un poco insensibles. En general, la calidad de la interacción persona-agente se ve en cierto modo afectada por la incapacidad de los SCAs para identificar y adaptarse al estado emocional de sus usuarios. Actualmente, y debido al creciente atractivo e interés de dichos agentes, surge la necesidad de hacer de los SCAs unos seres cada vez más sociales y emocionalmente inteligentes, es decir, con capacidad para inferir y adaptarse a las emociones de sus interlocutores humanos sobre la marcha, de modo que la interacción resulte más afectiva, empática y, en definitiva, natural. Una interacción mejorada en este sentido permitiría reducir la posible frustración de los usuarios y, en consecuencia, mejorar el nivel de satisfacción alcanzado por los mismos. Estos argumentos justifican y motivan el desarrollo de nuevos SCAs con capacidades socio-emocionales, dotados de interfaces afectivas y socialmente sensibles. Una de las barreras para la creación de tales interfaces ha sido la falta de métodos de modelado de emociones en entornos independientes de tarea. La mayoría de los modelos emocionales empleados por los sistemas de diálogo hablado actuales son dependientes de tarea y, por tanto, no pueden utilizarse "tal cual" en diferentes dominios o aplicaciones. Esta tesis se centra precisamente en la mejora de este aspecto, la definición de modelos computacionales de las emociones, la personalidad y su interrelación para SCAs autónomos e independientes de tarea. Inspirada en los sistemas motivacionales humanos en el ámbito de la psicología, la tesis propone un modelo de generación/producción de la emoción basado en necesidades. El trabajo realizado en la presente tesis está organizado en tres etapas diferenciadas, cada una con su propia contribución. La primera etapa incluyó la definición, integración y cuantificación de los modelos motivacionales de partida y de los modelos emocionales derivados a partir de éstos. Posteriormente, dichos modelos emocionales fueron plasmados en un modelo computacional mediante su implementación software. Este modelo computacional fue incorporado y probado en un SCA anfitrión ya existente, un agente con capacidad para controlar un equipo HiFi, de alta fidelidad. La segunda etapa se orientó hacia el reconocimiento automático de la emoción, aspecto que ha constituido el principal desafío en relación al objetivo mayor de infundir inteligencia social en el agente HiFi. En los últimos años, los estudios sobre reconocimiento de emociones a partir de la voz han pasado de emplear datos actuados a usar datos reales en los que la presencia u observación de emociones se produce de una manera mucho más sutil. El reconocimiento de emociones bajo estas condiciones resulta mucho más complicado y esta dificultad se pone de manifiesto en tareas tales como el etiquetado y el aprendizaje automático. En esta etapa, se abordó el problema del reconocimiento de las emociones del usuario a partir de características o métricas derivadas del propio diálogo usuario-agente. Gracias a dichas métricas, empleadas como predictores o indicadores del grado o nivel de satisfacción alcanzado por el usuario, fue posible discriminar entre satisfacción y frustración, las dos emociones prevalentes durante la interacción usuario-agente. La etapa final corresponde fundamentalmente a la evaluación del modelo emocional por medio del agente Hifi. Con ese propósito se llevó a cabo una serie de estudios con usuarios reales, 70 sujetos, interaccionando con diferentes versiones del agente Hifi en tiempo real, cada uno en una fase diferente y con sus propias características o capacidades emocionales. En particular, todos los estudios realizados han profundizado en la comparación entre una versión de referencia del agente no dotada de ningún comportamiento o característica emocional, y una versión del agente modificada convenientemente con el modelo emocional propuesto. Los resultados obtenidos nos han permitido comprender y valorar mejor la utilidad de las emociones en los sistemas de diálogo hablado. Dicha utilidad depende de varios aspectos. En primer lugar, un SCA no debe expresar sus emociones a ciegas o arbitrariamente, incluso aunque éstas sean positivas. Más bien, debe adaptar sus emociones a los diferentes estados de los usuarios. En segundo lugar, un funcionamiento relativamente pobre por parte de un SCA podría compensarse, en cierto modo, dotando al SCA de comportamiento y capacidades emocionales. En tercer lugar, aprovechar la prosodia como vehículo para expresar las emociones, de manera complementaria al empleo de mensajes con un contenido emocional específico tanto desde el punto de vista léxico como semántico, ayuda a mejorar la percepción por parte de los usuarios de un SCA. Tomados en conjunto, los resultados alcanzados no sólo confirman el éxito del modelo emocional, sino xv que constituyen además una evidencia decisiva con respecto a los beneficios de incorporar emociones en un SCA, especialmente en cuanto a reducir el nivel de frustración de los usuarios y, en última instancia, mejorar su satisfacción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta un conjunto de ideas para renovar el diseño e implantación de currículos informáticos, especialmente de currículos con un fuerte contenido informático. Los tres elementos fundamentales son: a) un concepto sociotécnico de la tecnología, b) una arquitectura de contenidos curriculares formada por tres dominios, y c) una herramienta docente para definir el perfil del titulado. En cuanto a la aplicación de tales ideas, que postulan la universidad como una entidad que se adapta a las necesidades sociales, se discute la intrínseca dificultad de la universidad para comportarse como una organización aprendiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de sentimientos de textos en las redes sociales se ha convertido en un área de investigación cada vez más relevante debido a la influencia que las opiniones expresadas tienen en potenciales usuarios. De acuerdo con una clasificación conceptual de sentimientos y basándonos en un corpus de diversos dominios comerciales, hemos trabajado en la confección de reglas que permitan la clasificación de dichos textos según el sentimiento expresado con respecto a una marca, empresa o producto. Con la ayuda de una base de datos de colocaciones (Badele3000) y un gestor de corpus (Calíope) se han creado 200 reglas en español que han puesto de manifiesto algunas consideraciones a tener en cuenta en la siguiente fase del trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Interacciones no lineales de ondas de Alfvén existen tanto para plasmas en el espacio como en laboratorios, con efectos que van desde calentamiento hasta conducción de corriente. Un ejemplo de emisión de ondas de Alfvén en ingeniería aeroespacial aparece en amarras espaciales. Estos dispositivos emiten ondas en estructuras denominadas “Alas de Alfvén”. La ecuación derivada no lineal de Schrödinger (DNLS) posee la capacidad de describir la propagación de ondas de Alfvén de amplitud finita circularmente polarizadas en un plasma frío. En esta investigación, dicha ecuación es truncada con el objetivo de explorar el acoplamiento coherente, débilmente no lineal y cúbico de tres ondas cerca de resonancia. De las tres ondas, una es linealmente inestable y las otras dos son amortiguadas. Por medio de la utilización de este modelo se genera un flujo 4D formado por tres amplitudes y una fase relativa. En trabajos anteriores se analizó la transición dura hacia caos en flujos 3D.2005). Se presenta en este artículo un análisis teórico y numérico del comportamiento del sistema cuando la tasa de crecimiento de la onda inestable es muy próxima a cero y considerando amortiguamiento resistivo, es decir se satisface una relación cuadrática entre amortiguamientos y números de onda. Al igual que en los trabajos anteriores, se ha encontrado que sin importar cuan pequeña es la tasa de crecimiento de la onda inestable existe un dominio paramétrico, en el espacio de fase, donde aparecen oscilaciones caóticas que están ausentes para una tasa de crecimiento nula. Sin embargo diagramas de bifurcación y dominios de estabilidad presentan diferencias con respecto a lo estudiado anteriormente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cáncer de próstata es el tipo de cáncer con mayor prevalencia entre los hombres del mundo occidental y, pese a tener una alta tasa de supervivencia relativa, es la segunda mayor causa de muerte por cáncer en este sector de la población. El tratamiento de elección frente al cáncer de próstata es, en la mayoría de los casos, la radioterapia externa. Las técnicas más modernas de radioterapia externa, como la radioterapia modulada en intensidad, permiten incrementar la dosis en el tumor mientras se reduce la dosis en el tejido sano. Sin embargo, la localización del volumen objetivo varía con el día de tratamiento, y se requieren movimientos muy pequeños de los órganos para sacar partes del volumen objetivo fuera de la región terapéutica, o para introducir tejidos sanos críticos dentro. Para evitar esto se han desarrollado técnicas más avanzadas, como la radioterapia guiada por imagen, que se define por un manejo más preciso de los movimientos internos mediante una adaptación de la planificación del tratamiento basada en la información anatómica obtenida de imágenes de tomografía computarizada (TC) previas a la sesión terapéutica. Además, la radioterapia adaptativa añade la información dosimétrica de las fracciones previas a la información anatómica. Uno de los fundamentos de la radioterapia adaptativa es el registro deformable de imágenes, de gran utilidad a la hora de modelar los desplazamientos y deformaciones de los órganos internos. Sin embargo, su utilización conlleva nuevos retos científico-tecnológicos en el procesamiento de imágenes, principalmente asociados a la variabilidad de los órganos, tanto en localización como en apariencia. El objetivo de esta tesis doctoral es mejorar los procesos clínicos de delineación automática de contornos y de cálculo de dosis acumulada para la planificación y monitorización de tratamientos con radioterapia adaptativa, a partir de nuevos métodos de procesamiento de imágenes de TC (1) en presencia de contrastes variables, y (2) cambios de apariencia del recto. Además, se pretende (3) proveer de herramientas para la evaluación de la calidad de los contornos obtenidos en el caso del gross tumor volumen (GTV). Las principales contribuciones de esta tesis doctoral son las siguientes: _ 1. La adaptación, implementación y evaluación de un algoritmo de registro basado en el flujo óptico de la fase de la imagen como herramienta para el cálculo de transformaciones no-rígidas en presencia de cambios de intensidad, y su aplicabilidad a tratamientos de radioterapia adaptativa en cáncer de próstata con uso de agentes de contraste radiológico. Los resultados demuestran que el algoritmo seleccionado presenta mejores resultados cualitativos en presencia de contraste radiológico en la vejiga, y no distorsiona la imagen forzando deformaciones poco realistas. 2. La definición, desarrollo y validación de un nuevo método de enmascaramiento de los contenidos del recto (MER), y la evaluación de su influencia en el procedimiento de radioterapia adaptativa en cáncer de próstata. Las segmentaciones obtenidas mediante el MER para la creación de máscaras homogéneas en las imágenes de sesión permiten mejorar sensiblemente los resultados de los algoritmos de registro en la región rectal. Así, el uso de la metodología propuesta incrementa el índice de volumen solapado entre los contornos manuales y automáticos del recto hasta un valor del 89%, cercano a los resultados obtenidos usando máscaras manuales para el registro de las dos imágenes. De esta manera se pueden corregir tanto el cálculo de los nuevos contornos como el cálculo de la dosis acumulada. 3. La definición de una metodología de evaluación de la calidad de los contornos del GTV, que permite la representación de la distribución espacial del error, adaptándola a volúmenes no-convexos como el formado por la próstata y las vesículas seminales. Dicha metodología de evaluación, basada en un nuevo algoritmo de reconstrucción tridimensional y una nueva métrica de cuantificación, presenta resultados precisos con una gran resolución espacial en un tiempo despreciable frente al tiempo de registro. Esta nueva metodología puede ser una herramienta útil para la comparación de distintos algoritmos de registro deformable orientados a la radioterapia adaptativa en cáncer de próstata. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como cimiento de futuros avances en el procesamiento de imagen médica en los tratamientos de radioterapia adaptativa en cáncer de próstata. Asimismo, se siguen abriendo nuevas líneas de aplicación futura de métodos de procesamiento de imágenes médicas con el fin de mejorar los procesos de radioterapia adaptativa en presencia de cambios de apariencia de los órganos, e incrementar la seguridad del paciente. I.2 Inglés Prostate cancer is the most prevalent cancer amongst men in the Western world and, despite having a relatively high survival rate, is the second leading cause of cancer death in this sector of the population. The treatment of choice against prostate cancer is, in most cases, external beam radiation therapy. The most modern techniques of external radiotherapy, as intensity modulated radiotherapy, allow increasing the dose to the tumor whilst reducing the dose to healthy tissue. However, the location of the target volume varies with the day of treatment, and very small movements of the organs are required to pull out parts of the target volume outside the therapeutic region, or to introduce critical healthy tissues inside. Advanced techniques, such as the image-guided radiotherapy (IGRT), have been developed to avoid this. IGRT is defined by more precise handling of internal movements by adapting treatment planning based on the anatomical information obtained from computed tomography (CT) images prior to the therapy session. Moreover, the adaptive radiotherapy adds dosimetric information of previous fractions to the anatomical information. One of the fundamentals of adaptive radiotherapy is deformable image registration, very useful when modeling the displacements and deformations of the internal organs. However, its use brings new scientific and technological challenges in image processing, mainly associated to the variability of the organs, both in location and appearance. The aim of this thesis is to improve clinical processes of automatic contour delineation and cumulative dose calculation for planning and monitoring of adaptive radiotherapy treatments, based on new methods of CT image processing (1) in the presence of varying contrasts, and (2) rectum appearance changes. It also aims (3) to provide tools for assessing the quality of contours obtained in the case of gross tumor volume (GTV). The main contributions of this PhD thesis are as follows: 1. The adaptation, implementation and evaluation of a registration algorithm based on the optical flow of the image phase as a tool for the calculation of non-rigid transformations in the presence of intensity changes, and its applicability to adaptive radiotherapy treatment in prostate cancer with use of radiological contrast agents. The results demonstrate that the selected algorithm shows better qualitative results in the presence of radiological contrast agents in the urinary bladder, and does not distort the image forcing unrealistic deformations. 2. The definition, development and validation of a new method for masking the contents of the rectum (MER, Spanish acronym), and assessing their impact on the process of adaptive radiotherapy in prostate cancer. The segmentations obtained by the MER for the creation of homogenous masks in the session CT images can improve significantly the results of registration algorithms in the rectal region. Thus, the use of the proposed methodology increases the volume overlap index between manual and automatic contours of the rectum to a value of 89%, close to the results obtained using manual masks for both images. In this way, both the calculation of new contours and the calculation of the accumulated dose can be corrected. 3. The definition of a methodology for assessing the quality of the contours of the GTV, which allows the representation of the spatial distribution of the error, adapting it to non-convex volumes such as that formed by the prostate and seminal vesicles. Said evaluation methodology, based on a new three-dimensional reconstruction algorithm and a new quantification metric, presents accurate results with high spatial resolution in a time negligible compared to the registration time. This new approach may be a useful tool to compare different deformable registration algorithms oriented to adaptive radiotherapy in prostate cancer In conclusion, this PhD thesis corroborates the postulated research hypotheses, and is intended to serve as a foundation for future advances in medical image processing in adaptive radiotherapy treatment in prostate cancer. In addition, it opens new future applications for medical image processing methods aimed at improving the adaptive radiotherapy processes in the presence of organ’s appearance changes, and increase the patient safety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de Tesis se desarrolla en el marco de los escenarios de ejecución distribuida de servicios móviles y contribuye a la definición y desarrollo del concepto de usuario prosumer. El usuario prosumer se caracteriza por utilizar su teléfono móvil para crear, proveer y ejecutar servicios. Este nuevo modelo de usuario contribuye al avance de la sociedad de la información, ya que el usuario prosumer se transforma de creador de contenidos a creador de servicios (estos últimos formados por contenidos y la lógica para acceder a ellos, procesarlos y representarlos). El objetivo general de este trabajo de Tesis es la provisión de un modelo de creación, distribución y ejecución de servicios para entorno móvil que permita a los usuarios no programadores (usuarios prosumer), pero expertos en un determinado dominio, crear y ejecutar sus propias aplicaciones y servicios. Para ello se definen, desarrollan e implementan metodologías, procesos, algoritmos y mecanismos adaptables a dominios específicos, para construir entornos de ejecución distribuida de servicios móviles para usuarios prosumer. La provisión de herramientas de creación adaptadas a usuarios no expertos es una tendencia actual que está siendo desarrollada en distintos trabajos de investigación. Sin embargo, no se ha propuesto una metodología de desarrollo de servicios que involucre al usuario prosumer en el proceso de diseño, desarrollo, implementación y validación de servicios. Este trabajo de Tesis realiza un estudio de las metodologías y tecnologías más innovadoras relacionadas con la co‐creación y utiliza este análisis para definir y validar una metodología que habilita al usuario para ser el responsable de la creación de servicios finales. Siendo los entornos móviles prosumer (mobile prosumer environments) una particularización de los entornos de ejecución distribuida de servicios móviles, en este trabajo se tesis se investiga en técnicas de adaptación, distribución, coordinación de servicios y acceso a recursos identificando como requisitos las problemáticas de este tipo de entornos y las características de los usuarios que participan en los mismos. Se contribuye a la adaptación de servicios definiendo un modelo de variabilidad que soporte la interdependencia entre las decisiones de personalización de los usuarios, incorporando mecanismos de guiado y detección de errores. La distribución de servicios se implementa utilizando técnicas de descomposición en árbol SPQR, cuantificando el impacto de separar cualquier servicio en distintos dominios. Considerando el plano de comunicaciones para la coordinación en la ejecución de servicios distribuidos hemos identificado varias problemáticas, como las pérdidas de enlace, conexiones, desconexiones y descubrimiento de participantes, que resolvemos utilizando técnicas de diseminación basadas en publicación subscripción y algoritmos Gossip. Para lograr una ejecución flexible de servicios distribuidos en entorno móvil, soportamos la adaptación a cambios en la disponibilidad de los recursos, proporcionando una infraestructura de comunicaciones para el acceso uniforme y eficiente a recursos. Se han realizado validaciones experimentales para evaluar la viabilidad de las soluciones propuestas, definiendo escenarios de aplicación relevantes (el nuevo universo inteligente, prosumerización de servicios en entornos hospitalarios y emergencias en la web de la cosas). Abstract This Thesis work is developed in the framework of distributed execution of mobile services and contributes to the definition and development of the concept of prosumer user. The prosumer user is characterized by using his mobile phone to create, provide and execute services. This new user model contributes to the advancement of the information society, as the prosumer is transformed from producer of content, to producer of services (consisting of content and logic to access them, process them and represent them). The overall goal of this Thesis work is to provide a model for creation, distribution and execution of services for the mobile environment that enables non‐programmers (prosumer users), but experts in a given domain, to create and execute their own applications and services. For this purpose I define, develop and implement methodologies, processes, algorithms and mechanisms, adapted to specific domains, to build distributed environments for the execution of mobile services for prosumer users. The provision of creation tools adapted to non‐expert users is a current trend that is being developed in different research works. However, it has not been proposed a service development methodology involving the prosumer user in the process of design, development, implementation and validation of services. This thesis work studies innovative methodologies and technologies related to the co‐creation and relies on this analysis to define and validate a methodological approach that enables the user to be responsible for creating final services. Being mobile prosumer environments a specific case of environments for distributed execution of mobile services, this Thesis work researches in service adaptation, distribution, coordination and resource access techniques, and identifies as requirements the challenges of such environments and characteristics of the participating users. I contribute to service adaptation by defining a variability model that supports the dependency of user personalization decisions, incorporating guiding and error detection mechanisms. Service distribution is implemented by using decomposition techniques based on SPQR trees, quantifying the impact of separating any service in different domains. Considering the communication level for the coordination of distributed service executions I have identified several problems, such as link losses, connections, disconnections and discovery of participants, which I solve using dissemination techniques based on publish‐subscribe communication models and Gossip algorithms. To achieve a flexible distributed service execution in mobile environments, I support adaptation to changes in the availability of resources, while providing a communication infrastructure for the uniform and efficient access to resources. Experimental validations have been conducted to assess the feasibility of the proposed solutions, defining relevant application scenarios (the new intelligent universe, service prosumerization in hospitals and emergency situations in the web of things).