816 resultados para mecanismos de cinemática paralela


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente texto se ha desarrollado como Proyecto Fin de Grado en la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid en colaboración con la Consultora Tecnológica everis. El mismo tiene como objetivo realizar un estudio de los requisitos necesarios para poder desplegar un servicio que permita ofrecer a las Operadoras Móviles Virtuales (OMV) soporte técnico a sus clientes a través de las redes sociales. Este módulo establecerá una nueva vía de comunicación entre el consumidor y el cliente de la OMV con la propia OMV, el cual se caracterizará por una alta accesibilidad y una gran rapidez en el servicio permitiendo de este modo, una mayor satisfacción del cliente con su operador móvil y por tanto de una nueva vía para conseguir la fidelización del mismo y la captación de nuevos clientes. Para ello, este proyecto se lleva a cabo sobre el sistema de información 4mobile el cual es comercializado por la mencionada Consultora Tecnológica. Este sistema consiste en una plataforma web la cual permite cubrir todos los procesos de negocio comunes que un OMV necesita gestionar. Es por ello, que el mencionado estudio se centra en la evaluación de los aspectos necesarios para la integración de un módulo de estas características dentro de la plataforma de 4mobile. Este módulo, estará basado en una herramienta software que permitirá gestionar el ciclo de vida completo del comentario realizado por el cliente a través de una red social, desde que es publicado por el cliente, hasta que se haya respondido al mismo y su solución sea considerada como satisfactoria por el cliente. Por ello, y de cara a definir correctamente esta herramienta, será necesario un detallado análisis el cual recoja diversos aspectos y que a lo largo del texto, será denominado como Plan de Marketing de Medios Sociales (PMMS). Estos aspectos versarán tanto de las necesidades tecnológicas para su mencionada integración, como de la serie de características funcionales que una solución basada en servicio técnico a través de las redes sociales deberá poseer con el objetivo de ofrecer un servicio técnico de calidad. Finalmente, estas funcionalidades y necesidades tecnológicas se expondrán en forma de propuesta a everis para su integración en la plataforma 4mobile junto con un análisis de diseño a alto nivel software de la solución a desarrollar. ABSTRACT. This text has been developed as Final Degree Project in the Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid in collaboration with the Technology Consultant everis, aims to conduct a study of how to provide technical support through social networks and the evaluation of the integration of a social support module within the system platform 4mobile, which cover all business processes that need to manage a Mobile Virtual Network Operator (MVNO), which is marketed by above-mentioned consultant . This module will establish a new communication channel between the consumer and the client with the OMV and itself, which is characterized by high accessibility and great fast service. Thus will allow a higher customer satisfaction with him service and thus a new way to get the same loyalty and attract new customers To this end, this project is performed on the information system 4mobile which is marketed by the consulting part thereof everis. This system is a platform to cover all business processes that need to manage an MVNO. Therefore, the mentioned study focuses on the evaluation of the elements necessary for integrating module these features within the platform 4mobile. This module will be based on a software tool for managing the entire lifecycle of the comment made by the customer via social networking, from the moment it is published, until it has been respond and their solution is considered satisfactory for the customer. So, in order to properly define this tool, a detailed analysis which will be necessary to collect various aspects and throughout the text, it will be referred to as Plan of Social Media Marketing (PMMS). These aspects will be address both: the technological needs for the mentioned integration, and the number of functional characteristics-based service through social networking solution, as this must in order to provide a quality service Finally, these goals and requirements will be discussed as everis offer for integration into the platform 4mobile analysis along with a high level of software design to develop the solution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dipoli es un edificio plurifuncional localizado en el campus de Otaniemi que acoge los servicios generales del alumnado. Tanto encargo como propiedad pertenecía, hasta 2013, a la Asociación de Estudiantes de Helsinki University of Technology TKK (actualmente conocida como Aalto University), cuando se vendió y traspasó a la propia universidad. La tesis estudia este proyecto (1961-66) como uno de los ejemplos más significativos de la obra de los arquitectos Reima (1923-93)y Raili Pietilä (1926-), quienes se unieron tanto personal como profesionalmente el mismo año de la convocatoria del concurso (1961). Debido a la dificultad del encargo por la dimensión y flexibilidad de los espacios requeridos, el primer premio quedó desierto puesto que ninguna propuesta cumplía con todos los requisitos establecidos. El jurado otorgó el segundo premio a su proyecto junto con Osmo Lappo y solicitó posteriormente a ambos un desarrollo más profundo del mismo. Finalmente optaron por construir el edificio planteado por los Pietilä. En él debía desarrollarse un amplio abanico de actividades sociales como reuniones, entretenimiento nocturno, actuaciones, proyecciones de películas, cenas y bailes, así como servir de comedor durante los meses de invierno y espacio destinado a congresos en la época estival. Además, en dicho edificio se pretendía acoger el Sindicato de Estudiantes de la Universidad Tecnológica de Helsinki y se localizaría en el nuevo campus de Otaniemi a escasos kilómetros de la capital, donde Alvar Aalto ya estaba diseñando varios equipamientos universitarios siguiendo el planeamiento general que proyectó en el concurso de 1949. El elemento más característico de este proyecto es la cubierta, una estructura continua formada a partir de un caparazón hueco de hormigón in situ capaz de absorber dos lenguajes diferentes y generar, bajo ella, un espacio singular con multitud de posibilidades funcionales. Su geometría permite dividir el programa en estancias de menor tamaño sin perder ni la identidad ni unidad formal. La manera en que se iluminan los espacios bajo ella se consigue de formas diferentes: si bien la volumetría de líneas cartesianas presenta un sistema de aperturas longitudinales por donde penetra la luz cenital, en la forma más libre aparecen un conjunto de lucernarios de diferente tamaños y posiciones aparentemente aleatorias que introducen la luz natural por el plano del techo de forma más controlada, apoyada por la disposición de las ventanas perimetrales. El juego de espesores de la cubierta ofrece un conjunto de matices que pretenden resolver los tres condicionantes principales del proyecto, la adecuación de los usos en su interior, la compatibilidad de circulaciones de los usuarios y la inserción en el lugar. La percepción de este plano horizontal atraviesa lecturas múltiples, desde su uso primario de cubrición y cuya distancia con el plano del suelo se comprime para tensionar la grieta de luz al tiempo que ofrece nuevas relaciones con el paisaje hasta convertirse en fachada al apoyarse en el suelo y crear un límite físico entre interior y exterior. El objetivo fundamental de la tesis es entender mejor la traza particular de Dipoli desde una visión rigurosa que amplíe el conocimiento del edificio y al mismo tiempo explique el espacio propuesto a través de las diferentes herramientas de proyecto. Para ello se ha elaborado una documentación de la obra que parte de recopilar, seleccionar y redibujar la información existente desde el estado previo a la construcción del objeto terminado. El sentido de volver al Centro de Estudiantes de Otaniemi, supone, además de ayudar a comprender el trabajo de sus autores, entender el proceso de la historia de la arquitectura finlandesa y detectar relaciones con otras obras más lejanas con las que pudiese compartir ciertos valores, facilitando un entendimiento más global de la historia. Esta investigación se inicia desde la hipótesis que la forma final del edificio y su relación con el lugar, para proponer un tipo de arquitectura que confía en la observación sensible del programa, del uso, de las escalas de los espacios, del movimiento de las personas y su relación y anclaje con el lugar. Y en este sentido, el trabajo se desarrolla guiado por estos aspectos que se manifiestan también desde la influencia y comprensión de otros trabajos propios y ajenos. Para detectar las claves de proyecto que les han permitido la construcción espacial y formal de su arquitectura, entendiendo éstas como el conjunto de herramientas y mecanismos que reflexionan sobre una particular composición volumétrica y espacios dinámicos que ofrecen un aspecto exterior expresivo, la tesis se articula sobre dos capítulos principales “Contextos” y “Proyecto y Construcción” donde se quiere estudiar el proyecto en su forma más completa. Esta pareja de apartados aborda la descripción del marco temporal, físico, cultural, personal y profesional de los arquitectos, el análisis y síntesis de la propuesta y, por último, la repercusión del proyecto. Contextos pretende ubicar la obra además de facilitar la comprensión del conjunto de aspectos y condicionantes que determinaron la materialización de Dipoli. Este capítulo se subdivide a su vez en cinco apartados: Contexto Histórico, Físico y Cultural, Personal, Profesional e Incidencia de Dipoli. El Contexto histórico se centra en la descripción pormenorizada del conjunto de situaciones que influyen en el arquitecto cuando se toman decisiones durante el proceso de proyectar. El objetivo es definir los condicionantes que pueden haber afectado directa o indirectamente la obra. El capítulo comienza subrayando los temas de interés comunes para el resto de sus homólogos finlandeses. Principalmente se centra en la década de 1950 como etapa previa a la gestación de Dipoli. También atiende el proceso de evolución de la arquitectura finlandesa desde finales del S.XIX unido a la crisis de identidad nacional que el maestro Alvar Aalto superará por sus obras pero también por su personalidad y supondrá una gran sombra al resto de sus compañeros en el marco nacional e internacional provocando una reacción contraria a sus proyectos y persona entre el resto de arquitectos. Por este motivo, al tiempo que se gestaba el proyecto de Dipoli emergieron un grupo de profesionales que defendían fuertemente las trazas cartesianas del racionalismo como Aulis Blomstedt o Juhani Pallasmaa y que consiguieron abrir una nueva perspectiva intelectual. Por tanto será inevitable que la presencia del maestro nórdico Alvar Aalto aparezca a lo largo de toda la tesis, permitiéndonos un mejor entendimiento de la carga orgánica y humana de sus trabajos desde la perspectiva de los Pietilä. Posteriormente este capítulo desgrana aquellos intereses que dominaban el marco arquitectónico internacional y que pudieron influir en las soluciones planteadas. Dipoli será puesto en relación a diversas arquitecturas contemporáneas que presentan un enfoque diferente al esbozado por el Movimiento Moderno y cuyo marco de referencias guarda algún tipo de relación con los mismos temas de proyecto. Es el caso del grupo Team 10 o determinados ejemplos de arquitectos alemanes como Hugo Häring y Hans Scharoun, incluso puntos en común con el sistema constructivista del vanguardismo soviético. Estas relaciones con otras arquitecturas matizan su carácter singular e incluso se revisa en qué medida esta propuesta amplifica los aspectos que comparten. En cuanto al Contexto físico y cultural, una primera aproximación al ámbito donde el edificio se sitúa nos revela las características generales de un lugar claramente diferente a la ubicación del resto de edificios del campus. A continuación se adentra en el origen del nuevo centro universitario desde el planeamiento urbanístico de Alvar Aalto y revela tanto la forma de disponer las construcciones como las propuestas que el maestro había desarrollado con anterioridad a la convocatoria del concurso. Además aquí se destacan aquellos aspectos que propiciaron la elección del solar. Prosigue adentrándose en el programa propuesto por el jurado –entre cuyos miembros se encontraba el propio Aalto- y el análisis de las propuestas presentadas por cada uno de los arquitectos que obtuvieron una mención. Por último, se estudian y definen las obras más relevantes localizadas en el entorno físico del proyecto y que existían con anterioridad, destacando principalmente el trabajo de los Siren (Heikki y Kaija) y Alvar Aalto por los motivos desarrollados en el punto anterior. Prosigue con el Contexto Personal donde se seleccionan de datos biográficos que expliquen, en parte, las circunstancias personales que perfilaron su manera de entender la arquitectura y que consecuentemente influyeron en su camino intelectual hasta llegar a Dipoli. A continuación se indaga en la relación profesional y personal con Raili Paatelainen para establecer en qué medida participaron ambos en la propuesta. Este apartado concluye con el estudio de la etapa docente que profundiza en los temas de proyecto que Pietilä presentaba a los alumnos en sus clases de proyectos. En el proceso de comprensión de la evolución teórica y proyectual de los arquitectos se considera imprescindible la revisión de otros edificios propios que se enmarcan en el Contexto profesional. Éstos forman parte de la etapa de mayor actividad del estudio como son el Pabellón de Finlandia para la Exposición de Bruselas (1956-58), la Iglesia de Kaleva en Tampere (1959-66) y el Pabellón Nórdico para la Bienal de Venecia de 1960. Se completa la visión de estos tres ejemplos previos a Dipoli desde las investigaciones teóricas que realizó de forma paralela y que se difundieron a través de varias exposiciones. Nos centraremos en aquellas tres que fueron más relevantes en la madurez del arquitecto (Morfología y Urbanismo, La Zona y Estudios Modulares) para establecer relaciones entre unos aspectos y otros. En esta sección no se pretende realizar un análisis en profundidad, ni tampoco recoger la mayor parte de la obra de los Pietilä, sino más bien revelar los rasgos más significativos que faciliten el entendimiento de los valores anteriormente mencionados. Por último, Incidencia de Dipoli se refiere a la repercusión del edificio durante su construcción y finalización. Desde esta premisa, recoge el conjunto de críticas publicadas en las revistas de mayor difusión internacional que decidieron mostrar la propuesta además desde el propio interés del proyecto, por tratarse de un arquitecto reconocido internacionalmente gracias a la repercusión que obtuvieron sus proyectos anteriores. Se analiza el contenido de los artículos para establecer diversos encuentros con el capítulo Contextos y con los propios escritos de Pietilä. También se recogen las opiniones de críticos relevantes como Kenneth Frampton, Bruno Zevi o Christian Norberg-Schulz, destacando aquellos aspectos por los que mostraron un interés mayor. También se recoge y valora la opinión de sus homólogos finlandeses y que contradictoriamente se sitúa en el polo opuesto a la del juicio internacional. Se adentra en las situaciones complejas que propició el rechazo del edificio al desvincularse por completo de la corriente racionalista que dominaba el pensamiento crítico finés unido a la búsqueda de nuevas alternativas proyectuales que les distanciase del éxito del maestro Alvar Aalto. Pretende esclarecer tanto la justificación de dichos comentarios negativos como los motivos por los cuales Reima y Raili no obtuvieron encargos durante casi diez años, tras la finalización de Dipoli. Nos referiremos también a la propia opinión de los arquitectos. Para ello, en el apartado Morfología Literal se recoge el texto que Reima Pietilä publicó en el número 9 de la revista Arkkitehti para contrarrestar las numerosas críticas recibidas. Se subraya aquellos aspectos de proyecto que inciden directamente en la percepción y razón de ser de la propuesta. Por último, se manifiesta la valoración crítica de dos personas muy próximas al entorno personal y profesional de los Pietilä: Roger Connah y Malcolm Quantrill. Ambas figuras son las que han adentrado en el trabajo de los arquitectos con mayor profundidad y aportado una visión más completa del contexto arquitectónico de Finlandia en el s.XX. Se han interesado principalmente por el conocimiento morfológico que les ha llevado a la observación de los fenómenos de la naturaleza. Se apunta también la falta de objetividad de sus opiniones originadas en parte por haber colaborado profesionalmente y ser amigo íntimo de la familia respectivamente. El valor de la documentación aportada por ambos reside principalmente en la fiel transmisión de las explicaciones del propio Pietilä. El último capítulo Proyecto y Construcción engloba tanto la descripción exhaustiva del proyecto como el análisis de la obra. Al tiempo que se explica la propuesta, se establecen continuamente relaciones y paralelismos con otras arquitecturas que ayudan a entenderla. Para ello, se establecen tres apartados elementales: “El lugar”, “Programa y geometrías” y “Presencia y materialidad física” y se pretende identificar aquellas herramientas de proyecto en las que confía para la materialización de la obra al tiempo que se profundiza en la evolución de la propuesta. En cuanto a El lugar, se describe de manera pormenorizada el recorrido hasta alcanzar el edificio y cómo la mirada atenta de la naturaleza que lo rodea está continuamente presente en todos los dibujos de la propuesta. Se realiza un estudio tanto de la multiplicidad de accesos como del vacío existente en planta baja que forma parte del espacio público y que atraviesa el edificio diagonalmente. Desde aquí se evaluará los espacios intermedios existentes que matizan los ámbitos donde se desarrolla cada una de las actividades. A continuación se enfoca el estudio de la ventana como elemento relevante en la transición de espacios interiores y exteriores para posteriormente adentrarnos en la importancia de los recorridos en la planta superior y cómo las salas polivalentes se acomodan a estos. Programas y geometrías explica la solución y desarrollo de la propuesta a través de los tanteos de la planta. Detecta simultáneamente aquellos aspectos que aparecen en otros proyectos y que pueden haber influido en el desarrollo de la obra. Una vez que han sido estudiados los dos niveles se introduce la sección para analizar las conexiones entre ambos planos, destacando los tipos de escaleras y accesos que propician la multiplicidad de recorridos y en consecuencia el movimiento de las personas. En el último apartado se identifica la geometría de la estructura a través de la descripción formal de la cubierta y sus apoyos en planta para conocer cómo responde el volumen definitivo a la adecuación de los usos. El carácter del edificio a través del empleo de los materiales y las técnicas de construcción utilizadas se indaga desde la Materialidad física. Este punto de vista esclarece temas de proyecto como la relación multisensorial de Dipoli y el concepto del tiempo relacionado con espacios de carácter dinámico o estático. Una vez se ha realizado un análisis de la obra construida a través de sus recorridos, se plantea un último regreso al exterior para observar la presencia del edificio a través de su tamaño, color y texturas. Este apartado nos mostrará la mirada atenta a la escala del proyecto como vector de dirección que pretende encontrar la inserción adecuada del edificio en el lugar, cerrando el proceso de proyecto. El motivo de desarrollar esta tesis en torno a Dipoli se apoya en su consideración como paradigma de una arquitectura que confía en la observación sensible del programa, uso, las escalas de los espacios, circulaciones y su relación y anclaje con el lugar como argumentos fundamentales de proyecto, cuya realidad concreta consigue situar la propuesta en el marco histórico de la arquitectura nórdica e internacional. Además la distancia histórica desde mundo actual respecto a la década de los años 60 del s.XX nos permite entender el contexto cultural donde se inserta Dipoli que continúa nuestra historia reciente de la arquitectura y concibe la obra construida como una extensión de nuestro mundo contemporáneo. Por ello se valora el proyecto desde la mirada hacia atrás que analiza las diferencias entre la realidad construida y las intenciones de partida. Esta revisión dotada de una distancia crítica nos permite adentrarnos en la investigación de manera objetiva. Igualmente presenta una distancia histórica (referida al tiempo transcurrido desde su construcción) y socio-cultural que favorece la atenuación de prejuicios y aspectos morales que puedan desviar una mirada analítica y se alejen de una valoración imparcial. Dipoli, enmarcada en dicho periodo, mantiene la capacidad crítica para ser analizada. ABSTRACT The dissertation defends Dipoli ( 1961-1966 ) as one of the most significant examples of the Reima ( 1923-1993 ) Raili Pietilä (1926 -), who joined both personally and professionally the same year of the project´s competition (1961). Due to the difficulty of the commission by the size and flexibility of the required areas, there was not first prize awarded because none of the submitted proposals met all the requirements. The jury awarded Dipoli with second prize together with a competing scheme by Osmo Lappo. The board subsequently asked for a further development of both proposals and finally selected the one by Pietilä. The completed project allows a wide range of social activities such as meetings, night entertainment, performances, film screenings, dinners and dance to take place while the facility can also serve as a dining hall during winter months and conference center in the summer when necessary. In addition, the building was intended to house the Helsinki University of Technology (now Aalto University) Student Union. The University, at the time being designed by Alvar Aalto following his successful entry to the master plan competition in 1949, was located a few kilometers from the capital on the new campus in Otaniemi. The most characteristic element of the project is its roof which can be described as a continuous form achieved an in-situ concrete cavity structure that can modulate two different geometric languages and generate a singular space under it. The building is, in general terms, an unique shell space with many functional possibilities. Its geometry allows the program to split its functions into smaller sizes without losing the identity or formal unity of the general object. The way in which the spaces are illuminated is solved in two different ways. First, while the Cartesian-line volume presents a series of longitudinal openings into which natural light penetrates, the free-form volume shows a set of skylights in apparently random positions that vary in size and that introduce natural light through the roof in a more controlled manner. In addition the perimeter openings are present that relate directly to the nature that surrounds the building. The adaptable thickness of the roof provides a set of solutions that resolve the three main issues of the project: the adequacy of the functions in the interior areas, the complex capability for user flows and circulation and the manner in which the building is inserted in its context. The perception of the roof´ horizontal plane offers multiple interpretations, from its primary use as a primitive cover whose distance from the ground compresses the void and creates a light tension, to the new relationships with the landscape where by the roof becomes a façade cladding and rests directly on the ground to create a physical boundary between interior and exterior. The main scope of this research is to better understand the particular trace of Dipoli from a rigorous architectural view to deep into the knowledge of the building and, at the same time, to explain the space through a series of project design tools that have been used. For this reason, an accurate documentation has arisen from collecting, selecting and redrawing the existing information from the sketching stage to the built object. A through reanalysis of the Otaniemi Student Center therefore provides not only a more complete understanding of the work of the architects, but also leads to a better comprehension of the history of Finnish architecture, which is related to other cultural relationships and which shares certain architectural values which a more comprehensive understanding of general architectural history. This research starts from the working hypothesis that the final shape of the building and its relationship to its place created a type of architecture that relies on a sensitive observation of the program, the use of varying scales of space, the movement and flow of people and finally the coexistence with the natural context. In this sense, the work is developed based on those aspects that are also reflected in the influence of others architects by understanding both their own and other architects´ work. In order to obtain a personal reading of the project facts that allowed the architects construct Dipoli (understanding the facts as a set of tools and project mechanisms that are able to generate a particular volumetric composition and dynamic spaces that at the same time provide an expressive exterior), the research hinges on two main sections, "Contexts" and "Design and Construction", that study the project from all perspectives. This two parts address the description of temporal , physical , cultural , personal and professional framework, analysis and synthesis of the proposal and finally, the national and international influences on the project. Contexts seek to place the work and to facilitate the understanding of all aspects and conditions that led to the creation of Dipoli. This chapter is subdivided into five sections: Historical Context, Cultural and Physical, Personal, Professional and Dipoli Influences. Historical Context focuses on a detailed description of a set of precedents that influenced the architect when making decisions during design process. The objective is to define the conditions that could directly or indirectly shape the work. This chapter begins by highlighting issues of common interest to the rest its Finnish counterparts. The text is mainly focused on the 1950s as a prelude to Dipoli´s conception. It will also address the process of Finnish architecture from the late nineteenth century as linked to the national identity crisis that the great master Alvar Aalto overcame with both his works and personality, being a great drain on the rest of his colleagues. This aspect caused a reaction against Aalto and his projects. For this reason, at the time that Dipoli came into being a number of professionals who strongly defended the traces of Cartesian Rationalism, including Juhani Pallasmaa and Aulis Blomstedt emerged and brought a new intellectual perspective to the Finnish architecture scene. It is thus inevitable that the presence of Alvar Aalto will be apparent throughout the dissertation to allow a better understanding of the organizational and human character of their work from the Pietiläs´ perspective. Later, this chapter identifies those interests that dominated the international architectural framework that could have influenced Dipoli. The project will be placed in relation to various contemporary architectural works that were created using a different approach to that outlined by the Modern Movement. This is present in the case of Team 10 group and with specific examples of German architects including Hans Scharoun and Hugo Häring, as well as some commonalities with Soviet Constructivism. These relationships with other architecture qualify its singular character and even extend how this proposal amplifies those shared aspects. Physical and Cultural Context involves the unique site where the building is located which includes different features from the location of other buildings on the campus. IT then progresses into the origin of the new campus from the urban planning of Alvar Aalto and reveals both the setting and proposed constructions that Aalto had developed. This section also highlights the aspects that led to the choice of the site. I go deep into the program proposed by the jury (of whom Aalto was a member) and the analysis of the alternative proposals that received a special commendation. Finally, I study and define the most relevant works located near Dipoli, emphasizing primarily the work of the Sirens (Heikki and Kaija) and Alvar Aalto for the reasons developed in the previous section. I then proceed with the Personal Context, where a series of biographical data are selected to begin to explain the personal circumstances that outlined the Pietilas´ architectural understanding and consequently could have influenced their intellectual approach to design Dipoli. Then the text explores their professional and personal relationship to establish what extent they participated in the proposal. This section concludes with the study of the Reima Pietilä´s teaching period at Oulu that explores the issues he presented to his students there. In the process of understanding the Pietiläs´ theoretical and design evolution, it must be considered essential to study other buildings that are part of their professional context. These projects belong to the most active stage of their office and include the Finnish Pavilion for the World´s Fair in Brussels (1956-1958), Kaleva Church in Tampere (1959-1966) and the Nordic Pavilion at the 1960 Venice Biennale. We will complete the view of Dipoli from previous theoretical investigations performed in parallel that were spread through several exhibitions. We will focus on the three that were most relevant to the evolution of the architect (Morphology and Urbanism, the Zone, and Stick Studies) to establish a series of useful relationships. This section is not intended to be an in-depth analysis nor to collect most of the work of the Pietiläs´; but rather to reveal the most significant features that facilitate an understanding of the above values. Finally, Dipoli´s Impact refers to the influence of the building from many points of view during its construction and after its completion. It collects the reviews published in the world's most relevant magazines which had decided to show the alternate proposals, generally conceived of by internationally-renowned architects. I analyze the content of the articles in order to establish a series of parallels with the chapter Contexts and own writings Pietilä to clarify if main design directions were clear at that time. The views of relevant critics, including Kenneth Frampton, Bruno Zevi and Christian Norberg -Schulz, are also collected here. This episode also collects and assesses the views of these critics´ Finnish counterparts that generally stood at the opposite side of the international debate. It delves into the complex situation that led to the rejection of the building by the rationalists that dominated the Finnish critical thinking while searching for new alternatives to distance themselves from the Alvar Aalto´s success. It aims to clarify both the justification for these negative comments and the reasons why Reima and Raili not obtain a single commission for nearly ten years after the completion of Dipoli. From the critics we will approach the opinion of Reima Pietilä himself. To do this, in the Literal Morphology section we will see how the architect tried to defend his position. Those design tool that directly affected the perception of the proposal are provided through the figures of Roger Connah and Malcolm Quantrill. Finally, a critical –personal and professional- review of these two very close figures will take place. Despite knowing that both delved into the work of architects with greater depth and provided a complete view of the Finnish architectural context in 20th century, they have focused mainly morphological knowledge which has led to the observation of natural phenomena. It also notes the lack of objectivity in their views caused in part by, in the case of Connah, collaborating professionally and in that of Quantrill being a close friend of the Pietilä family. The value of the documentation provided by both resides mainly in the faithful transmission of the Pietiläs´ own explanations. The final chapter covers both Design and Construction and provides a comprehensive project description in order tofaithfully analyse the work. As the proposal is being explained, relationships of its built form are continuously linked to other architectural projects to gain a better understanding of Dipoli itself. To do this we have set three basic sections: "The Place", "Geometries & Function" and "Presence and Materiality. Construction process" that intended to identify those project tools for the realization of the work while deepens the proposal´s evolution. The Place describes how to approach and reach the building in detail and how the view out towards the surrounding natural setting is continuously shown in the proposal´s drawings. We will study both the multiplicity of entrances as well as the corridor downstairs as part of the public space that diagonally goes through the building. Then, the existing voids in the concrete cave for public activities will be evaluated. Lastly, the study will focus on the openings as a significant element in the transition from interior and exterior areas to describe the importance of the circulation on the second floor and how function is able to accommodate through the areas of void. Geometries & Function explains the final solution and the development of the proposal through the floor plan. Simultaneously it detects those aspects that appear in other projects and that may have influenced the development of the work. Once we have analyzed both levels –ground and second floor- section drawings come into the topic to study the connections between the two levels and highlighting the types of hierarchy for the multiple paths to organize the flows of people inside the building. In the last section the structural geometry is identified through the description of the form and how it responds to the final volumetrical settings. The character of the building through the use of materials and construction techniques inquires from Presence and Materiality. This point of view clarifies multisensory project issues as Dipoli relationship to the dynamic or static character or different spaces inside the building. Once the analysis has been made we will step back to a final return to the building´s exterior to analyze the presence of the building through its scale, colour and textures. This section emphasizes the project´s scale and orientation to find the proper insertion of the building in place. In short, this dissertation has been done by the idea that Pietiläs´special abilities were allowed from a sensitive observation of the program, the creation of a variety of special scales, dynamic circulation and the relating relationship with the project´s location as fundamental design tools. From this aspect, Dipoli could be more usefully framed in the historical context of Nordic and international architecture. The dissertation allows us to better understand the cultural context of the 1960s, in which Dipoli was established since it continues our recent architectural history. The final built form is conceived as an extension of our contemporary world. Therefore the project is assessed through the comparison of the architects´ intentions and the final completed project.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación:  Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas.  Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas].  Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas].  Implementación. Desarrollo del código de la herramienta [80 horas].  Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas].  Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas].  Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows:  Training. Gathering the necessary information to develop the tool [30 hours].  Software requirement specification. Requirements the tool must accomplish [20 hours].  Design. Decisions on the design of the tool [35 hours].  Implementation. Tool development [80 hours].  Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours].  Debugging. Improve efficiency and correct errors [45 hours].  Documenting. Final report elaboration [44 hours].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Frente a la colmatación indiscriminada de los territorios colindantes, emerge la posibilidad de realizar acciones concretas sobre el tejido urbano consolidado, recuperando espacios olvidados para dotarlos de nuevas cualidades. El objetivo del trabajo es estudiar el potencial de transformación de los interiores de manzana en lugares de relación entre los ciudadanos a través del estudio de tres casos de vivienda colectiva y descubrir los mecanismos proyectivos que impulsan las nuevas relaciones entre el ámbito público de la ciudad y el colectivo de la vivienda, cambiando así la percepción de que nada interesante ocurre en áreas de transición entre la calle, la vivienda y el interior de la manzana. ABSTRACT. Facing the indiscriminate fouling adjacent territories, it rises the possibility of acting on the consolidated urban fabric, recovering forgotten spaces to give them new qualities. The aim of this work is to study the potential of transforming the block interiors in places of relationship between citizens through the study of three cases of collective housing and find projective mechanisms that drive the new relationship between the public realm of the city and the collective sphere of housing, thus changing the perception that nothing interesting happens in areas of transition between the street, the housing and the interior of the block.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las empresas actuales centran sus esfuerzos en conseguir una buena calidad del software que desarrollan, haciendo uso de metodologías, procedimientos y estándares adecuados para poder desarrollar y lanzar un producto software de calidad con la suficiente certeza de obtener un menor coste y riesgo finales. Es por ello que se han establecido nuevos paradigmas de organización que proponen el uso de nuevas tecnologías y procesos para permitir una puesta en producción ágil y menos arriesgada. Este trabajo se centra en la implementación de una de estas técnicas, el Suministro Continuo (Continuous Delivery - CD). La implantación de esta técnica se basa en llevar a cabo la automatización de todos los pasos entre el desarrollo y la puesta en producción de software. Dentro de las tareas necesarias para implementar esta técnica, este trabajo lleva a cabo la identificación de las herramientas básicas que permiten el Suministro Continuo y el estudio de mecanismos de integración de todas estas herramientas, automatizando todo el proceso de desarrollo software desde la construcción del proyecto hasta su puesta en producción. Posibilitando así un proceso de Suministro Continuo, en el que se lleven a cabo despliegues del producto software diarios que permitan recoger realimentación más rápidamente de los usuarios y poder reaccionar ágilmente a los cambios de necesidad de estos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los algoritmos basados en registros de desplazamiento con realimentación (en inglés FSR) se han utilizado como generadores de flujos pseudoaleatorios en aplicaciones con recursos limitados como los sistemas de apertura sin llave. Se considera canal primario a aquel que se utiliza para realizar una transmisión de información. La aparición de los ataques de canal auxiliar (en inglés SCA), que explotan información filtrada inintencionadamente a través de canales laterales como el consumo, las emisiones electromagnéticas o el tiempo empleado, supone una grave amenaza para estas aplicaciones, dado que los dispositivos son accesibles por un atacante. El objetivo de esta tesis es proporcionar un conjunto de protecciones que se puedan aplicar de forma automática y que utilicen recursos ya disponibles, evitando un incremento sustancial en los costes y alargando la vida útil de aplicaciones que puedan estar desplegadas. Explotamos el paralelismo existente en algoritmos FSR, ya que sólo hay 1 bit de diferencia entre estados de rondas consecutivas. Realizamos aportaciones en tres niveles: a nivel de sistema, utilizando un coprocesador reconfigurable, a través del compilador y a nivel de bit, aprovechando los recursos disponibles en el procesador. Proponemos un marco de trabajo que nos permite evaluar implementaciones de un algoritmo incluyendo los efectos introducidos por el compilador considerando que el atacante es experto. En el campo de los ataques, hemos propuesto un nuevo ataque diferencial que se adapta mejor a las condiciones de las implementaciones software de FSR, en las que el consumo entre rondas es muy similar. SORU2 es un co-procesador vectorial reconfigurable propuesto para reducir el consumo energético en aplicaciones con paralelismo y basadas en el uso de bucles. Proponemos el uso de SORU2, además, para ejecutar algoritmos basados en FSR de forma segura. Al ser reconfigurable, no supone un sobrecoste en recursos, ya que no está dedicado en exclusiva al algoritmo de cifrado. Proponemos una configuración que ejecuta múltiples algoritmos de cifrado similares de forma simultánea, con distintas implementaciones y claves. A partir de una implementación sin protecciones, que demostramos que es completamente vulnerable ante SCA, obtenemos una implementación segura a los ataques que hemos realizado. A nivel de compilador, proponemos un mecanismo para evaluar los efectos de las secuencias de optimización del compilador sobre una implementación. El número de posibles secuencias de optimizaciones de compilador es extremadamente alto. El marco de trabajo propuesto incluye un algoritmo para la selección de las secuencias de optimización a considerar. Debido a que las optimizaciones del compilador transforman las implementaciones, se pueden generar automáticamente implementaciones diferentes combinamos para incrementar la seguridad ante SCA. Proponemos 2 mecanismos de aplicación de estas contramedidas, que aumentan la seguridad de la implementación original sin poder considerarse seguras. Finalmente hemos propuesto la ejecución paralela a nivel de bit del algoritmo en un procesador. Utilizamos la forma algebraica normal del algoritmo, que automáticamente se paraleliza. La implementación sobre el algoritmo evaluado mejora en rendimiento y evita que se filtre información por una ejecución dependiente de datos. Sin embargo, es más vulnerable ante ataques diferenciales que la implementación original. Proponemos una modificación del algoritmo para obtener una implementación segura, descartando parcialmente ejecuciones del algoritmo, de forma aleatoria. Esta implementación no introduce una sobrecarga en rendimiento comparada con las implementaciones originales. En definitiva, hemos propuesto varios mecanismos originales a distintos niveles para introducir aleatoridad en implementaciones de algoritmos FSR sin incrementar sustancialmente los recursos necesarios. ABSTRACT Feedback Shift Registers (FSR) have been traditionally used to implement pseudorandom sequence generators. These generators are used in Stream ciphers in systems with tight resource constraints, such as Remote Keyless Entry. When communicating electronic devices, the primary channel is the one used to transmit the information. Side-Channel Attack (SCA) use additional information leaking from the actual implementation, including power consumption, electromagnetic emissions or timing information. Side-Channel Attacks (SCA) are a serious threat to FSR-based applications, as an attacker usually has physical access to the devices. The main objective of this Ph.D. thesis is to provide a set of countermeasures that can be applied automatically using the available resources, avoiding a significant cost overhead and extending the useful life of deployed systems. If possible, we propose to take advantage of the inherent parallelism of FSR-based algorithms, as the state of a FSR differs from previous values only in 1-bit. We have contributed in three different levels: architecture (using a reconfigurable co-processor), using compiler optimizations, and at bit level, making the most of the resources available at the processor. We have developed a framework to evaluate implementations of an algorithm including the effects introduced by the compiler. We consider the presence of an expert attacker with great knowledge on the application and the device. Regarding SCA, we have presented a new differential SCA that performs better than traditional SCA on software FSR-based algorithms, where the leaked values are similar between rounds. SORU2 is a reconfigurable vector co-processor. It has been developed to reduce energy consumption in loop-based applications with parallelism. In addition, we propose its use for secure implementations of FSR-based algorithms. The cost overhead is discarded as the co-processor is not exclusively dedicated to the encryption algorithm. We present a co-processor configuration that executes multiple simultaneous encryptions, using different implementations and keys. From a basic implementation, which is proved to be vulnerable to SCA, we obtain an implementation where the SCA applied were unsuccessful. At compiler level, we use the framework to evaluate the effect of sequences of compiler optimization passes on a software implementation. There are many optimization passes available. The optimization sequences are combinations of the available passes. The amount of sequences is extremely high. The framework includes an algorithm for the selection of interesting sequences that require detailed evaluation. As existing compiler optimizations transform the software implementation, using different optimization sequences we can automatically generate different implementations. We propose to randomly switch between the generated implementations to increase the resistance against SCA.We propose two countermeasures. The results show that, although they increase the resistance against SCA, the resulting implementations are not secure. At bit level, we propose to exploit bit level parallelism of FSR-based implementations using pseudo bitslice implementation in a wireless node processor. The bitslice implementation is automatically obtained from the Algebraic Normal Form of the algorithm. The results show a performance improvement, avoiding timing information leakage, but increasing the vulnerability against differential SCA.We provide a secure version of the algorithm by randomly discarding part of the data obtained. The overhead in performance is negligible when compared to the original implementations. To summarize, we have proposed a set of original countermeasures at different levels that introduce randomness in FSR-based algorithms avoiding a heavy overhead on the resources required.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La cancrosis o chancro bacteriano de los cítricos (CBC) causada por Xanthomonas citri subsp. citri (Xcc) y X. fuscans subsp. aurantifolii, afecta a un gran número de especies dentro de la familia de las rutáceas, especialmente cítricos. Esta enfermedad produce graves pérdidas económicas allí donde está presente, principalmente porque la comercialización de cítricos desde las zonas afectadas hacía zonas libres de cancrosis, está sujeta a fuertes medidas cuarentenarias. La cancrosis se encuentra distribuida a nivel mundial pero no se ha localizado ni en la Unión Europea ni en ningún área del Mediterráneo. Se han descrito tres tipos de cancrosis en función de la gama de huésped y de las características fenotípicas y genotípicas de las bacterias que las producen. La más extendida es la cancrosis tipo A producida por Xcc, dentro de la cual se distinguen los subtipos Aw y A*, originarios de Florida y Sudeste Asiático, respectivamente, que de forma natural solo son capaces de producir enfermedad en lima mejicana. En este trabajo se presentan estudios sobre mecanismos implicados en las primeras etapas de la infección, como la quimiotaxis y formación de biopelículas, en la cancrosis de los cítricos. La quimiotaxis es el proceso por el cual las bacterias se dirigen hacia zonas favorables para su supervivencia y desarrollo. Los perfiles quimiotácticos obtenidos frente a distintas fuentes de carbono, así como los estudios en relación al contenido de proteínas aceptoras de grupos metilo (MCPs), permitieron agrupar a las cepas de Xanthomonas estudiadas en este trabajo, de acuerdo a la enfermedad producida y a su gama de huésped. Todas las cepas mostraron quimiotaxis positiva frente a extractos de hoja y apoplasto de diferentes especies, sin embargo, Xcc 306, X. alfalfae subsp. citrumelonis (Xac) y X. campestris pv. campestris (Xc) manifestaron respuestas más específicas frente a extractos de apoplasto de hojas de naranjo dulce, lima y col china, respectivamente. Dicho resultado nos permite asociar el mecanismo de quimiotaxis con la capacidad de las cepas de Xanthomonas para colonizar estos huéspedes de forma específica. Las cepas estudiadas fueron capaces de realizar movimiento tipo swimming, twitching y sliding en distintos medios, siendo el movimiento swimming el único en el que se encontraron diferencias entre las cepas de Xcc con distinta gama de huésped. En este trabajo se ha estudiado además la formación de biopelículas en superficies bióticas y abióticas, un mecanismo importante tanto para la supervivencia en superficie vegetal como para el desarrollo de la infección. Las cepas de Xanthomonas estudiadas fueron capaces de formar biopelículas in vitro, siendo mayor en un medio que simula el apoplasto y que contiene una baja concentración de nutrientes en comparación con medios que contenían alta concentración de nutrientes. La formación de biopelículas en superficie vegetal se encontró relacionada, en las cepas patógenas de cítricos, con la capacidad para infectar un tejido o huésped determinado. Se han caracterizado algunos de los componentes de la matriz extracelular producida por Xcc, que compone hasta un 90% de las bipoelículas. Entre ellos destaca el ADN extracelular, que tiene un papel como adhesina en las primeras etapas de formación de biopelículas y estructural en biopelículas maduras. Además, se han identificado el pilus tipo IV como componente importante en las biopelículas, que también participa en motilidad. Finalmente, se han realizado estudios sobre la expresión de genes implicados en motilidad bacteriana y formación de biopelículas que han confirmado las diferencias existentes entre cepas de Xcc de amplia y limitada gama de huésped, así como el papel que juegan elementos como el pilus tipo IV o el flagelo en estos procesos. ABSTRACT Xanthomonas citri subsp. citri (Xcc) and X. fuscans subsp. aurantifolii are the causal agents of Citrus Bacterial Canker (CBC) which is one of the most important citrus diseases. CBC affects all Citrus species as well as other species from Rutaceae family. CBC produces strong economic losses; furthermore the commercialization of plants and fruits is restricted from infested to citrus canker free areas. The disease is worldwide distributed in tropical and subtropical areas, however it is not present in the European Union. Three types of CBC have been described according to the host range and phenotypic and genotypic characteristics. CBC type A caused by Xcc is he widest distributed. Within CBC A type two subtypes Aw and A* were described from Florida and Iran respectively, both infecting only Mexican lime. Herein mechanisms connected to early events in the citrus bacterial canker disease such as chemotaxis and biofilm formation, were studied. Chemotaxis allows bacteria to move towards the more suitable environments for its survival, host colonization and infection. Studies performed on citrus pathogenic Xanthomonas and X. campestris pv. campestris (Xc), a crucifer pathogen, have shown different chemotactic profiles towards carbon compound as well as different MCPs profile, which clustered strains according to host range and disease caused. Every strain showed positive chemotaxis toward leaf extracts and apoplastic fluids from sweet orange, Mexican lime and Chinese cabbage leaves. However, a more specific response was found for strains Xcc 306, X. alfalfae subsp. citrumelonis and Xc towards sweet orange, Mexican lime and Chinese cabbage apoplastic fluids, respectively. These results relate chemotaxis with the higher ability of those strains to specifically colonize their proper host. Xanthomonas strains studied were able to perform swimming, sliding and twitching motilities. The ability to swim was variable among CBC strains and seemed related to host range. Biofilm formation is an important virulence factor for Xcc because it allows a better survival onto the plant surface as well as facilitates the infection process. The studied Xanthomonas strains were able to form biofilm in vitro, on both nutrient rich and apoplast mimicking media, furthermore the biofilm formation by all the strains was higher in the apoplast mimicking media. The ability to form biofilm in planta by Xcc and Xac strains was dependent of the host and the tissue colonized. The wide host range CBC strain was able to form biofilm onto several citrus leaves and fruits, however the limited host range CBC strain produced biofilm solely onto Mexican lime leaves and fruits. Furthermore Xac strain, which solely infects leaves of young plants, was not able to develop biofilms on fruits. Some components of the extracellular matrix produced by Xcc strains have been characterized. Extracellular DNA acted as an adhesin at the very early stages of biofilm formation and as structural component of mature biofilm for citrus pathogenic Xanthomonas. Furthermore type IV pilus has been identified as a component of the extracellular matrix in biofilm and motility. Transcriptional studies of genes related with biofilm formation and motility have confirmed the differential behavior found among wide and limited host range CBC strains as well as the role of type IV pili and flagellum on those processes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La embriogénesis es el proceso mediante el cual una célula se convierte en un ser un vivo. A lo largo de diferentes etapas de desarrollo, la población de células va proliferando a la vez que el embrión va tomando forma y se configura. Esto es posible gracias a la acción de varios procesos genéticos, bioquímicos y mecánicos que interaccionan y se regulan entre ellos formando un sistema complejo que se organiza a diferentes escalas espaciales y temporales. Este proceso ocurre de manera robusta y reproducible, pero también con cierta variabilidad que permite la diversidad de individuos de una misma especie. La aparición de la microscopía de fluorescencia, posible gracias a proteínas fluorescentes que pueden ser adheridas a las cadenas de expresión de las células, y los avances en la física óptica de los microscopios han permitido observar este proceso de embriogénesis in-vivo y generar secuencias de imágenes tridimensionales de alta resolución espacio-temporal. Estas imágenes permiten el estudio de los procesos de desarrollo embrionario con técnicas de análisis de imagen y de datos, reconstruyendo dichos procesos para crear la representación de un embrión digital. Una de las más actuales problemáticas en este campo es entender los procesos mecánicos, de manera aislada y en interacción con otros factores como la expresión genética, para que el embrión se desarrolle. Debido a la complejidad de estos procesos, estos problemas se afrontan mediante diferentes técnicas y escalas específicas donde, a través de experimentos, pueden hacerse y confrontarse hipótesis, obteniendo conclusiones sobre el funcionamiento de los mecanismos estudiados. Esta tesis doctoral se ha enfocado sobre esta problemática intentando mejorar las metodologías del estado del arte y con un objetivo específico: estudiar patrones de deformación que emergen del movimiento organizado de las células durante diferentes estados del desarrollo del embrión, de manera global o en tejidos concretos. Estudios se han centrado en la mecánica en relación con procesos de señalización o interacciones a nivel celular o de tejido. En este trabajo, se propone un esquema para generalizar el estudio del movimiento y las interacciones mecánicas que se desprenden del mismo a diferentes escalas espaciales y temporales. Esto permitiría no sólo estudios locales, si no estudios sistemáticos de las escalas de interacción mecánica dentro de un embrión. Por tanto, el esquema propuesto obvia las causas de generación de movimiento (fuerzas) y se centra en la cuantificación de la cinemática (deformación y esfuerzos) a partir de imágenes de forma no invasiva. Hoy en día las dificultades experimentales y metodológicas y la complejidad de los sistemas biológicos impiden una descripción mecánica completa de manera sistemática. Sin embargo, patrones de deformación muestran el resultado de diferentes factores mecánicos en interacción con otros elementos dando lugar a una organización mecánica, necesaria para el desarrollo, que puede ser cuantificado a partir de la metodología propuesta en esta tesis. La metodología asume un medio continuo descrito de forma Lagrangiana (en función de las trayectorias de puntos materiales que se mueven en el sistema en lugar de puntos espaciales) de la dinámica del movimiento, estimado a partir de las imágenes mediante métodos de seguimiento de células o de técnicas de registro de imagen. Gracias a este esquema es posible describir la deformación instantánea y acumulada respecto a un estado inicial para cualquier dominio del embrión. La aplicación de esta metodología a imágenes 3D + t del pez zebra sirvió para desvelar estructuras mecánicas que tienden a estabilizarse a lo largo del tiempo en dicho embrión, y que se organizan a una escala semejante al del mapa de diferenciación celular y con indicios de correlación con patrones de expresión genética. También se aplicó la metodología al estudio del tejido amnioserosa de la Drosophila (mosca de la fruta) durante el cierre dorsal, obteniendo indicios de un acoplamiento entre escalas subcelulares, celulares y supracelulares, que genera patrones complejos en respuesta a la fuerza generada por los esqueletos de acto-myosina. En definitiva, esta tesis doctoral propone una estrategia novedosa de análisis de la dinámica celular multi-escala que permite cuantificar patrones de manera inmediata y que además ofrece una representación que reconstruye la evolución de los procesos como los ven las células, en lugar de como son observados desde el microscopio. Esta metodología por tanto permite nuevas formas de análisis y comparación de embriones y tejidos durante la embriogénesis a partir de imágenes in-vivo. ABSTRACT The embryogenesis is the process from which a single cell turns into a living organism. Through several stages of development, the cell population proliferates at the same time the embryo shapes and the organs develop gaining their functionality. This is possible through genetic, biochemical and mechanical factors that are involved in a complex interaction of processes organized in different levels and in different spatio-temporal scales. The embryogenesis, through this complexity, develops in a robust and reproducible way, but allowing variability that makes possible the diversity of living specimens. The advances in physics of microscopes and the appearance of fluorescent proteins that can be attached to expression chains, reporting about structural and functional elements of the cell, have enabled for the in-vivo observation of embryogenesis. The imaging process results in sequences of high spatio-temporal resolution 3D+time data of the embryogenesis as a digital representation of the embryos that can be further analyzed, provided new image processing and data analysis techniques are developed. One of the most relevant and challenging lines of research in the field is the quantification of the mechanical factors and processes involved in the shaping process of the embryo and their interactions with other embryogenesis factors such as genetics. Due to the complexity of the processes, studies have focused on specific problems and scales controlled in the experiments, posing and testing hypothesis to gain new biological insight. However, methodologies are often difficult to be exported to study other biological phenomena or specimens. This PhD Thesis is framed within this paradigm of research and tries to propose a systematic methodology to quantify the emergent deformation patterns from the motion estimated in in-vivo images of embryogenesis. Thanks to this strategy it would be possible to quantify not only local mechanisms, but to discover and characterize the scales of mechanical organization within the embryo. The framework focuses on the quantification of the motion kinematics (deformation and strains), neglecting the causes of the motion (forces), from images in a non-invasive way. Experimental and methodological challenges hamper the quantification of exerted forces and the mechanical properties of tissues. However, a descriptive framework of deformation patterns provides valuable insight about the organization and scales of the mechanical interactions, along the embryo development. Such a characterization would help to improve mechanical models and progressively understand the complexity of embryogenesis. This framework relies on a Lagrangian representation of the cell dynamics system based on the trajectories of points moving along the deformation. This approach of analysis enables the reconstruction of the mechanical patterning as experienced by the cells and tissues. Thus, we can build temporal profiles of deformation along stages of development, comprising both the instantaneous events and the cumulative deformation history. The application of this framework to 3D + time data of zebrafish embryogenesis allowed us to discover mechanical profiles that stabilized through time forming structures that organize in a scale comparable to the map of cell differentiation (fate map), and also suggesting correlation with genetic patterns. The framework was also applied to the analysis of the amnioserosa tissue in the drosophila’s dorsal closure, revealing that the oscillatory contraction triggered by the acto-myosin network organized complexly coupling different scales: local force generation foci, cellular morphology control mechanisms and tissue geometrical constraints. In summary, this PhD Thesis proposes a theoretical framework for the analysis of multi-scale cell dynamics that enables to quantify automatically mechanical patterns and also offers a new representation of the embryo dynamics as experienced by cells instead of how the microscope captures instantaneously the processes. Therefore, this framework enables for new strategies of quantitative analysis and comparison between embryos and tissues during embryogenesis from in-vivo images.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de esta tesis doctoral es la investigación del nuevo concepto de pinzas fotovoltaicas, es decir, del atrapamiento, ordenación y manipulación de partículas en las estructuras generadas en la superficie de materiales ferroeléctricos mediante campos fotovoltaicos o sus gradientes. Las pinzas fotovoltaicas son una herramienta prometedora para atrapar y mover las partículas en la superficie de un material fotovoltaico de una manera controlada. Para aprovechar esta nueva técnica es necesario conocer con precisión el campo eléctrico creado por una iluminación específica en la superficie del cristal y por encima de ella. Este objetivo se ha dividido en una serie de etapas que se describen a continuación. La primera etapa consistió en la modelización del campo fotovoltaico generado por iluminación no homogénea en substratos y guías de onda de acuerdo al modelo de un centro. En la segunda etapa se estudiaron los campos y fuerzas electroforéticas y dielectroforéticas que aparecen sobre la superficie de substratos iluminados inhomogéneamente. En la tercera etapa se estudiaron sus efectos sobre micropartículas y nanopartículas, en particular se estudió el atrapamiento superficial determinando las condiciones que permiten el aprovechamiento como pinzas fotovoltaicas. En la cuarta y última etapa se estudiaron las configuraciones más eficientes en cuanto a resolución espacial. Se trabajó con distintos patrones de iluminación inhomogénea, proponiéndose patrones de iluminación al equipo experimental. Para alcanzar estos objetivos se han desarrollado herramientas de cálculo con las cuales obtenemos temporalmente todas las magnitudes que intervienen en el problema. Con estas herramientas podemos abstraernos de los complicados mecanismos de atrapamiento y a partir de un patrón de luz obtener el atrapamiento. Todo el trabajo realizado se ha llevado a cabo en dos configuraciones del cristal, en corte X ( superficie de atrapamiento paralela al eje óptico) y corte Z ( superficie de atrapamiento perpendicular al eje óptico). Se ha profundizado en la interpretación de las diferencias en los resultados según la configuración del cristal. Todas las simulaciones y experimentos se han realizado utilizando como soporte un mismo material, el niobato de litio, LiNbO3, con el f n de facilitar la comparación de los resultados. Este hecho no ha supuesto una limitación en los resultados pues los modelos no se limitan a este material. Con respecto a la estructura del trabajo, este se divide en tres partes diferenciadas que son: la introducción (I), la modelización del atrapamiento electroforético y dielectroforético (II) y las simulaciones numéricas y comparación con experimentos (III). En la primera parte se fijan las bases sobre las que se sustentarán el resto de las partes. Se describen los efectos electromagnéticos y ópticos a los que se hará referencia en el resto de los capítulos, ya sea por ser necesarios para describir los experimentos o, en otros casos, para dejar constancia de la no aparición de estos efectos para el caso en que nos ocupa y justificar la simplificación que en muchos casos se hace del problema. En esta parte, se describe principalmente el atrapamiento electroforético y dielectroforético, el efecto fotovoltaico y las propiedades del niobato de litio por ser el material que utilizaremos en experimentos y simulaciones. Así mismo, como no debe faltar en ninguna investigación, se ha analizado el state of the art, revisando lo que otros científicos del campo en el que estamos trabajando han realizado y escrito con el fin de que nos sirva de cimiento a la investigación. Con el capítulo 3 finalizamos esta primera parte describiendo las técnicas experimentales que hoy en día se están utilizando en los laboratorios para realizar el atrapamiento de partículas mediante el efecto fotovoltaico, ya que obtendremos ligeras diferencias en los resultados según la técnica de atrapamiento que se utilice. En la parte I I , dedicada a la modelización del atrapamiento, empezaremos con el capítulo 4 donde modelizaremos el campo eléctrico interno de la muestra, para a continuación modelizar el campo eléctrico, los potenciales y las fuerzas externas a la muestra. En capítulo 5 presentaremos un modelo sencillo para comprender el problema que nos aborda, al que llamamos Modelo Estacionario de Separación de Carga. Este modelo da muy buenos resultados a pesar de su sencillez. Pasamos al capítulo 6 donde discretizaremos las ecuaciones que intervienen en la física interna de la muestra mediante el método de las diferencias finitas, desarrollando el Modelo de Distribución de Carga Espacial. Para terminar esta parte, en el capítulo 8 abordamos la programación de las modelizaciones presentadas en los anteriores capítulos con el fn de dotarnos de herramientas para realizar las simulaciones de una manera rápida. En la última parte, III, presentaremos los resultados de las simulaciones numéricas realizadas con las herramientas desarrolladas y comparemos sus resultados con los experimentales. Fácilmente podremos comparar los resultados en las dos configuraciones del cristal, en corte X y corte Z. Finalizaremos con un último capítulo dedicado a las conclusiones, donde resumiremos los resultados que se han ido obteniendo en cada apartado desarrollado y daremos una visión conjunta de la investigación realizada. ABSTRACT The aim of this thesis is the research of the new concept of photovoltaic or optoelectronic tweezers, i.e., trapping, management and manipulation of particles in structures generated by photovoltaic felds or gradients on the surface of ferroelectric materials. Photovoltaic tweezers are a promising tool to trap and move the particles on the surface of a photovoltaic material in a monitored way. To take advantage of this new technique is necessary to know accurately the electric field created by a specifc illumination in the crystal surface and above it. For this purpose, the work was divided into the stages described below. The first stage consisted of modeling the photovoltaic field generated by inhomogeneous illumination in substrates and waveguides according to the one-center model. In the second stage, electrophoretic and dielectrophoretic fields and forces appearing on the surface of substrates and waveguides illuminated inhomogeneously were studied. In the third stage, the study of its effects on microparticles and nanoparticles took place. In particular, the trapping surface was studied identifying the conditions that allow its use as photovoltaic tweezers. In the fourth and fnal stage the most efficient configurations in terms of spatial resolution were studied. Different patterns of inhomogeneous illumination were tested, proposing lightning patterns to the laboratory team. To achieve these objectives calculation tools were developed to get all magnitudes temporarily involved in the problem . With these tools, the complex mechanisms of trapping can be simplified, obtaining the trapping pattern from a light pattern. All research was carried out in two configurations of crystal; in X section (trapping surface parallel to the optical axis) and Z section (trapping surface perpendicular to the optical axis). The differences in the results depending on the configuration of the crystal were deeply studied. All simulations and experiments were made using the same material as support, lithium niobate, LiNbO3, to facilitate the comparison of results. This fact does not mean a limitation in the results since the models are not limited to this material. Regarding the structure of this work, it is divided into three clearly differentiated sections, namely: Introduction (I), Electrophoretic and Dielectrophoretic Capture Modeling (II) and Numerical Simulations and Comparison Experiments (III). The frst section sets the foundations on which the rest of the sections will be based on. Electromagnetic and optical effects that will be referred in the remaining chapters are described, either as being necessary to explain experiments or, in other cases, to note the non-appearance of these effects for the present case and justify the simplification of the problem that is made in many cases. This section mainly describes the electrophoretic and dielectrophoretic trapping, the photovoltaic effect and the properties of lithium niobate as the material to use in experiments and simulations. Likewise, as required in this kind of researches, the state of the art have been analyzed, reviewing what other scientists working in this field have made and written so that serve as a foundation for research. With chapter 3 the first section finalizes describing the experimental techniques that are currently being used in laboratories for trapping particles by the photovoltaic effect, because according to the trapping technique in use we will get slightly different results. The section I I , which is dedicated to the trapping modeling, begins with Chapter 4 where the internal electric field of the sample is modeled, to continue modeling the electric field, potential and forces that are external to the sample. Chapter 5 presents a simple model to understand the problem addressed by us, which is called Steady-State Charge Separation Model. This model gives very good results despite its simplicity. In chapter 6 the equations involved in the internal physics of the sample are discretized by the finite difference method, which is developed in the Spatial Charge Distribution Model. To end this section, chapter 8 is dedicated to program the models presented in the previous chapters in order to provide us with tools to perform simulations in a fast way. In the last section, III, the results of numerical simulations with the developed tools are presented and compared with the experimental results. We can easily compare outcomes in the two configurations of the crystal, in section X and section Z. The final chapter collects the conclusions, summarizing the results that were obtained in previous sections and giving an overview of the research.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de esta Tesis es presentar un método eficiente para la evaluación de sistemas multi-cuerpo con elementos flexibles con pequeñas deformaciones, basado en métodos topológicos para la simulación de sistemas tan complejos como los que se utilizan en la práctica y en tiempo real o próximo al real. Se ha puesto un especial énfasis en la resolución eficiente de aquellos aspectos que conllevan mayor coste computacional, tales como la evaluación de las ecuaciones dinámicas y el cálculo de los términos de inercia. Las ecuaciones dinámicas se establecen en función de las variables independientes del sistema, y la integración de las mismas se realiza mediante formulaciones implícitas de index-3. Esta Tesis se articula en seis Capítulos. En el Capítulo 1 se realiza una revisión bibliográfica de la simulación de sistemas flexibles y los métodos más relevantes de integración de las ecuaciones diferenciales del movimiento. Asimismo, se presentan los objetivos de esta Tesis. En el Capítulo 2 se presenta un método semi-recursivo para la evaluación de las ecuaciones de los sistemas multi-cuerpo con elementos flexibles basado en formulaciones topológicas y síntesis modal. Esta Tesis determina la posición de cada punto del cuerpo flexible en función de un sistema de referencia flotante que se mueve con dicho cuerpo y de las amplitudes de ciertos modos de deformación calculados a partir de un mallado obtenido mediante el Método de Elementos Finitos. Se presta especial atención en las condiciones de contorno que se han de tener en cuenta a la hora de establecer las variables que definen la deformación del cuerpo flexible. El Capítulo 3 se centra en la evaluación de los términos de inercia de los sistemas flexibles que generalmente conllevan un alto coste computacional. Se presenta un método que permite el cálculo de dichos términos basado en el uso de 24 matrices constantes que pueden ser calculadas previamente al proceso de integración. Estas matrices permiten evaluar la matriz de masas y el vector de fuerzas de inercia dependientes de la velocidad sin que sea necesario evaluar la posición deformada de todos los puntos del cuerpo flexible. Se realiza un análisis pormenorizado de dichas matrices con el objetivo de optimizar su cálculo estableciendo aproximaciones que permitan reducir el número de dichos términos y optimizar aún más su evaluación. Se analizan dos posibles simplificaciones: la primera utiliza una discretización no-consistente basada en elementos finitos en los que se definen únicamente los desplazamientos axiales de los nodos; en la segunda propuesta se hace uso de una matriz de masas concentradas (Lumped Mass). Basándose en la formulación presentada, el Capítulo 4 aborda la integración eficiente de las ecuaciones dinámicas. Se presenta un método iterativo para la integración con fórmulas de index-3 basado en la proyección de las ecuaciones dinámicas según las variables independientes del sistema multi-cuerpo. El cálculo del residuo del sistema de ecuaciones no lineales que se ha de resolver de modo iterativo se realiza mediante un proceso recursivo muy eficiente que aprovecha la estructura topológica del sistema. Se analizan tres formas de evaluar la matriz tangente del citado sistema no lineal: evaluación aproximada, numérica y recursiva. El método de integración presentado permite el uso de distintas fórmulas. En esta Tesis se analizan la Regla Trapezoidal, la fórmula BDF de segundo orden y un método híbrido TR-BDF2. Para este último caso se presenta un algoritmo de paso variable. En el Capítulo 5 plantea la implementación del método propuesto en un programa general de simulación de mecanismos que permita la resolución de cualquier sistema multi-cuerpo definiéndolo mediante un fichero de datos. La implementación de este programa se ha realizado tanto en C++ como en Java. Se muestran los resultados de las formulaciones presentadas en esta Tesis mediante la simulación de cuatro ejemplos de distinta complejidad. Mediante análisis concretos se comparan la formulación presentada con otras existentes. También se analiza el efecto del lenguaje de programación utilizado en la implementación y los efectos de las posibles simplificaciones planteadas. Por último, el Capítulo 6 resume las principales conclusiones alcanzadas en la Tesis y las futuras líneas de investigación que con ella se abren. ABSTRACT This Thesis presents an efficient method for solving the forward dynamics of a multi-body sys-tem formed by rigid and flexible bodies with small strains for real-time simulation of real-life models. It is based on topological formulations. The presented work focuses on the efficient solution of the most time-consuming tasks of the simulation process, such as the numerical integration of the motion differential equations and in particular the evaluation of the inertia terms corresponding to the flexible bodies. The dynamic equations are formulated in terms of independent variables of the muti-body system, and they are integrated by means of implicit index-3 formulae. The Thesis is arranged in six chapters. Chapter 1 presents a review of the most relevant and recent contributions related to the modelization of flexible multi-body systems and the integration of the corresponding dynamic equations. The main objectives of the Thesis are also presented in detail. Chapter 2 presents a semi-recursive method for solving the equations of a multi-body system with flexible bodies based on topological formulations and modal synthesis. This Thesis uses the floating frame approach and the modal amplitudes to define the position of any point at the flexible body. These modal deformed shapes are obtained by means of the Finite Element Method. Particular attention has been taken to the boundary conditions used to define the deformation of the flexible bodies. Chapter 3 focuses on the evaluation of the inertia terms, which is usually a very time-consuming task. A new method based on the use of 24 constant matrices is presented. These matrices are evaluated during the set-up step, before the integration process. They allow the calculation of the inertia terms in terms of the position and orientation of the local coordinate system and the deformation variables, and there is no need to evaluate the position and velocities of all the nodes of the FEM mesh. A deep analysis of the inertia terms is performed in order to optimize the evaluation process, reducing both the terms used and the number of arithmetic operations. Two possible simplifications are presented: the first one uses a non-consistent approach in order to define the inertia terms respect to the Cartesian coordinates of the FEM mesh, rejecting those corresponding to the angular rotations; the second approach makes use of lumped mass matrices. Based on the previously presented formulation, Chapter 4 is focused on the numerical integration of the motion differential equations. A new predictor-corrector method based on index-3 formulae and on the use of multi-body independent variables is presented. The evaluation of the dynamic equations in a new time step needs the solution of a set on nonlinear equations by a Newton-Raphson iterative process. The computation of the corresponding residual vector is performed efficiently by taking advantage of the system’s topological structure. Three methods to compute the tangent matrix are presented: an approximated evaluation that considers only the most relevant terms, a numerical approach based on finite differences and a recursive method that uses the topological structure. The method presented for integrating the dynamic equations can use a variety of integration formulae. This Thesis analyses the use of the trapezoidal rule, the 2nd order BDF formula and the hybrid TR-BDF2 method. A variable-time step strategy is presented for the last one. Chapter 5 describes the implementation of the proposed method in a general purpose pro-gram for solving any multibody defined by a data file. This program is implemented both in C++ and Java. Four examples are used to check the validity of the formulation and to compare this method with other methods commonly used to solve the dynamic equations of multi-body systems containing flexible bodies. The efficiency of the programming methodology used and the effect of the possible simplifications proposed are also analyzed. Chapter 6 summarizes the main Conclusions obtained in this Thesis and the new lines of research that have been opened.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En un mundo globalizado los ingenieros de redes tienen la difícil tarea de mejorar el ecosistema para evitar que colapse, como consecuencia del incremento progresivo de la información intercambiada. La finalidad de este trabajo fin de grado es proponer una enmienda al estándar IPv6 que añade soporte a paquetes multidestino. Primero se estudiarán los mecanismos disponibles actualmente para enviar un paquete a múltiples destinatarios en IPv6, así como sus limitaciones. A continuación, se diseñará una extensión de IPv6 en forma de cabecera, que permita indicar más de un destinatario en la misma, y se detallará el procesamiento a realizar en los routers intermedios, así como los mecanismos de retrocompatibilidad con Unicast. Además, se estudiará la integración de esta cabecera con el resto de extensiones de cabecera existentes en IPv6 y se determinará el punto óptimo de multiplexión que permita maximizar el envío de datos. Por último se plantearán múltiples escenarios de usos prácticos, así como una simulación de servidor web, y en la conclusión se analizarán los pros y contras de esta solución propuesta respecto a otras ya existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las masas forestales tienen una importancia colosal para nuestra sociedad y el conjunto de la biosfera. Estudios recientes a escala mundial indican que la sequía es el factor abiótico que más afecta a su crecimiento y supervivencia, seguida por las temperaturas extremas y la salinidad. Aunque comprender los mecanismos con que las especies arbóreas toleran estas formas de estrés tiene un interés aplicado evidente, dichos mecanismos se han estudiado mucho más en especies herbáceas modelo o de interés agronómico. Existen sin embargo diferencias notables entre ellas, como se demuestra en esta tesis y en otros trabajos recientes. Nuestro estudio se centra concretamente en la respuesta molecular del chopo –el sistema modelo forestal más desarrollado– al estrés abiótico, con particular énfasis en la sequía. Utilizando una estrategia proteómica y tratamientos controlados, hemos identificado componentes mayoritarios de dicha respuesta. Su participación en la misma se ha validado mediante análisis transcripcionales detallados utilizando tecnología qRT-PCR (PCR cuantitativa en tiempo real). Hemos identificado proteínas cuyo nexo funcional con mecanismos de tolerancia ya era conocido, como chaperonas moleculares sHSP o enzimas que atenúan el estrés oxidativo, pero también proteínas cuya relación funcional con el estrés es menos clara o incluso novedosa, como polifenol oxidasas (PPO), deshidrogenasas/reductasas de cadena corta (SDR), o bicupinas (BIC), entre otras. El cuerpo central de la tesis consiste en la caracterización detallada de una PPO inusual, cuya inducción por estrés hídrico se describe por vez primera. Estas enzimas están ampliamente distribuidas en plantas, si bien su número es muy variable de unas especies a otras. Algunas, como nogal, tienen un único gen, mientras que Arabidopsis no tiene ninguno. En la última versión del genoma de chopo hemos identificado un total de 12 miembros bona fide, corrigiendo trabajos previos, y hemos caracterizado su expresión individual ante diferentes situaciones de estrés controlado y tratamientos hormonales. La isoforma antedicha es el único miembro de la familia que responde claramente a la deshidratación. También responde a salinidad y a la mayor parte de tratamientos hormonales ensayados, pero no a daño mecánico o tratamientos con metil jasmonato. Esto la diferencia de enzimas homólogas presentes en otras especies de plantas, que se han relacionado experimentalmente con estrés biótico. Los patrones de acumulación de transcritos en árboles adultos son compatibles con un papel protector frente a la sequía. La integración de nuestros estudios funcionales y filogenéticos sugiere que la familia ha sufrido un proceso reciente de diversificación y neofuncionalización, siendo la protección frente a deshidratación su papel primigenio. Aunque se conoce la actividad bioquímica in vitro de este tipo de enzimas, sus sustratos naturales son esencialmente una incógnita. Mediante expresión heteróloga en Escherichia coli BL21(DE3) hemos detectado que la enzima de chopo es capaz de oxidar L-DOPA a dopaquinona, siendo menos activa frente a otros sustratos. Por otra parte, hemos demostrado su localización cloroplástica mediante transformación transitoria de protoplastos con fusiones a la proteína fluorescente YFP. Mediante la obtención de plantas transgénicas de A. thaliana hemos demostrado que la enzima de chopo aumenta considerablemente la tolerancia in vivo frente a la deshidratación y al estrés salino. El análisis fenotípico detallado de las líneas transgénicas, combinando múltiples metodologías, nos ha permitido sustanciar que la tolerancia tiene una base compleja. Esta incluye una mayor protección del sistema fotosintético, una capacidad antioxidante muy incrementada y la acumulación de solutos osmoprotectores como la prolina. Los análisis metabolómicos nos han permitido asociar la expresión de la proteína a la síntesis de un flavano no descrito previamente en A. thaliana, vinculando la enzima de chopo con la síntesis de fenilpropanoides. También hemos observado alteraciones en los niveles hormonales que podrían subyacer a efectos pleiotrópicos con interés aplicado, como un aumento consistente del tamaño de la planta o el acortamiento del ciclo de crecimiento. Además de aportar datos novedosos sobre la funcionalidad in vivo de esta familia de oxidasas, los resultados de esta tesis demuestran que los árboles son sistemas de estudio interesantes para caracterizar nuevas estrategias de tolerancia al estrés abiótico con potencial aplicado. ABSTRACT Forests masses have an extraordinary importance for our society and the biosphere. Recent worldwide studies indicate that drought is the abiotic factor that affects more their growing and survival, followed by extreme temperatures and salinity. The understanding of how the arboreal species tolerate the stress has an evident practical interest, but their mechanisms have been studied much more in herbaceous species or with agronomic interest. However, considerable differences exist between them, as this thesis and recent studies show. Our study is focused on the molecular response of the poplar –the more developed forestry model system- to abiotic stress, specifically focused in the drought. Using a proteomic strategy and controlled treatments, we have identified main components in such response. Its participation has been validated through transcriptional analysis using qRT-PCR technology. We have identified proteins whose functional connection with tolerance mechanisms were already known, as molecular chaperones sHSP or enzymes that attenuate the oxidative stress, but also some proteins whose functional relationship with the stress is less clear or even novel, as polifenol oxidases (PPO), short chain deshidrogenases/reductases (SDR), or bicupines (BIC), among others. The central body of the thesis consists of the detailed characterization of an unsual PPO, whose induction due to drought stress is first described. These enzymes are thoroughly distributed in plants, but their number of members is very variable among species. Some of them, as the walnut tree, have a single gene, while Arabidopsis has none. We have identified a total of 12 members in the last version of the poplar genome, correcting previous works, and have characterized their individual expression against different situations of controlled stress and hormone treatments. The aforementioned isoform is the only member of the family that responds clearly to the drought. It also reacts to salinity and the majority of hormonal treatments tested, but it does not respond to mechanical damage or treatments with methyl jasmonate. This is the difference with homologue enzymes present in other plant species, which have been related experimentally with abiotic stress. The accumulation patterns of transcripts in adult trees are compatible with a protector role against drought. The integration of our functional and phylogenetic studies suggests that the family has suffered a recent process of diversification and neofunctionalization, being the protection against drought their original role. Although the in vitro biochemistry activity of this kind of enzymes is already known, their natural substracts are essentially a mystery. By means of heterologous expression of Escherichia coli BL21(DE3) we have detected that the enzyme of poplar is able to oxidize L-DOPA to dopaquinone, being less active against other substrates. Additionally, we have proven its chloroplastic location with transitory transformation of protoplasts with YFP protein fusion. By means of getting transgenic plants of A. thaliana, we have demonstrated that the poplar enzyme increases notably the in vivo tolerance against the drought and salinity stresses. The phenotypic analysis of the transgenic lines, and the use of multiple methodologies, allowed us to test the complexity of the tolerance. This includes a major protection of the photosynthetic system, a very increased antioxidant capacity and the accumulation of osmoprotectant solutes as the proline. The metabolic analysis has allowed to associate the protein expression with the synthesis of a Flavan non described previously in A. thalaiana, linking the enzyme of poplar with the synthesis of phenylpropanoids. We have observed alterations in the hormonal levels that could underlie pleiotropic effects with applied interest, as a consistent increase of the size of the plant and the reduction of the growth cycle. The results of this thesis, in addition to provide novel data about the in vivo functionality of the oxidase family, demonstrate that the trees are interesting systems of study to characterize new strategies of tolerance against abiotic stress with applied potential.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento presentado contiene una aproximación a algunos de los diversos problemas actuales existentes en el campo de la robótica paralela. Primeramente se hace una propuesta para el cálculo de los parámetros estructurales de los robots paralelos, mediante el desarrollo de una metodología que combina las herramientas del estudio de mecanismos con el álgebra lineal; en una segunda sección se propone la solución del problema geométrico directo a partir de la definición de ecuaciones de restricción y su respectiva solución usando métodos numéricos, así como la solución para el problema geométrico inverso; en la tercera parte se aborda el problema dinámico tanto directo como inverso y su solución a partir de una metodología basada en el método de Kane o de trabajos virtuales. Para las propuestas metodológicas expuestas se han desarrollado ejemplos de aplicación tanto teóricos como prácticos (simulaciones y pruebas físicas), donde se demuestra su alcance y desempeño, mediante su utilización en múltiples configuraciones para manipuladores paralelos, entre los que se destacan la plataforma Stewart Gough, y el 3-RRR. Todo con el objetivo de extender su aplicación en futuros trabajos de investigación en el área. ABSTRACT The document presented below provides an approach to some of the many current problems existing in the field of parallel robotics. First is maked a proposal for calculating the structural parameters of the parallel robots, through developing a methodology that combines tools to study mechanisms with the linear algebra; a second section contains a direct geometrical problem solution from the definition of constraint equations and their respective solution using numerical methods, as well as the solution to the inverse geometric problem; in the third part, both, direct and inverse dynamic problem and its solution based on methodology Kane or the method of virtual work are propossed. For each of the exposed methodological proposals they were developed examples of both theoretical and practical application (simulations and physical tests), where its scope and performance is demonstrated by its use in multiple configurations for parallel manipulators, among which stand out the platform Stewart Gough, and 3-RRR. All with the goal of extending its application in future research in the area.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Entendemos por inteligencia colectiva una forma de inteligencia que surge de la colaboración y la participación de varios individuos o, siendo más estrictos, varias entidades. En base a esta sencilla definición podemos observar que este concepto es campo de estudio de las más diversas disciplinas como pueden ser la sociología, las tecnologías de la información o la biología, atendiendo cada una de ellas a un tipo de entidades diferentes: seres humanos, elementos de computación o animales. Como elemento común podríamos indicar que la inteligencia colectiva ha tenido como objetivo el ser capaz de fomentar una inteligencia de grupo que supere a la inteligencia individual de las entidades que lo forman a través de mecanismos de coordinación, cooperación, competencia, integración, diferenciación, etc. Sin embargo, aunque históricamente la inteligencia colectiva se ha podido desarrollar de forma paralela e independiente en las distintas disciplinas que la tratan, en la actualidad, los avances en las tecnologías de la información han provocado que esto ya no sea suficiente. Hoy en día seres humanos y máquinas a través de todo tipo de redes de comunicación e interfaces, conviven en un entorno en el que la inteligencia colectiva ha cobrado una nueva dimensión: ya no sólo puede intentar obtener un comportamiento superior al de sus entidades constituyentes sino que ahora, además, estas inteligencias individuales son completamente diferentes unas de otras y aparece por lo tanto el doble reto de ser capaces de gestionar esta gran heterogeneidad y al mismo tiempo ser capaces de obtener comportamientos aún más inteligentes gracias a las sinergias que los distintos tipos de inteligencias pueden generar. Dentro de las áreas de trabajo de la inteligencia colectiva existen varios campos abiertos en los que siempre se intenta obtener unas prestaciones superiores a las de los individuos. Por ejemplo: consciencia colectiva, memoria colectiva o sabiduría colectiva. Entre todos estos campos nosotros nos centraremos en uno que tiene presencia en la práctica totalidad de posibles comportamientos inteligentes: la toma de decisiones. El campo de estudio de la toma de decisiones es realmente amplio y dentro del mismo la evolución ha sido completamente paralela a la que citábamos anteriormente en referencia a la inteligencia colectiva. En primer lugar se centró en el individuo como entidad decisoria para posteriormente desarrollarse desde un punto de vista social, institucional, etc. La primera fase dentro del estudio de la toma de decisiones se basó en la utilización de paradigmas muy sencillos: análisis de ventajas e inconvenientes, priorización basada en la maximización de algún parámetro del resultado, capacidad para satisfacer los requisitos de forma mínima por parte de las alternativas, consultas a expertos o entidades autorizadas o incluso el azar. Sin embargo, al igual que el paso del estudio del individuo al grupo supone una nueva dimensión dentro la inteligencia colectiva la toma de decisiones colectiva supone un nuevo reto en todas las disciplinas relacionadas. Además, dentro de la decisión colectiva aparecen dos nuevos frentes: los sistemas de decisión centralizados y descentralizados. En el presente proyecto de tesis nos centraremos en este segundo, que es el que supone una mayor atractivo tanto por las posibilidades de generar nuevo conocimiento y trabajar con problemas abiertos actualmente así como en lo que respecta a la aplicabilidad de los resultados que puedan obtenerse. Ya por último, dentro del campo de los sistemas de decisión descentralizados existen varios mecanismos fundamentales que dan lugar a distintas aproximaciones a la problemática propia de este campo. Por ejemplo el liderazgo, la imitación, la prescripción o el miedo. Nosotros nos centraremos en uno de los más multidisciplinares y con mayor capacidad de aplicación en todo tipo de disciplinas y que, históricamente, ha demostrado que puede dar lugar a prestaciones muy superiores a otros tipos de mecanismos de decisión descentralizados: la confianza y la reputación. Resumidamente podríamos indicar que confianza es la creencia por parte de una entidad que otra va a realizar una determinada actividad de una forma concreta. En principio es algo subjetivo, ya que la confianza de dos entidades diferentes sobre una tercera no tiene porqué ser la misma. Por otro lado, la reputación es la idea colectiva (o evaluación social) que distintas entidades de un sistema tiene sobre otra entidad del mismo en lo que respecta a un determinado criterio. Es por tanto una información de carácter colectivo pero única dentro de un sistema, no asociada a cada una de las entidades del sistema sino por igual a todas ellas. En estas dos sencillas definiciones se basan la inmensa mayoría de sistemas colectivos. De hecho muchas disertaciones indican que ningún tipo de organización podría ser viable de no ser por la existencia y la utilización de los conceptos de confianza y reputación. A partir de ahora, a todo sistema que utilice de una u otra forma estos conceptos lo denominaremos como sistema de confianza y reputación (o TRS, Trust and Reputation System). Sin embargo, aunque los TRS son uno de los aspectos de nuestras vidas más cotidianos y con un mayor campo de aplicación, el conocimiento que existe actualmente sobre ellos no podría ser más disperso. Existen un gran número de trabajos científicos en todo tipo de áreas de conocimiento: filosofía, psicología, sociología, economía, política, tecnologías de la información, etc. Pero el principal problema es que no existe una visión completa de la confianza y reputación en su sentido más amplio. Cada disciplina focaliza sus estudios en unos aspectos u otros dentro de los TRS, pero ninguna de ellas trata de explotar el conocimiento generado en el resto para mejorar sus prestaciones en su campo de aplicación concreto. Aspectos muy detallados en algunas áreas de conocimiento son completamente obviados por otras, o incluso aspectos tratados por distintas disciplinas, al ser estudiados desde distintos puntos de vista arrojan resultados complementarios que, sin embargo, no son aprovechados fuera de dichas áreas de conocimiento. Esto nos lleva a una dispersión de conocimiento muy elevada y a una falta de reutilización de metodologías, políticas de actuación y técnicas de una disciplina a otra. Debido su vital importancia, esta alta dispersión de conocimiento se trata de uno de los principales problemas que se pretenden resolver con el presente trabajo de tesis. Por otro lado, cuando se trabaja con TRS, todos los aspectos relacionados con la seguridad están muy presentes ya que muy este es un tema vital dentro del campo de la toma de decisiones. Además también es habitual que los TRS se utilicen para desempeñar responsabilidades que aportan algún tipo de funcionalidad relacionada con el mundo de la seguridad. Por último no podemos olvidar que el acto de confiar está indefectiblemente unido al de delegar una determinada responsabilidad, y que al tratar estos conceptos siempre aparece la idea de riesgo, riesgo de que las expectativas generadas por el acto de la delegación no se cumplan o se cumplan de forma diferente. Podemos ver por lo tanto que cualquier sistema que utiliza la confianza para mejorar o posibilitar su funcionamiento, por su propia naturaleza, es especialmente vulnerable si las premisas en las que se basa son atacadas. En este sentido podemos comprobar (tal y como analizaremos en más detalle a lo largo del presente documento) que las aproximaciones que realizan las distintas disciplinas que tratan la violación de los sistemas de confianza es de lo más variado. únicamente dentro del área de las tecnologías de la información se ha intentado utilizar alguno de los enfoques de otras disciplinas de cara a afrontar problemas relacionados con la seguridad de TRS. Sin embargo se trata de una aproximación incompleta y, normalmente, realizada para cumplir requisitos de aplicaciones concretas y no con la idea de afianzar una base de conocimiento más general y reutilizable en otros entornos. Con todo esto en cuenta, podemos resumir contribuciones del presente trabajo de tesis en las siguientes. • La realización de un completo análisis del estado del arte dentro del mundo de la confianza y la reputación que nos permite comparar las ventajas e inconvenientes de las diferentes aproximación que se realizan a estos conceptos en distintas áreas de conocimiento. • La definición de una arquitectura de referencia para TRS que contempla todas las entidades y procesos que intervienen en este tipo de sistemas. • La definición de un marco de referencia para analizar la seguridad de TRS. Esto implica tanto identificar los principales activos de un TRS en lo que respecta a la seguridad, así como el crear una tipología de posibles ataques y contramedidas en base a dichos activos. • La propuesta de una metodología para el análisis, el diseño, el aseguramiento y el despliegue de un TRS en entornos reales. Adicionalmente se exponen los principales tipos de aplicaciones que pueden obtenerse de los TRS y los medios para maximizar sus prestaciones en cada una de ellas. • La generación de un software que permite simular cualquier tipo de TRS en base a la arquitectura propuesta previamente. Esto permite evaluar las prestaciones de un TRS bajo una determinada configuración en un entorno controlado previamente a su despliegue en un entorno real. Igualmente es de gran utilidad para evaluar la resistencia a distintos tipos de ataques o mal-funcionamientos del sistema. Además de las contribuciones realizadas directamente en el campo de los TRS, hemos realizado aportaciones originales a distintas áreas de conocimiento gracias a la aplicación de las metodologías de análisis y diseño citadas con anterioridad. • Detección de anomalías térmicas en Data Centers. Hemos implementado con éxito un sistema de deteción de anomalías térmicas basado en un TRS. Comparamos la detección de prestaciones de algoritmos de tipo Self-Organized Maps (SOM) y Growing Neural Gas (GNG). Mostramos como SOM ofrece mejores resultados para anomalías en los sistemas de refrigeración de la sala mientras que GNG es una opción más adecuada debido a sus tasas de detección y aislamiento para casos de anomalías provocadas por una carga de trabajo excesiva. • Mejora de las prestaciones de recolección de un sistema basado en swarm computing y odometría social. Gracias a la implementación de un TRS conseguimos mejorar las capacidades de coordinación de una red de robots autónomos distribuidos. La principal contribución reside en el análisis y la validación de las mejoras increméntales que pueden conseguirse con la utilización apropiada de la información existente en el sistema y que puede ser relevante desde el punto de vista de un TRS, y con la implementación de algoritmos de cálculo de confianza basados en dicha información. • Mejora de la seguridad de Wireless Mesh Networks contra ataques contra la integridad, la confidencialidad o la disponibilidad de los datos y / o comunicaciones soportadas por dichas redes. • Mejora de la seguridad de Wireless Sensor Networks contra ataques avanzamos, como insider attacks, ataques desconocidos, etc. Gracias a las metodologías presentadas implementamos contramedidas contra este tipo de ataques en entornos complejos. En base a los experimentos realizados, hemos demostrado que nuestra aproximación es capaz de detectar y confinar varios tipos de ataques que afectan a los protocoles esenciales de la red. La propuesta ofrece unas velocidades de detección muy altas así como demuestra que la inclusión de estos mecanismos de actuación temprana incrementa significativamente el esfuerzo que un atacante tiene que introducir para comprometer la red. Finalmente podríamos concluir que el presente trabajo de tesis supone la generación de un conocimiento útil y aplicable a entornos reales, que nos permite la maximización de las prestaciones resultantes de la utilización de TRS en cualquier tipo de campo de aplicación. De esta forma cubrimos la principal carencia existente actualmente en este campo, que es la falta de una base de conocimiento común y agregada y la inexistencia de una metodología para el desarrollo de TRS que nos permita analizar, diseñar, asegurar y desplegar TRS de una forma sistemática y no artesanal y ad-hoc como se hace en la actualidad. ABSTRACT By collective intelligence we understand a form of intelligence that emerges from the collaboration and competition of many individuals, or strictly speaking, many entities. Based on this simple definition, we can see how this concept is the field of study of a wide range of disciplines, such as sociology, information science or biology, each of them focused in different kinds of entities: human beings, computational resources, or animals. As a common factor, we can point that collective intelligence has always had the goal of being able of promoting a group intelligence that overcomes the individual intelligence of the basic entities that constitute it. This can be accomplished through different mechanisms such as coordination, cooperation, competence, integration, differentiation, etc. Collective intelligence has historically been developed in a parallel and independent way among the different disciplines that deal with it. However, this is not enough anymore due to the advances in information technologies. Nowadays, human beings and machines coexist in environments where collective intelligence has taken a new dimension: we yet have to achieve a better collective behavior than the individual one, but now we also have to deal with completely different kinds of individual intelligences. Therefore, we have a double goal: being able to deal with this heterogeneity and being able to get even more intelligent behaviors thanks to the synergies that the different kinds of intelligence can generate. Within the areas of collective intelligence there are several open topics where they always try to get better performances from groups than from the individuals. For example: collective consciousness, collective memory, or collective wisdom. Among all these topics we will focus on collective decision making, that has influence in most of the collective intelligent behaviors. The field of study of decision making is really wide, and its evolution has been completely parallel to the aforementioned collective intelligence. Firstly, it was focused on the individual as the main decision-making entity, but later it became involved in studying social and institutional groups as basic decision-making entities. The first studies within the decision-making discipline were based on simple paradigms, such as pros and cons analysis, criteria prioritization, fulfillment, following orders, or even chance. However, in the same way that studying the community instead of the individual meant a paradigm shift within collective intelligence, collective decision-making means a new challenge for all the related disciplines. Besides, two new main topics come up when dealing with collective decision-making: centralized and decentralized decision-making systems. In this thesis project we focus in the second one, because it is the most interesting based on the opportunities to generate new knowledge and deal with open issues in this area, as well as these results can be put into practice in a wider set of real-life environments. Finally, within the decentralized collective decision-making systems discipline, there are several basic mechanisms that lead to different approaches to the specific problems of this field, for example: leadership, imitation, prescription, or fear. We will focus on trust and reputation. They are one of the most multidisciplinary concepts and with more potential for applying them in every kind of environments. Besides, they have historically shown that they can generate better performance than other decentralized decision-making mechanisms. Shortly, we say trust is the belief of one entity that the outcome of other entities’ actions is going to be in a specific way. It is a subjective concept because the trust of two different entities in another one does not have to be the same. Reputation is the collective idea (or social evaluation) that a group of entities within a system have about another entity based on a specific criterion. Thus, it is a collective concept in its origin. It is important to say that the behavior of most of the collective systems are based on these two simple definitions. In fact, a lot of articles and essays describe how any organization would not be viable if the ideas of trust and reputation did not exist. From now on, we call Trust an Reputation System (TRS) to any kind of system that uses these concepts. Even though TRSs are one of the most common everyday aspects in our lives, the existing knowledge about them could not be more dispersed. There are thousands of scientific works in every field of study related to trust and reputation: philosophy, psychology, sociology, economics, politics, information sciences, etc. But the main issue is that a comprehensive vision of trust and reputation for all these disciplines does not exist. Every discipline focuses its studies on a specific set of topics but none of them tries to take advantage of the knowledge generated in the other disciplines to improve its behavior or performance. Detailed topics in some fields are completely obviated in others, and even though the study of some topics within several disciplines produces complementary results, these results are not used outside the discipline where they were generated. This leads us to a very high knowledge dispersion and to a lack in the reuse of methodologies, policies and techniques among disciplines. Due to its great importance, this high dispersion of trust and reputation knowledge is one of the main problems this thesis contributes to solve. When we work with TRSs, all the aspects related to security are a constant since it is a vital aspect within the decision-making systems. Besides, TRS are often used to perform some responsibilities related to security. Finally, we cannot forget that the act of trusting is invariably attached to the act of delegating a specific responsibility and, when we deal with these concepts, the idea of risk is always present. This refers to the risk of generated expectations not being accomplished or being accomplished in a different way we anticipated. Thus, we can see that any system using trust to improve or enable its behavior, because of its own nature, is especially vulnerable if the premises it is based on are attacked. Related to this topic, we can see that the approaches of the different disciplines that study attacks of trust and reputation are very diverse. Some attempts of using approaches of other disciplines have been made within the information science area of knowledge, but these approaches are usually incomplete, not systematic and oriented to achieve specific requirements of specific applications. They never try to consolidate a common base of knowledge that could be reusable in other context. Based on all these ideas, this work makes the following direct contributions to the field of TRS: • The compilation of the most relevant existing knowledge related to trust and reputation management systems focusing on their advantages and disadvantages. • We define a generic architecture for TRS, identifying the main entities and processes involved. • We define a generic security framework for TRS. We identify the main security assets and propose a complete taxonomy of attacks for TRS. • We propose and validate a methodology to analyze, design, secure and deploy TRS in real-life environments. Additionally we identify the principal kind of applications we can implement with TRS and how TRS can provide a specific functionality. • We develop a software component to validate and optimize the behavior of a TRS in order to achieve a specific functionality or performance. In addition to the contributions made directly to the field of the TRS, we have made original contributions to different areas of knowledge thanks to the application of the analysis, design and security methodologies previously presented: • Detection of thermal anomalies in Data Centers. Thanks to the application of the TRS analysis and design methodologies, we successfully implemented a thermal anomaly detection system based on a TRS.We compare the detection performance of Self-Organized- Maps and Growing Neural Gas algorithms. We show how SOM provides better results for Computer Room Air Conditioning anomaly detection, yielding detection rates of 100%, in training data with malfunctioning sensors. We also show that GNG yields better detection and isolation rates for workload anomaly detection, reducing the false positive rate when compared to SOM. • Improving the performance of a harvesting system based on swarm computing and social odometry. Through the implementation of a TRS, we achieved to improve the ability of coordinating a distributed network of autonomous robots. The main contribution lies in the analysis and validation of the incremental improvements that can be achieved with proper use information that exist in the system and that are relevant for the TRS, and the implementation of the appropriated trust algorithms based on such information. • Improving Wireless Mesh Networks security against attacks against the integrity, confidentiality or availability of data and communications supported by these networks. Thanks to the implementation of a TRS we improved the detection time rate against these kind of attacks and we limited their potential impact over the system. • We improved the security of Wireless Sensor Networks against advanced attacks, such as insider attacks, unknown attacks, etc. Thanks to the TRS analysis and design methodologies previously described, we implemented countermeasures against such attacks in a complex environment. In our experiments we have demonstrated that our system is capable of detecting and confining various attacks that affect the core network protocols. We have also demonstrated that our approach is capable of rapid attack detection. Also, it has been proven that the inclusion of the proposed detection mechanisms significantly increases the effort the attacker has to introduce in order to compromise the network. Finally we can conclude that, to all intents and purposes, this thesis offers a useful and applicable knowledge in real-life environments that allows us to maximize the performance of any system based on a TRS. Thus, we deal with the main deficiency of this discipline: the lack of a common and complete base of knowledge and the lack of a methodology for the development of TRS that allow us to analyze, design, secure and deploy TRS in a systematic way.