977 resultados para Reator continuamente agitado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La intensa evolución tecnológica que está experimentando nuestra sociedad en las últimas décadas hace que se estén desarrollando continuamente nuevas tecnologías que proporcionan mejoras tanto en la calidad como en la seguridad del servicio, este es el caso del 4G. A día de hoy, en España, la cuarta generación de comunicaciones móviles se ve encabezada por LTE, mientras que LTE-Advanced sólo se está implantando en las principales ciudades de nuestro país durante los últimos meses. Por este motivo, se ha creído interesante realizar una planificación sobre una zona que, hasta el momento, no está cubierta por cobertura LTE-Advanced. Además hay que tener en cuenta la naturaleza del terreno en el que trabajaremos, ya que se aleja del suelo urbano que encontramos en las principales ciudades con LTE-Advanced, como Madrid, Barcelona o Valencia. El estudio de esta zona semirural es de gran interés ya que uno de los objetivos de la cuarta generación es hacer llegar conexión a internet de calidad a lugares en los que no puede llegar la fibra óptica, como por ejemplo estas zonas semirurales. Para añadir aún más interés en el estudio, se ha decidido utilizar la banda de 800 MHz para el despliegue de la red. Esta banda que anteriormente era utilizada para la transmisión TDT, recientemente ha quedado liberada, en el conocido como Dividendo Digital para su uso en comunicaciones móviles. La tecnología LTE-Advanced se está empezando a desplegar en esta banda aunque realmente hasta Noviembre del año 2015 no tendremos un uso real de la misma, por lo que en estos momentos las redes 4G están utilizando la banda de 2.6 GHz. La utilización de la banda de 800 MHz conllevará mejoras tanto al usuario como a las operadoras, las cuales iremos viendo a lo largo del desarrollo del proyecto. La planificación pasará por distintas fases de optimización y expansión en las que se analizaran tanto la parte radioeléctrica como su capacidad. Se analizaran señales del tipo RSRP, RSSI o RSRQ y para el análisis de capacidad se definirá un conjunto de usuarios, distribuidos adecuadamente por toda la zona, que permitirá estudiar en detalle la capacidad de nuestra red. Para finalizar, se realizarán varias pruebas que demostrarán lo importante que es la tecnología MIMO tanto en LTE como en LTE-Advanced. ABSTRACT. Nowadays, our society is experiencing an intense pace of technological evolution which causes the constant development of new technologies. In the network planning area, these new technologies are focused on improving both quality and safety of service, with the recent deployment of 4G technologies in our networks. This project focuses on Spain, where the fourth generation of mobile communications is led by LTE, because LTE-Advanced has only been deployed in the largest cities, so far. The goal of this project is to plan, deploy and simulate LTE-Advanced network, of an area that hasn´t yet been covered. Furthermore, it will be taken into account the nature of the terrain where the network will be developed, as it moves away from urban areas in the major cities with LTE-Advanced, including Madrid, Barcelona and Valencia. The study of these semi-rural areas is extremely important because one of the main objectives of the fourth generation technologies is to get high-speed internet access to places that can be reached through other technologies, such as optical fiber. In order to adjust to the actual needs, the project was developed for the 800 MHz band. Those frequencies used to be assigned for digital terrestrial TV, but they have recently been released through the Digital Dividend in 2015 to use with mobile communications. That is the reason why, the LTE-Advanced technology in Spain is starting to be deployed in those frequencies. Despite the freeing of the 800 MHz band, it is not allowed to use it until November 2015, so 4G networks are currently using the 2.6 GHz band. The use of the 800 MHz band will led to advantages and improvements to users and operators, which will be detailed over the project. Each step of the planning of the 4G network is detailed. It is analyzed the optimization and expansion of the network, based on the radio and capacity premises. RSRP, RSSI or RSRQ signals were analyzed and an analysis of the network capacity was carried out. Finally, several tests are developed to show the importance of MIMO in LTE and LTE-Advanced.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, los teléfonos inteligentes forman parte de la vida de la mayoría de las personas, desde los usuarios más jóvenes a los más adultos, demostrando su utilidad en distintas actividades y con objetivos diferentes, como pueden ser por cuestiones de trabajo, estudio, ocio o incluso seguridad. Con respecto a este último aspecto se ha detectado una utilidad práctica para el colectivo de peatones. Según la DGT el 48% de los fallecidos en accidentes urbanos fueron peatones. Con el objetivo de disminuir drásticamente esta cifra se ideó un proyecto que incrementara la seguridad del peatón avisándole de los potenciales peligros que pudieran afectarle. Para ello era necesario que los vehículos de su entorno, de alguna manera, informaran de su posición y trayectoria y que un software analizara esta información para detectar potenciales situaciones de riesgo. Dada la versatilidad y la ubicuidad de los teléfonos inteligentes (prácticamente la mayoría de personas lo llevan continuamente) se decidió utilizarlos como soporte para el procesado de esta información. Para especificar la funcionalidad de la aplicación se han definido una serie de historias de usuario. La aplicación desarrollada solicita a los vehículos la información necesaria para calcular sus trayectorias y comprueba si pueden suponer algún peligro para el peatón, alertándole en ese caso. ABSTRACT Nowadays, smartphones are part of most people’s life, from the youngest to the oldest users, showing their usefulness in different activities and with different objectives, such as labour issues, studies, leisure or even safety. With respect to this last point, it has been detected a practical utility for pedestrians. According to the DGT, the 48% of the deceased due to urban accidents were pedestrians. In order to slash this figure, it was devised a project to increase pedestrian safety warning him of potential hazards that could affect him. To do so, it was needed that vehicles around him report their position and trajectory, and that a software analyse this information to detect potential risk situations. Due to the versatility and ubiquity of smartphones (practically the majority of people carries them continuously), it was decided to use them as support for the processing of this information. To specify the application functionality, it has been defined a set of user stories. The application developed requests the information needed to the vehicles to calculate their trajectories and checks if they may constitute a hazard for pedestrians, alerting them if that is the case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde los dibujos industriales futuristas de Sant Elia (1913-14) hasta la central hidroeléctrica de aires deconstructivistas de Becker Architekten (Kempten, Alemania; 2011), los arquitectos se han interesado continuamente por el diseño y construcción de presas y centrales. Las enormes paredes de hormigón o piedra que cierran los valles para embalsar el agua, que después caerá como un torrente a través de los aliviaderos constituyen, por su verticalidad, su potencia visual y sus evocaciones sonoras, uno de los elementos más interesantes a los que se tienen que enfrentar los técnicos a la hora de la construcción de este tipo de ingenios hidráulicos. Uno de los casos más interesantes de colaboración entre arquitectura e ingeniería es el de Antonio Palacios (1874-1945), relevante arquitecto de principios del s.XX, responsable de emblemáticos edificios de la capital (Círculo de Bellas Artes, Palacio de Correos...), y que realizó dos centrales hidroeléctricas, en Mengíbar (Jaén), y en Tambre (A Coruña). En esta comunicación analizaremos estos dos interesantes ejemplos de arquitectura hidroeléctrica comparándolos no sólo entre sí sino también con el resto de la obra industrial y civil de su autor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este póster es un resumen de mi tesis doctoral, la cual se centra en el análisis de un conjunto de presas y centrales hidroeléctricas españolas construidas durante el siglo XX y proyectadas por arquitectos con una importante obra construida y que fueron determinantes en la historia de la arquitectura española. Desde los dibujos futuristas de Sant¿Elia (1913-1914), hasta la central hidroeléctrica de aires deconstructivistas de Becker Architekten (Kempten, Alemania; 2011), los arquitectos se han interesado continuamente por este tipo de construcciones, por la imbricación en su conjunto de los elementos estéticos, paisajísticos, técnicos y funcionales propios de una obra arquitectónica pero aplicados a una fábrica hidráulica, con todas las connotaciones que ello conlleva. Además, la colaboración entre arquitectos e ingenieros en un equipo multidisciplinar que lleva de la mano una obra conjunta y coherente resulta mucho más fructífera, satisfactoria y apasionante: Luciano Yordi y Juan Castañón de Mena en Belesar (Lugo; 1963), Ignacio Álvarez Castelao y Juan José Elorza en Arenas de Cabrales, Silvón, Arbón y Aguilar de Campoo (Asturias; 1952-1969), o Antonio Palacios y Carlos Mendoza en Mengíbar (Jaén; 1913-1916), son ejemplos de que esta cooperación puede dar lugar a edificios muy interesantes. Como dice Teodoro Anasagasti: ¿Cómo podrán concebirse con el debido acierto las construcciones industriales? La respuesta es categórica. No cabe duda que proyectándolas unidos el ingeniero y el arquitecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se basa en el estudio de la trayectoria que pasa por dos puntos en el problema de los dos cuerpos, inicialmente desarrollado por Lambert, del que toma su nombre. En el pasado, el Problema de Lambert se ha utilizado para la determinación de órbitas a partir de observaciones astronómicas de los cuerpos celestes. Actualmente, se utiliza continuamente en determinación de órbitas, misiones planetaria e interplanetarias, encuentro espacial e interceptación, o incluso en corrección de orbitas. Dada su gran importancia, se decide investigar especialmente sobre su solución y las aplicaciones en las misiones espaciales actuales. El campo de investigación abierto, es muy amplio, así que, es necesario determinar unos objetivos específicos realistas, en el contexto de ejecución de una Tesis, pero que sirvan para mostrar con suficiente claridad el potencial de los resultados aportados en este trabajo, e incluso poder extenderlos a otros campos de aplicación. Como resultado de este análisis, el objetivo principal de la Tesis se enfoca en el desarrollo de algoritmos para resolver el Problema de Lambert, que puedan ser aplicados de forma muy eficiente en las misiones reales donde aparece. En todos los desarrollos, se ha considerado especialmente la eficiencia del cálculo computacional necesario en comparación con los métodos existentes en la actualidad, destacando la forma de evitar la pérdida de precisión inherente a este tipo de algoritmos y la posibilidad de aplicar cualquier método iterativo que implique el uso de derivadas de cualquier orden. En busca de estos objetivos, se desarrollan varias soluciones para resolver el Problema de Lambert, todas ellas basadas en la resolución de ecuaciones transcendentes, con las cuales, se alcanzan las siguientes aportaciones principales de este trabajo: • Una forma genérica completamente diferente de obtener las diversas ecuaciones para resolver el Problema de Lambert, mediante desarrollo analítico, desde cero, a partir de las ecuaciones elementales conocidas de las cónicas (geométricas y temporal), proporcionando en todas ellas fórmulas para el cálculo de derivadas de cualquier orden. • Proporcionar una visión unificada de las ecuaciones más relevantes existentes, mostrando la equivalencia con variantes de las ecuaciones aquí desarrolladas. • Deducción de una nueva variante de ecuación, el mayor logro de esta Tesis, que destaca en eficiencia sobre todas las demás (tanto en coste como en precisión). • Estudio de la sensibilidad de la solución ante variación de los datos iniciales, y como aplicar los resultados a casos reales de optimización de trayectorias. • También, a partir de los resultados, es posible deducir muchas propiedades utilizadas en la literatura para simplificar el problema, en particular la propiedad de invariancia, que conduce al Problema Transformado Simplificado. ABSTRACT This thesis is based on the study of the two-body, two-point boundary-value problem, initially developed by Lambert, from who it takes its name. Since the past, Lambert's Problem has been used for orbit determination from astronomical observations of celestial bodies. Currently, it is continuously used in orbit determinations, for planetary and interplanetary missions, space rendezvous, and interception, or even in orbit corrections. Given its great importance, it is decided to investigate their solution and applications in the current space missions. The open research field is very wide, it is necessary to determine specific and realistic objectives in the execution context of a Thesis, but that these serve to show clearly enough the potential of the results provided in this work, and even to extended them to other areas of application. As a result of this analysis, the main aim of the thesis focuses on the development of algorithms to solve the Lambert’s Problem which can be applied very efficiently in real missions where it appears. In all these developments, it has been specially considered the efficiency of the required computational calculation compared to currently existing methods, highlighting how to avoid the loss of precision inherent in such algorithms and the possibility to apply any iterative method involving the use of derivatives of any order. Looking to meet these objectives, a number of solutions to solve the Lambert’s Problem are developed, all based on the resolution of transcendental equations, with which the following main contributions of this work are reached: • A completely different generic way to get the various equations to solve the Lambert’s Problem by analytical development, from scratch, from the known elementary conic equations (geometrics and temporal), by providing, in all cases, the calculation of derivatives of any order. • Provide a unified view of most existing relevant equations, showing the equivalence with variants of the equations developed here. • Deduction of a new variant of equation, the goal of this Thesis, which emphasizes efficiency (both computational cost and accuracy) over all other. • Estudio de la sensibilidad de la solución ante la variación de las condiciones iniciales, mostrando cómo aprovechar los resultados a casos reales de optimización de trayectorias. • Study of the sensitivity of the solution to the variation of the initial data, and how to use the results to real cases of trajectories’ optimization. • Additionally, from results, it is possible to deduce many properties used in literature to simplify the problem, in particular the invariance property, which leads to a simplified transformed problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El consumo de combustible en un automóvil es una característica que se intenta mejorar continuamente debido a los precios del carburante y a la creciente conciencia medioambiental. Esta tesis doctoral plantea un algoritmo de optimización del consumo que tiene en cuenta las especificaciones técnicas del vehículo, el perfil de orografía de la carretera y el tráfico presente en ella. El algoritmo de optimización calcula el perfil de velocidad óptima que debe seguir el vehículo para completar un recorrido empleando un tiempo de viaje especificado. El cálculo del perfil de velocidad óptima considera los valores de pendiente de la carretera así como también las condiciones de tráfico vehicular de la franja horaria en que se realiza el recorrido. El algoritmo de optimización reacciona ante condiciones de tráfico cambiantes y adapta continuamente el perfil óptimo de velocidad para que el vehículo llegue al destino cumpliendo el horario de llegada establecido. La optimización de consumo es aplicada en vehículos convencionales de motor de combustión interna y en vehículos híbridos tipo serie. Los datos de consumo utilizados por el algoritmo de optimización se obtienen mediante la simulación de modelos cuasi-estáticos de los vehículos. La técnica de minimización empleada por el algoritmo es la Programación Dinámica. El algoritmo divide la optimización del consumo en dos partes claramente diferenciadas y aplica la Programación Dinámica sobre cada una de ellas. La primera parte corresponde a la optimización del consumo del vehículo en función de las condiciones de tráfico. Esta optimización calcula un perfil de velocidad promedio que evita, cuando es posible, las retenciones de tráfico. El tiempo de viaje perdido durante una retención de tráfico debe recuperarse a través de un aumento posterior de la velocidad promedio que incrementaría el consumo del vehículo. La segunda parte de la optimización es la encargada del cálculo de la velocidad óptima en función de la orografía y del tiempo de viaje disponible. Dado que el consumo de combustible del vehículo se incrementa cuando disminuye el tiempo disponible para finalizar un recorrido, esta optimización utiliza factores de ponderación para modular la influencia que tiene cada una de estas dos variables en el proceso de minimización. Aunque los factores de ponderación y la orografía de la carretera condicionan el nivel de ahorro de la optimización, los perfiles de velocidad óptima calculados logran ahorros de consumo respecto de un perfil de velocidad constante que obtiene el mismo tiempo de recorrido. Las simulaciones indican que el ahorro de combustible del vehículo convencional puede lograr hasta un 8.9% mientras que el ahorro de energía eléctrica del vehículo híbrido serie un 2.8%. El algoritmo fusiona la optimización en función de las condiciones del tráfico y la optimización en función de la orografía durante el cálculo en tiempo real del perfil óptimo de velocidad. La optimización conjunta se logra cuando el perfil de velocidad promedio resultante de la optimización en función de las condiciones de tráfico define los valores de los factores de ponderación de la optimización en función de la orografía. Aunque el nivel de ahorro de la optimización conjunta depende de las condiciones de tráfico, de la orografía, del tiempo de recorrido y de las características propias del vehículo, las simulaciones indican ahorros de consumo superiores al 6% en ambas clases de vehículo respecto a optimizaciones que no logran evitar retenciones de tráfico en la carretera. ABSTRACT Fuel consumption of cars is a feature that is continuously being improved due to the fuel price and an increasing environmental awareness. This doctoral dissertation describes an optimization algorithm to decrease the fuel consumption taking into account the technical specifications of the vehicle, the terrain profile of the road and the traffic conditions of the trip. The algorithm calculates the optimal speed profile that completes a trip having a specified travel time. This calculation considers the road slope and the expected traffic conditions during the trip. The optimization algorithm is also able to react to changing traffic conditions and tunes the optimal speed profile to reach the destination within the specified arrival time. The optimization is applied on a conventional vehicle and also on a Series Hybrid Electric vehicle (SHEV). The fuel consumption optimization algorithm uses data obtained from quasi-static simulations. The algorithm is based on Dynamic Programming and divides the fuel consumption optimization problem into two parts. The first part of the optimization process reduces the fuel consumption according to foreseeable traffic conditions. It calculates an average speed profile that tries to avoid, if possible, the traffic jams on the road. Traffic jams that delay drivers result in higher vehicle speed to make up for lost time. A higher speed of the vehicle within an already defined time scheme increases fuel consumption. The second part of the optimization process is in charge of calculating the optimal speed profile according to the road slope and the remaining travel time. The optimization tunes the fuel consumption and travel time relevancies by using two penalty factors. Although the optimization results depend on the road slope and the travel time, the optimal speed profile produces improvements of 8.9% on the fuel consumption of the conventional car and of 2.8% on the spent energy of the hybrid vehicle when compared with a constant speed profile. The two parts of the optimization process are combined during the Real-Time execution of the algorithm. The average speed profile calculated by the optimization according to the traffic conditions provides values for the two penalty factors utilized by the second part of the optimization process. Although the savings depend on the road slope, traffic conditions, vehicle features, and the remaining travel time, simulations show that this joint optimization process can improve the energy consumption of the two vehicles types by more than 6%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sector energético, en España en particular, y de forma similar en los principales países de Europa, cuenta con una significativa sobrecapacidad de generación, debido al rápido y significativo crecimiento de las energías renovables en los últimos diez años y la reducción de la demanda energética, como consecuencia de la crisis económica. Esta situación ha hecho que las centrales térmicas de generación de electricidad, y en concreto los ciclos combinados de gas, operen con un factor de utilización extremadamente bajo, del orden del 10%. Además de la reducción de ingresos, esto supone para las plantas trabajar continuamente fuera del punto de diseño, provocando una significativa pérdida de rendimiento y mayores costes de explotación. En este escenario, cualquier contribución que ayude a mejorar la eficiencia y la condición de los equipos, es positivamente considerada. La gestión de activos está ganando relevancia como un proceso multidisciplinar e integrado, tal y como refleja la reciente publicación de las normas ISO 55000:2014. Como proceso global e integrado, la gestión de activos requiere el manejo de diversos procesos y grandes volúmenes de información, incluso en tiempo real. Para ello es necesario utilizar tecnologías de la información y aplicaciones de software. Esta tesis desarrolla un concepto integrado de gestión de activos (Integrated Plant Management – IPM) aplicado a centrales de ciclo combinado y una metodología para estimar el beneficio aportado por el mismo. Debido a las incertidumbres asociadas a la estimación del beneficio, se ha optado por un análisis probabilístico coste-beneficio. Así mismo, el análisis cuantitativo se ha completado con una validación cualitativa del beneficio aportado por las tecnologías incorporadas al concepto de gestión integrada de activos, mediante una entrevista realizada a expertos del sector de generación de energía. Los resultados del análisis coste-beneficio son positivos, incluso en el desfavorable escenario con un factor de utilización de sólo el 10% y muy prometedores para factores de utilización por encima del 30%. ABSTRACT The energy sector particularly in Spain, and in a similar way in Europe, has a significant overcapacity due to the big growth of the renewable energies in the last ten years, and it is seriously affected by the demand decrease due to the economic crisis. That situation has forced the thermal plants and in particular, the combined cycles to operate with extremely low annual average capacity factors, very close to 10%. Apart from the incomes reduction, working in out-of-design conditions, means getting a worse performance and higher costs than expected. In this scenario, anything that can be done to improve the efficiency and the equipment condition is positively received. Asset Management, as a multidisciplinary and integrated process, is gaining prominence, reflected in the recent publication of the ISO 55000 series in 2014. Dealing Asset Management as a global, integrated process needs to manage several processes and significant volumes of information, also in real time, that requires information technologies and software applications to support it. This thesis proposes an integrated asset management concept (Integrated Plant Management-IPM) applied to combined cycle power plants and develops a methodology to assess the benefit that it can provide. Due to the difficulties in getting deterministic benefit estimation, a statistical approach has been adopted for the cot-benefit analysis. As well, the quantitative analysis has been completed with a qualitative validation of the technologies included in the IPM and their contribution to key power plant challenges by power generation sector experts. The cost- benefit analysis provides positive results even in the negative scenario of annual average capacity factor close to 10% and is promising for capacity factors over 30%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se estudia la vivienda “Tempe à pailla” (1932-1934) construida por Eileen Gray para uso propio, en la localidad francesa de Castellar. La expresión “cuarto propio” en el título del trabajo identifica este proyecto con la búsqueda de un lugar para la autoexperimentación. “Tempe à pailla” es el resultado de una enseñanza autodidacta adquirida por Eileen Gray gracias a la convivencia con los protagonistas del movimiento moderno, en el marco de la Francia de entreguerras. Las experiencias artesanales de E. Gray previas a la arquitectura y los instrumentos de aprendizaje permiten comprender el desarrollo de una mente crítica que cuestiona continuamente lo observado. Por ello, para demostrar la influencia de los postulados de los movimientos contemporáneos en la evolución de sus creaciones, y como preámbulo al análisis de “Tempe à pailla” se realiza un recorrido por las técnicas experimentadas y se analizan dos de sus primeros ejercicios de proyecto: “Vivienda de tres plantas” (1923) y “Maison pour un ingénieur” (1926). La enseñanza adquirida en torno a la herramienta del dibujo analítico y técnico, junto a su investigación en el campo de lo pictórico trasladada al mobiliario realizado en laca, o al diseño y tejido de tapices, constituyen un conjunto de prácticas que desembocan, primero en el acondicionamiento de interiores, para ensayar novedosas composiciones espaciales entre sus objetos y, por último, en el proyecto de arquitectura como disciplina capaz de conjugar todo lo experimentado anteriormente. El binomio Intuición más Método, en todos estos itinerarios prácticos de Eileen Gray, combinado con una mirada atenta hacia las obras, exposiciones, lecturas y revistas especializadas de su tiempo, amalgaman una personalidad compleja que investigó progresivamente, primero en el ámbito de la domesticidad, y en su etapa de madurez en torno a los mínimos de habitar y a los espacios colectivos. El propósito de esta tesis es descubrir cómo los aspectos sociales, artísticos y arquitectónicos del contexto, entrelazados con la propia subjetividad crítica de la arquitecto conforman los fundamentos de esta vivienda y condicionan las decisiones de una mente que proyecta copiando, reelaborando y descartando entre lo conocido y lo aprendido. La elección de esta casa como protagonista de la investigación persigue, en primer lugar, descubrir su relación con los discursos del momento, constituyéndose en objeto arquitectónico paradigmático de un diálogo continuado y abierto. Y en segundo lugar, establecer una síntesis valorativa de la coherencia o la falta de ella en las decisiones objetivas del proyecto, confrontándolas con otros ejemplos. Para alcanzar estos dos objetivos se ha diseccionado la casa desde cinco perspectivas: su vínculo con la preexistencia del lugar, su organización en planta alejada de cualquier tipo normalizado, su vocabulario como reflejo de la modernidad, las relaciones espacio-temporales conseguidas y la sinergia establecida entre el equipamiento doméstico y la arquitectura. Este desarrollo ha hecho posible situar “Tempe á pailla” como un punto de inflexión en la arquitectura de Eileen Gray, y un ejemplo donde fue capaz de anticipar las futuras revisiones del movimiento moderno en aspectos como: la adecuación y empatía de lo construido con el lugar de emplazamiento, el rechazo a las connotaciones del concepto de “machine d’habiter” y la búsqueda de un confort enfatizado por la percepción, la experiencia e incluso los efectos psicológicos del interior doméstico. La relectura de esta casa, enmarcada dentro de la trayectoria práctica de su autora, invita a fijar la mirada en un inexcusable aprendizaje, previo a lo arquitectónico, que aúne la TEORÍA y la PLÁSTICA del momento con ensayos materializados en la PRÁCTICA, demostrando que, para madurar el conocimiento y proyectar con criterio crítico, es imprescindible el factor TIEMPO. ABSTRACT This thesis examines the housing “Tempe à pailla” (1932-1934) built by Eileen Gray for her own use, in the French village of Castellar. The expression “own room” in the title of the work identifies this project as the searching for a place for self experimentation. “Tempe à pailla” is the result of a self-directed learning acquired by the authoress due to coexistence with the protagonists of the modern movement, within the framework of the interwar France. Gray’s craft experiences previous to the architecture along the learning tools allow us to understand the development of a critical mind that questions continuously what she observes. Therefore to demonstrate the influence of the postulates of the contemporary movements in the evolution of her creations, and as a preamble to analysis of “Tempe à pailla”, this thesis makes a tour, along the techniques that she experienced, and studies two of her first exercises of project: “Three-storey housing”(1923) and “Maison pour an ingénieur” (1926). Lesson learned around the analytical tool of architectural drawing, together her research in the field of painting transferred to furniture made in lacquer, or to the design and fabric of tapestries, they constitute a set of craft experiences that lead, first in the conditioning of interiors, rehearsing novel spatial compositions among her objects and finally in the architectural project as a discipline capable of combining everything she learnt previously The binomial Intuition plus Method in all of these practicals Eileen Gray’s itineraries, combined with her look toward the works, exhibitions, readings and journals of her time, become together a complex personality that progressively innovates firstly in the context of domesticity and, in her stage of maturity, on the minimum living and collective spaces. The purpose of this thesis is to discover how the social, artistic and architectural aspects of the context, interlaced with the own critical subjectivity of the architect shape the foundations of this housing and determine the decisions of a mind that projects copying, re-elaborating and rejecting among the aspects known and learned. The choice of this house as the protagonist of the thesis aims, first to discover the relationship with the speeches of her time, becoming a paradigmatic architectural object of a continued and open dialogue. And secondly, to establish a evaluative synthesis of the consistency or lack of it in the project decisions, confronting them with others appropriate examples. To achieve these two objectives the house has been dissected from five perspectives: Its link with the preexistence of the place, its organization on floor away any standard type, its vocabulary as a reflection of modernity reached spatial-temporal relations and the synergy established between the domestic equipment and architecture. The development has made possible to place “Tempe à pailla” as a turning point in the architecture of Eileen Gray, and an example where she was able to anticipate future revisions of the modern movement in aspects such as: adaptation and empathy of the architecture with the site, the rejection of the connotations of the concept of “machine d’habiter” and the pursuit of comfort emphasized by the perception, the experience and even the psychological effects of the domestic interior. The re-reading of this singular and reduced House, framed within the practical trajectory of her authoress, invites to gaze inexcusable learning prior to the architecture, which combines the THEORY and the PLASTIC with trials materialized in PRACTICE, demonstrating that the essential factor to mature knowledge and planning with critical criteria, is the TIME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los retos y oportunidades a los que se enfrentan las organizaciones y administraciones de las primeras décadas del siglo XXI se caracterizan por una serie de fuerzas perturbadoras como la globalización, el avance de las tecnologías emergentes y el desequilibrio económico, que están actuando como impulsores de la transformación del mercado. La acción conjunta de estos factores está obligando a todas las empresas industriales a tener que trabajar con mayores y más exigentes niveles de productividad planteándose continuamente como mejorar y lograr satisfacer los requerimientos de los clientes. De esta situación surge la necesidad de volver a plantearse de nuevo ¿quién es el cliente?, ¿qué valora el cliente? y ¿cómo se pueden generan beneficios sostenibles? La aplicación de esta reflexión a la industria naval militar marca los objetivos a los que esta tesis doctoral busca dar respuesta. El primer objetivo, de carácter general, consiste en la definición de un modelo de negocio sostenible para la industria naval militar del 2025 que se adapte a los requisitos del cliente y al nuevo escenario político, económico, social, tecnológico y ambiental que rodea esta industria. El segundo objetivo, consecuencia del modelo general, trata de desarrollar una metodología para ejecutar programas de apoyo al ciclo de vida del “buque militar”. La investigación se estructura en cuatro partes: en la primera se justifica, por un lado, la necesidad del cambio de modelo y por otro se identifican los factores estructurantes para la definición del modelo. La segunda parte revisa la literatura existente sobre uno de los aspectos básicos para el nuevo modelo, el concepto Producto-Servicio. La tercera parte se centra totalmente en la industria naval militar estudiando los aspectos concretos del sector y, en base al trabajo de campo realizado, se identifican los puntos que más valoran las Marinas de Guerra y como estas gestionan al buque militar durante todo su ciclo de vida. Por último se presentan los principios del modelo propuesto y se desarrollan los pilares básicos para la ejecución de proyectos de Apoyo al Ciclo de Vida (ACV). Como resultado de la investigación, el modelo propuesto para la industria naval militar se fundamenta en once principios: 1. El buque militar (producto de alto valor añadido) debe ser diseñado y construido en un astillero del país que desarrolla el programa de defensa. 2. El diseño tiene que estar orientado al valor para el cliente, es decir, se tiene que diseñar el buque militar para que cumpla su misión, eficaz y eficientemente, durante toda su vida operativa, asegurando la seguridad del buque y de las personas y protegiendo el medio ambiente de acuerdo con las regulaciones vigentes. 3. La empresa debe suministrar soluciones integrales de apoyo al ciclo de vida al producto. 4. Desarrollar y mantener las capacidades de integración de sistemas complejos para todo el ciclo de vida del buque militar. 5. Incorporar las tecnologías digitales al producto, a los procesos, a las personas y al propio modelo de negocio. 6. Desarrollar planes de actuación con el cliente domestico a largo plazo. Estos planes tienen que estar basados en tres premisas: (i) deben incluir el ciclo de vida completo, desde la fase de investigación y desarrollo hasta la retirada del buque del servicio; (ii) la demanda debe ser sofisticada, es decir las exigencias del cliente, tanto desde la óptica de producto como de eficiencia, “tiran” del contratista y (iii) permitir el mantenimiento del nivel tecnológico y de las capacidades industriales de la compañía a futuro y posicionarla para que pueda competir en el mercado de exportación. 7. Impulsar el sector militar de exportación mediante una mayor actividad comercial a nivel internacional. 8. Fomentar la multilocalización ya que representa una oportunidad de crecimiento y favorece la exportación posibilitando el suministro de soluciones integrales en el país destino. 9. Reforzar la diplomacia institucional como palanca para la exportación. 10. Potenciar el liderazgo tecnológico tanto en producto como en procesos con políticas activas de I + D+ i. 11. Reforzar la capacidad de financiación con soluciones innovadoras. El segundo objetivo de esta tesis se centra en el desarrollo de soluciones integrales de Apoyo al Ciclo de Vida (ACV). La metodología planteada trata de minimizar la brecha entre capacidades y necesidades a lo largo de la vida operativa del barco. Es decir, el objetivo principal de los programas de ACV es que la unidad conserve durante toda su vida operativa, en términos relativos a las tecnologías existentes, las capacidades equivalentes a las que tendrá cuando entre en servicio. Los ejes de actuación para conseguir que un programa de Apoyo al Ciclo de Vida cumpla su objetivo son: el diseño orientado al valor, la ingeniería de Apoyo al Ciclo de Vida, los proyectos de refresco de tecnología, el mantenimiento Inteligente y los contratos basados en prestaciones. ABSTRACT On the first decades of the 21st century, organizations and administrations face challenges and come across opportunities threatened by a number of disruptive forces such as globalization, the ever-changing emerging technologies and the economic imbalances acting as drivers of the market transformation. This combination of factors is forcing all industrial companies to have more and higher demanding productivity levels, while bearing always in mind how to improve and meet the customer’s requirements. In this situation, we need to question ourselves again: Who is the customer? What does the customer value? And how can we deliver sustainable economic benefits? Considering this matter in a military naval industry framework sets the goals that this thesis intends to achieve. The first general goal is the definition of a new sustainable business model for the 2025 naval industry, adapted to the customer requirements and the new political, economic, social, technological and environmental scenario. And the second goal that arises as a consequence of the general model develops a methodology to implement “warship” through life support programs. The research is divided in four parts: the first one justifies, on the one hand, the need to change the existing model and, on the other, identifies the model structural factors. On the second part, current literature regarding one of the key issues on the new model (the Product-Service concept) is reviewed. Based on field research, the third part focuses entirely on military shipbuilding, analyzing specific key aspects of this field and identifying which of them are valued the most by Navies and how they manage through life cycles of warships. Finally, the foundation of the proposed model is presented and also the basic grounds for implementing a Through Life Support (TLS) program are developed. As a result of this research, the proposed model for the naval industry is based on eleven (11) key principles: 1. The warship (a high added value product) must be designed and built in a shipyard at the country developing the defense program. 2. Design must be customer value oriented, i.e.warship must be designed to effectively fulfill its mission throughout its operational life, ensuring safety at the ship and for the people and protecting the environment in accordance with current regulations. 3. The industry has to provide integrated Through Life Support solutions. 4. Develop and maintain integrated complex systems capabilities for the entire warship life cycle. 5. Introduce the product, processes, people and business model itself to digital technologies. 6. Develop long-term action plans with the domestic customer. These plans must be based on three premises: (i) the complete life cycle must be included, starting from the research and development stage throughout the ship’s disposal; (ii) customer demand has to be sophisticated, i.e. customer requirements, both from the efficiency and product perspective, "attract" the contractor and (iii) technological level and manufacturing capabilities of the company in the future must be maintained and a competitive position on the export market has to be achieved. 7. Promote the military exporting sector through increased international business. 8. Develop contractor multi-location as it entails an opportunity for growth and promote export opportunities providing integrated solutions in the customer's country. 9. Strengthen institutional diplomacy as a lever for export. 10. Promote technological leadership in both product and processes with active R & D & I policies (Research & Development & Innovation) 11. Strengthen financing capacity through innovative solutions. The second goal of this thesis is focused on developing integrated Through Life Support (TLS) solutions. The proposed methodology tries to minimize the gap between needs and capabilities through the ship operational life. It means, the main TLS program objective is to maintain the ship’s performance and capabilities during operational life, in relative terms to current technologies, equivalent to those the ship had when it entered service. The main actions to fulfill the TLS program objectives are: value-oriented design, TLS engineering, technology updating projects, intelligent maintenance and performance based contracts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, a través de los sistemas de Tecnologías de la Información (TI) se ofrecen servicios muy diversos que tienen requisitos cada vez más específicos para garantizar su funcionamiento. Con el fin de cumplir dichas garantías, se han estandarizado diferentes normativas, así como marcos de trabajo, también llamadas recomendaciones o manuales de buenas prácticas, que permiten al proveedor de servicios verificar que se cumplen dichos requisitos y ofrecer tanto al cliente final como a la propia organización un servicio de calidad que permita generar valora todas las partes. Con la aplicación de dichas recomendaciones y normativas, las empresas y Administraciones Públicas garantizan que los servicios telemáticos que ofrecen, cumplen estándares de calidad permitiendo así ofrecer al usuario final una plataforma estable y adecuada al servicio prestado. Dichas normas y marcos hacen referencia tanto al servicio TI propiamente dicho como al propio sistema de gestión del servicio TI, de tal forma que, a través de una operación adecuada del sistema que gestiona el servicio, podemos hacer que dicho servicio esté continuamente mejorando. En concreto nos centramos en la norma más empleada, ISO 20000, y en el marco de trabajo o referencia de buenas prácticas, ITIL 2011, con el fin de dar una visión clara de los diferentes procesos, actividades y funciones que ambas definen para generar valor en la empresa a través de los sistemas de TI. Con el fin de ayudar a la comprensión tanto de ITIL como de ISO 20000, se ha desarrollado a modo de ejemplo la implementación tanto de ITIL inicialmente y luego ISO 20000 sobre de un servicio que ya está en funcionamiento definiendo para cada una de las cinco fases del ciclo de vida que, tanto en la norma como en el marco se utilizan, los procesos y funciones necesarias para su implementación, y su posterior revisión. ABSTRACT. Today, we’ve got a lot of different services thanks to Information Technologies (IT) service management: they have increasingly specific requirements to ensure a good operation on the service they support. In order to meet these requirements, it has been released different standardized regulations and frameworks, also called recommendations or good practice guides. They allow the service provider to verify that such requirements are met and offer both to the end customer and to the own organization that manage this system, a quality service that will generate value to both parts. In the end, with the implementation of these recommendations and regulations, companies and public authorities ensure that the telematics services offered meet the quality standards they seek, allowing the end user to offer a stable and appropriate service platform. So these standards and reference frames both implies on the IT service itself and on the IT service management, so that, through proper operation of the parts implied on the process that manages the service, we can offer a better service. In particular we focus on the most widely used standard, ISO 20000, and the reference framework or best practices, ITIL 2011, in order to give a clear overview of the different processes, activities and functions that define both to create value in the company through IT service management. To help the understanding of both ITIL and ISO 20000, it has been developed an example of an ITIL and then ISO 20000 implementation on a service that is already in operation defining for each of the five phases of the life cycle, both in the standard as used in the context, processes and functions necessary for its implementation, and later review.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1966 y 1967 un pequeño grupo de jóvenes arquitectos recién titulados en la Facultad de Arquitectura de Florencia escenifican en dos actos programados en las ciudades de Pistoia y Módenala exposición Superarchitettura, con la que sin saberlo inauguran un corto pero intenso periodo de experimentación arquitectónica que convulsionaría Italia durante los 10 años posteriores, dinamitados por multitud de propuestas que darán lugar a la última arquitectura con aspiraciones socio-políticas responsable de un vibrante legado teórico que proclamaba la vuelta a las raíces olvidadas de la profesión y que se mostraba más preocupada por reflexionar sobre sus fundamentos que por perpetuar la práctica de un oficio ahora puesto en crisis. Ambos eventos suponen también el nacimiento simultáneo de Superstudio y Archizoom, dos de los colectivos más influyentes de la arquitectura experimental italiana de estos años, convertidos en protagonistas de un agitado periodo de transición en el que una generación estaba dando paso a la siguiente a través de la sustitución de los principios doctrinarios recibidos de la modernidad por una jugosa incertidumbre desmitificadora ligada a una nueva realidad económica, política y social que marcaría los inicios de la posmodernidad. La experiencia italiana surge aprovechando la efervescencia de un fenómeno que posteriormente algunos críticos etiquetaron como Arquitectura Radical con la intención de unificar el trabajo de un heterogéneo y atomizado grupo de arquitectos fundamentalmente europeos – individualmente comprometidos con el replanteamiento total de la definición y objetivos de la disciplina, al tiempo que participaban en una particular cruzada existencial mediante la que pretendían, si no cambiar el mundo, al menos romper la dinámica estéril de la arquitectura profesional y tecnológica heredada. La presente tesis fomenta la recuperación interesada de este breve momento radical como un ambicioso proyecto de modernización inacabado, pero no solo para analizar las causas de su precipitado final, sino sobre todo para mostrar las razones de su gran éxito internacional, convirtiendo para ello el trabajo de Superstudio, ejemplo paradigmático de la actitud crítica compartida por el resto de operadores contemporáneos, en el catalizador adecuado a partir del cual interpretar y extrapolar su legado con el fin de narrar el cambio trascendental que este episodio supuso para la práctica arquitectónica, alejándola del diseño de edificios y centrándola en la adopción y aplicación de multitud de actividades no tectónicas en un intento por separarse de lo que era percibido como una disciplina corrupta. A lo largo de su corta carrera en común, los seis miembros de Superstudio sustituyeron la construcción convencional por la explotación intensiva de medios alternativos desde el diseño de mobiliario e iluminación y algunos experimentos en torno a la “arquitectura eléctrica”, hasta la expansión mediática de su trabajo a través de revistas, películas, exposiciones y conferencias contribuyendo así a una provocativa destrucción y posterior expansión de los límites dentro de los que hasta ese momento se había mantenido cómodamente instalada la arquitectura. Esta investigación descubre la trascendencia de considerar aquello que ocupó gran parte de la actividad de Superstudio y de sus colegas radicales (muebles, revistas, instalaciones, películas, labor teórica y docente, etc.) como nuevas formas de arquitectura con las que construir un nuevo lenguaje crítico, en un intento por contribuir a renovar y reforzar la relevancia y responsabilidad social de una profesión llamada a expandirse más allá de lo construido para nutrirse e interactuar con todos los ámbitos de nuestro entorno diario. ABSTRACT Between 1966 and 1967 a small group of newly qualified young architects from the Faculty of Architecture of Florence staged in two events planned in the cities of Pistoia and Modena the Superarchitettura exhibition, with which unwittingly inaugurated a short but intense period of architectural experimentation that convulse Italy during the following 10 years, blown up by a multitude of proposals that will result in the latest architecture with socio political aspirations responsible for a vibrant theoretical legacy proclaiming a return to forgotten roots of the profession and that was more concerned with reflect on its fundamentals than perpetuate the practice of a profession now put into crisis. Both events also involve the simultaneous birth of Superstudio and Archizoom, two of the most influential groups of Italian experimental architecture of these years, turned into protagonists of an hectic period of transition in which a generation was giving way to the next through replacing the received doctrinal principles of modernity by a juicy demystifying uncertainty linked to a new reality economic, political and social that would mark the beginning of postmodernism. The Italian experience arises taking advantage of the commotion of a phenomenon that later some critics labeled as Radical Architecture with the intention of unifying the work of a diverse and fragmented group of architects mainly European individually committed to the total rethinking of the definition and objectives of the discipline, while participating in a particular existential crusade with which they sought to, if not change the world, at least break out of the sterile dynamic of professional and technological architecture inherited. This doctoral thesis promotes an interested recovery of in this short radical time as an ambitious modernization project unfinished, but not only to analyze the causes of its precipitous end, but above all to show the reasons for it’s international success, turning the work of Superstudio, a paradigmatic example of the critical attitude shared by the rest of contemporary operators, into the suitable catalyst from which to interpret and extrapolate it’s legacy in order to recount the significant change that this episode marked for architectural practice, moving it away from building and focusing it on the adoption and implementation of many nonLtectonic activities in an attempt to separate from what was perceived as a corrupt discipline. Throughout their short career in common, the six members of Superstudio replaced conventional construction by intensive exploitation of alternative means L from furniture and lighting design and some experiments around the "electric architecture", to the media expansion of their work through magazines, films, exhibitions and lectures thus contributing to a provocative destruction and subsequent expansion of the limits within which architecture had remained ensconced until then. This dissertation finds out the importance of considering what occupied much of the activity of Superstudio and their radical colleagues (furniture, magazines, installations, films, theoretical and educational work, etc.) as new forms of architecture that build a new critical language, in an attempt to help renew and reinforce the relevance and social responsibility of a profession call to expand beyond the built to nourish and interact with all areas of our everyday environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar los aspectos fundamentales de la obra del paisajista norteamericano Dan Kiley a través del ejemplo de la casa Miller en Columbus, Indiana. A la hora de abordar el estudio se ha tratado por una parte de estudiar y explicar cuánto hay de relevante en esta obra, pero también de situarla en su contexto. Éste es, además, múltiple: el de la obra, de su autor, el del lugar en que se encuentra y el del momento cultural e histórico en que se produce. En el caso de la casa Miller, la autoría es compartida, y el resultado final, como ocurre en muchos casos de viviendas unifamiliares, responde a un carácter coral, en el que los protagonistas son varios, con mayor o menor influencia, pero indispensables todos ellos en la visión final de conjunto. El primero de los aspectos a considerar son los antecedentes que la han hecho posible ya que el entorno que conforma el universo de Dan Kiley hasta llegar a Columbus es fundamental para entender las circunstancias de partida de una obra como la casa Miller: sus años previos a la universidad, su particular relación con el paisaje a través de sus diferentes trabajos, su extenso conocimiento de las especies de plantas y la experiencia acumulada trabajando para Warren Manning, como la formación basada en la enseñanza, herencia de Olsmted y de las Bellas Artes. Después, sus compañeros de Harvard Eckbo y Rose, la influencia dentro de la universidad tanto de Walter Gropius como de los paisajistas Thomas Church o Christopher Tunnard y de los jardines realizados en Europa durante las primeras décadas del siglo XX conocidos a través de las publicaciones y de la arquitectura de Mies van der Rohe. Años más tarde, después de haber abandonado Harvard, la decisiva influencia de Eero Saarinen y también la de sus relaciones con los diversos colaboradores, los primeros viajes a Europa y con ello la posibilidad de visitar las grandes obras de Le Nôtre. Por otro lado, y en paralelo, la biografía de Irwin Miller, propietario de la casa, nos lleva hasta el momento en el que se ponen en contacto las tres figuras clave para el inicio de las obras (Miller, Saarinen y Kiley) terminando de situar a la casa Miller en el contexto biográfico de su creación. El análisis del lugar, una ciudad tan especial como Columbus, nos remite continuamente a la figura de Irwin Miller, manteniendo siempre una relación indisoluble entre este singular patrono y su ciudad, materializada en la creación del Architecture Program. La primera parte del trabajo aborda estos temas, alternando entre una figura y otra, aunque todas las partes se encuentran ligadas entre sí. En la segunda parte de la tesis se analiza en profundidad primero la casa Miller y después con una mayor precisión los jardines: su esquema compositivo general, sus tres partes diferenciadas y dentro de ellas las sucesivas subpartes que las componen. El análisis se estructura en tres fases: una primera descriptiva del desarrollo del proyecto hasta su materialización en la obra, la siguiente que analiza lo realmente ejecutado y por último los cambios sufridos a lo largo del tiempo. En cuanto al análisis propio de la casa y los jardines, la información de los planos, así como de las fotografías familiares, junto con las imágenes más oficiales de la casa pertenecientes a Ezra Stoller y Balthazar Korab, permitirá conocer los cambios producidos a lo largo del tiempo debidos a diversos factores, como el cambio de criterio en cuanto al uso o decisiones personales del matrimonio Miller: sustitución de plantas y árboles, desaparición de elementos curiosos como las cascadas del techo de uno de los porches, o aparición de elementos singulares que formaran parte de las visiones ya clásicas de la casa, como la escultura de Henry Moore. La tercera parte de la tesis describe la influencia de los jardines de Le Nôtre en el jardín de la casa Miller, gracias a la utilización y adaptación de numerosos recursos del jardín barroco francés, y se configura, junto con el análisis de las obras de jardín doméstico más significativas de Kiley en su obra posterior a la Miller, como el análisis final de todo el trabajo. La utilización de estos instrumentos depurados bajo una estética formal propia del movimiento moderno tiene una singularidad única en los jardines de la Miller, y a pesar de que a lo largo de su carrera Dan Kiley convirtió esta utilización en una constante, no logró la armonía demostrada en esta residencia de Columbus en ninguno de los jardines posteriores en cuanto a forma, escala, relación entre las partes, respuesta a las necesidades de uso y de evolución a lo largo del tiempo. ABSTRACT The purpose of this thesis is to study the fundamental aspects of the work of the american landscape architect Dan Kiley through the example of the Miller House in Columbus, Indiana. When addressing the study it was treated on the one hand to study and explain how much is relevant in this work, but also put it into context. This is also multiple: the work, its author, the place where it lands and the cultural and historical context in which it occurs. In the case of the Miller house, the authorship is shared, and the end result, as in many cases houses, responds to a coral nature, in which the protagonists are several, with more or less influence on it, but indispensable all of them in the final overview. The first aspect to be considered are the antecedents that made it possible, because the environment which forms the universe of Dan Kiley to reach Columbus is essential to understand the circumstances of departure for a work like the Miller house: his previous years of college, his particular relationship with the landscape through his different jobs, his extensive knowledge of species of plants and the accumulated experience working for Warren Manning, and also the training based on Olmsted and Beaux Arts heritage . After that, his Harvard fellows Eckbo and Rose, the influence from Walter Gropius Thomas Church and Christopher Tunnard within the university, and also the landscape and garden made in Europe during the first decades of the twentieth century known through publications and the architecture of Mies van der Rohe. Years later, after leaving Harvard , the decisive influence of Eero Saarinen and also his relationships with various partners, the first trips to Europe and therefore the opportunity to visit the great works of Le Nôtre. On the other hand, and in parallel, Irwin Miller´s biography, owner of the house, takes us to the time when the three key figures come into contact to the start the construction (Miller, Saarinen and Kiley) putting the Miller house into the biographical context of its creation. The analysis of the place, a very special city like Columbus, continually refers us to Irwin Miller´s figure while maintaining an indissoluble relationship between employer and this unique city, materialized in the creation of the Architecture Program. The first part of the work deals with these issues, alternating between one figure and another, although all parties are linked. The second part of the thesis analyzes in depth Miller´s house and then with greater precision the gardens: its overall compositional scheme, its three distinct parts and within them the successive subparts that compose the garden The analysis is divided into three phases: the first one is focused in the project development to its materialization in the final work, the second one which analyzes what is really executed and finally the changes undergone over time. As for the own analysis of the house and gardens, the information drawings, as well as family photographs, along with the official pictures of the house belonging to Ezra Stoller and Balthazar Korab, will reveal the changes throughout time due to various factors, as the change in criterion for the use, or Miller´s marriage personal decisions: replacement of plants and trees, disappearance of curious elements like waterfalls roof of one of the porches, or appearance of single elements that now have become part of the classic visions of the house, like the sculpture of Henry Moore. The third part of the thesis describes the influence of the gardens of Le Nôtre in the garden of Miller´s house, through the use and adaptation of numerous resources from the French Baroque garden, and it is configured as the final analysis of of the work, also with the description of Kiley´s most significant post-Miller one family housing gardens. The use of these released under its own formal aesthetics of modernism instruments has a unique singularity in the gardens of the Miller´s , and although Dan Kiley turned this use in a constant throughout his career, he never got to the harmony demonstrated in Columbus residence in any of the later gardens in form, scale, relationship between the parties, responding to the needs of use and evolution over time.