67 resultados para Operadores argumentativos
Resumo:
La presente tesis analiza la integración del sector de las telecomunicaciones con los de TI y medios que conforman el actual hiper-sector de las TIC, para abordar una propuesta de valor que se plantea a dos niveles. Se expone de un lado, la iniciativa WIMS 2.0, que aborda los aspectos tecnológicos y estratégicos de la convergencia telco e Internet para, posteriormente, definir un nuevo modelo de negocio, que adaptado al nuevo sector integrado y siguiendo paradigmas inéditos como los que plantea la innovación abierta, permita generar nuevos flujos de ingresos en áreas no habituales para los operadores de telecomunicaciones. A lo largo del capítulo 2, el lector encontrará la contextualización del entorno de las comunicaciones de banda ancha desde tres vertientes: los aspectos tecnológicos, los económicos y el mercado actual, todo ello enfocado en una dimensión nacional, europea y mundial. Se establece de esta manera las bases para el desarrollo de los siguientes capítulos al demostrar cómo la penetración de la banda ancha ha potenciado el desarrollo de un nuevo sistema de valor en el sector integrado de las TIC, alrededor del cual surgen propuestas de modelos de negocio originales que se catalogan en una taxonomía propia. En el tercer capítulo se detalla la propuesta de valor de la iniciativa WIMS 2.0, fundada y liderada por el autor de esta tesis. WIMS 2.0, como iniciativa abierta, se dirige a la comunidad como una propuesta de un nuevo ecosistema y como un modelo de referencia integrado sobre el que desplegar servicios convergentes. Adicionalmente, sobre el planteamiento teórico definido se aporta el enfoque práctico que supone el despliegue del modelo de referencia dentro de la arquitectura de un operador como Telefónica. El capítulo 4 muestra el modelo de negocio Innovación 2.0, basado en la innovación abierta con el objetivo de capturar nuevos flujos de ingresos incrementando el portfolio de servicios innovadores gracias a las ideas frescas y brillantes de start-ups. Innovación 2.0 lejos de quedarse en una mera propuesta teórica, muestra sus bondades en el éxito práctico en el mercado que ha validado las hipótesis planteadas. El último capítulo plantea las líneas futuras de investigación tanto en el ámbito de la iniciativa WIMS 2.0 como en el modelo de Innovación 2.0, algunas de las cuales se están comenzando a abordar. 3 Abstract This thesis examines the integration of telecommunications sector with IT and media that make up the current hyper-ICT sector, to address a value proposition that arises at two levels. On one side, WIMS 2.0 initiative, which addresses the technological and strategic aspects of the telco and Internet convergence to later define a new business model, adapted to the new integrated sector and following original paradigms such as those posed by open innovation, which generates new revenue streams in areas not typical for telecom operators. Throughout Chapter 2, the reader will find the contextualization of the broadband communications environment from three aspects: technological, economic and the current market all focused on a national, European and world scale. Thus it establishes the basis for the development of the following chapters by demonstrating how the penetration of broadband has led to the development of a new value system in the integrated sector of the ICT, around which arise proposals of originals business models, which are categorized in a own taxonomy. The third chapter outlines the value proposition of the WIMS 2.0 initiative, founded and led by the author of this thesis. WIMS 2.0, as open initiative, presents to the community a proposal for a new ecosystem and an integrated reference model on which to deploy converged services. Additionally, above the theoretical approach defined, WIMS 2.0 provides the practical approach is provided which is the deployment of the reference model into the architecture of an operator such as Telefónica. Chapter 4 shows the Innovation 2.0 business model, based on open innovation with the goal of capturing new revenue streams by increasing the portfolio of innovative services thanks to the fresh and brilliant ideas from start-ups. Innovation 2.0, far from being a mere theoretical proposition, shows its benefits in the successful deployment in the market, which has validated the hypotheses. The last chapter sets out the future research at both the WIMS 2.0 initiative and Innovation 2.0 model, some of which are beginning to be addressed.
Resumo:
Análisis de las desviaciones de las trayectorias de aeronaves en despegues. Sanciones a los operadores.
Resumo:
El objetivo principal del trabajo es analizar cuáles son las estrategias de creación de valor más relevantes y exitosas en el mercado de las operadoras de red móvil. Para ello se realiza un estudio de los distintos mercados mundiales, incluyendo un análisis segmentado que permita extraer conclusiones acerca de las estrategias desarrolladas por los diferentes operadores. Tras segmentar en función del crecimiento del producto interior bruto de cada país, y en función al crecimiento del mercado móvil para los años 2010-2013, se han identificado los siguientes grupos con características diferenciadas: Mercados europeos Mercados sur de Europa Mercados competitivos Mercados confort Partiendo de esta segmentación, se han estudiado con mayor grado de detalle los operadores de cada uno de los mercados, utilizando una serie de variables e indicadores como medidas de la creación/destrucción de valor
Resumo:
La siguiente tesis nace a partir de la implementación de la actividad de buceo deportivo en el año 2002 en la Caleta de pescadores artesanales de Maitencillo, quinta región, Chile. Los pescadores administran, para su explotación, un tipo de área marina protegida llamada área de manejo y explotación de recursos bentónicos (AMERB), por lo que se hizo indispensable implementar un Plan de Gestión para el buceo deportivo con la finalidad de regular y controlar la actividad para proteger los recursos existentes en el área, sus ecosistemas y su biodiversidad. Para ello, se construyó un Sendero Submarino con 3 circuitos para el buceo. La tesis contextualiza el desarrollo y ejecución del proyecto y evalúa el Plan de Gestión y la utilización del Sendero Submarino y, para ello, se desarrolla una metodología para el cálculo de la capacidad de carga del Sendero y para la evaluación del Plan de Gestión, a través de indicadores biofísicos, socioeconómicos y de gobernabilidad. Esta tesis plantea un modelo de desarrollo a partir del principio del Ecodesarrollo, destacando, principalmente, que es la comunidad local de pescadores artesanales quien ejecuta y administra el proyecto, sin necesidad de recurrir a operadores privados de buceo y, por tanto, logrando para si los beneficios y el control de la actividad; por otro lado, destaca también que es una actividad a baja escala, con bajos impactos ambientales y por tanto sustentable y replicable para otras organizaciones de pescadores. Los resultados indican que con la información biofísica obtenida se pueden tomar medidas de gestión para la actividad de buceo de acuerdo al estado de los recursos bentónicos principales explotados por los pescadores, ya sea restringiendo la actividad, o suspendiéndola por algún período. Los resultados muestran que la cantidad de buceadores que utilizan el Sendero Submarino está muy por debajo de la capacidad de carga calculada, lo que hace que la presión de esta actividad sobre los recursos y el ecosistema marino sea muy baja. Los resultados socioeconómicos y de gobernabilidad indican que esta actividad ha generado ingresos adicionales para los pescadores que trabajan en esta actividad y también ha generado nuevos puestos de trabajo; además, la organización sindical se ha ido fortaleciendo al crear la comisión de ecoturismo y dar responsabilidades a otros pescadores en la gestión de la actividad. La tesis confirma la hipótesis de que “Los Senderos Submarinos pueden ser una forma de turismo sostenible en áreas marinas protegidas”. The present thesis is based on the implementation of scuba diving activities in the year 2002, in the local fishing cove of Maitencillo, Fifth region, Chile. The local fishermen manage the exploitation process of a type of protected marine area called benthic resource management and exploitation area (BRMEA); for this reason, the implementation of a Management programme for scuba diving to regulate and control this activity to protect the resources in the area, their ecosystems and biodiversity, became a priority. In 2002, an Underwater Path was built, with three tracks for scuba diving practice. This thesis contextualises the development and implementation of the Management programme and the use of the Underwater Path. It also develops a methodology to calculate the payload for the Underwater Path, and to assess the Management project through biophysical, economic and governance indicators. This thesis also proposes a development model by the principle of Sustainable development, with the local community of fishermen implementing and handling the project, without the intervention of private diving agencies, generating economic and social benefits, keeping environmental impact to a minimum level, and making it sustainable and worth emulating for other fishermen organisations. The results indicate, through the biophysical data obtained, that it is possible to take managerial measures regarding the scuba diving activity, according to the state of the most exploited benthic resources, by either restricting the activity or plainly suspending it for some time. The results show that the amount of divers using the Underwater path are way below the calculated payload, which keeps the strain that scuba diving causes on these resources and marine ecosystem to the minimum. The results of the socioeconomic and governance issues indicate that this activity has generated additional profits for the fishermen working in this activity, and also new jobs. Furthermore, the syndicate has strengthened thanks to the creation of an ecotourism commission and by assigning other local fishermen with responsibilities in the organisation of the activity. The thesis confirms the hypothesis that states, “Underwater Paths can become a form of sustainable tourism in protected marine areas”
Resumo:
Esta Tesis aborda el diseño e implementación de aplicaciones en el campo de procesado de señal, utilizando como plataforma los dispositivos reconfigurables FPGA. Esta plataforma muestra una alta capacidad de lógica, e incorpora elementos orientados al procesado de señal, que unido a su relativamente bajo coste, la hacen ideal para el desarrollo de aplicaciones de procesado de señal cuando se requiere realizar un procesado intensivo y se buscan unas altas prestaciones. Sin embargo, el coste asociado al desarrollo en estas plataformas es elevado. Mientras que el aumento en la capacidad lógica de los dispositivos FPGA permite el desarrollo de sistemas completos, los requisitos de altas prestaciones obligan a que en muchas ocasiones se deban optimizar operadores a muy bajo nivel. Además de las restricciones temporales que imponen este tipo de aplicaciones, también tienen asociadas restricciones de área asociadas al dispositivo, lo que obliga a evaluar y verificar entre diferentes alternativas de implementación. El ciclo de diseño e implementación para estas aplicaciones se puede prolongar tanto, que es normal que aparezcan nuevos modelos de FPGA, con mayor capacidad y mayor velocidad, antes de completar el sistema, y que hagan a las restricciones utilizadas para el diseño del sistema inútiles. Para mejorar la productividad en el desarrollo de estas aplicaciones, y con ello acortar su ciclo de diseño, se pueden encontrar diferentes métodos. Esta Tesis se centra en la reutilización de componentes hardware previamente diseñados y verificados. Aunque los lenguajes HDL convencionales permiten reutilizar componentes ya definidos, se pueden realizar mejoras en la especificación que simplifiquen el proceso de incorporar componentes a nuevos diseños. Así, una primera parte de la Tesis se orientará a la especificación de diseños basada en componentes predefinidos. Esta especificación no sólo busca mejorar y simplificar el proceso de añadir componentes a una descripción, sino que también busca mejorar la calidad del diseño especificado, ofreciendo una mayor posibilidad de configuración e incluso la posibilidad de informar de características de la propia descripción. Reutilizar una componente ya descrito depende en gran medida de la información que se ofrezca para su integración en un sistema. En este sentido los HDLs convencionales únicamente proporcionan junto con la descripción del componente la interfaz de entrada/ salida y un conjunto de parámetros para su configuración, mientras que el resto de información requerida normalmente se acompaña mediante documentación externa. En la segunda parte de la Tesis se propondrán un conjunto de encapsulados cuya finalidad es incorporar junto con la propia descripción del componente, información que puede resultar útil para su integración en otros diseños. Incluyendo información de la implementación, ayuda a la configuración del componente, e incluso información de cómo configurar y conectar al componente para realizar una función. Finalmente se elegirá una aplicación clásica en el campo de procesado de señal, la transformada rápida de Fourier (FFT), y se utilizará como ejemplo de uso y aplicación, tanto de las posibilidades de especificación como de los encapsulados descritos. El objetivo del diseño realizado no sólo mostrará ejemplos de la especificación propuesta, sino que también se buscará obtener una implementación de calidad comparable con resultados de la literatura. Para ello, el diseño realizado se orientará a su implementación en FPGA, aprovechando tanto los elementos lógicos generalistas como elementos específicos de bajo nivel disponibles en estos dispositivos. Finalmente, la especificación de la FFT obtenida se utilizará para mostrar cómo incorporar en su interfaz información que ayude para su selección y configuración desde fases tempranas del ciclo de diseño. Abstract This PhD. thesis addresses the design and implementation of signal processing applications using reconfigurable FPGA platforms. This kind of platform exhibits high logic capability, incorporates dedicated signal processing elements and provides a low cost solution, which makes it ideal for the development of signal processing applications, where intensive data processing is required in order to obtain high performance. However, the cost associated to the hardware development on these platforms is high. While the increase in logic capacity of FPGA devices allows the development of complete systems, high-performance constraints require the optimization of operators at very low level. In addition to time constraints imposed by these applications, Area constraints are also applied related to the particular device, which force to evaluate and verify a design among different implementation alternatives. The design and implementation cycle for these applications can be tedious and long, being therefore normal that new FPGA models with a greater capacity and higher speed appear before completing the system implementation. Thus, the original constraints which guided the design of the system become useless. Different methods can be used to improve the productivity when developing these applications, and consequently shorten their design cycle. This PhD. Thesis focuses on the reuse of hardware components previously designed and verified. Although conventional HDLs allow the reuse of components already defined, their specification can be improved in order to simplify the process of incorporating new design components. Thus, a first part of the PhD. Thesis will focus on the specification of designs based on predefined components. This specification improves and simplifies the process of adding components to a description, but it also seeks to improve the quality of the design specified with better configuration options and even offering to report on features of the description. Hardware reuse of a component for its integration into a system largely depends on the information it offers. In this sense the conventional HDLs only provide together with the component description, the input/output interface and a set of parameters for its configuration, while other information is usually provided by external documentation. In the second part of the Thesis we will propose a formal way of encapsulation which aims to incorporate with the component description information that can be useful for its integration into other designs. This information will include features of the own implementation, but it will also support component configuration, and even information on how to configure and connect the component to carry out a function. Finally, the fast Fourier transform (FFT) will be chosen as a well-known signal processing application. It will be used as case study to illustrate the possibilities of proposed specification and encapsulation formalisms. The objective of the FFT design is not only to show practical examples of the proposed specification, but also to obtain an implementation of a quality comparable to scientific literature results. The design will focus its implementation on FPGA platforms, using general logic elements as base of the implementation, but also taking advantage of low-level specific elements available on these devices. Last, the specification of the obtained FFT will be used to show how to incorporate in its interface information to assist in the selection and configuration process early in the design cycle.
Resumo:
El presente proyecto fin de carrera tiene como objetivo realizar un estudio del núcleo de red en las de redes de nueva generación (NGN) y de cómo la evolución de las redes actuales hacia estos conceptos producirá un cambio en la forma de pensar y desarrollar las redes de comunicaciones del futuro. El estudio esta desglosado en tres grandes partes y se inicia con el análisis de la evolución que ha sufrido el núcleo de red en las redes de comunicaciones móviles digitales desde la implantación de las primeras redes digitales hasta la actualidad abarcando tanto la evolución de las redes troncales como de las redes de acceso así como los cambios que han tenido lugar tanto dentro de las propias estructuras de red de los operadores como la forma de interconectarse entre sus redes. Una segunda parte que constituye el cuerpo teórico del trabajo donde se estudia a nivel funcional y de arquitectura de red el desarrollo de los nuevos modelos de red proporcionados por los organismos de estandarización que dan lugar a la aparición de las redes de nueva generación (NGN) y que constituirán el siguiente paso en la evolución de las redes de comunicaciones hacia una infraestructura de red común para todas las redes de acceso actuales. Y una tercera parte que tiene como objetivo el estudio del grado de transformación que tienen que sufrir el núcleo de red en actuales redes troncales de comunicaciones móviles y terrestres, así como una valoración del estado actual de dicha integración, de las dificultades que están encontrando fabricantes y proveedores de servicio para la implementación de dichas redes en el contexto tecnológico y económico actual y su respectivo análisis de como afectará este cambio a los modelos de negocio de los proveedores de servicios de telecomunicaciones. Finalmente se estudia como se esta llevando a cabo este proceso por medio de un caso práctico de implantación e interconexión de la solución propuesta por un fabricante de equipamiento basándose en los modelos anteriormente expuestos en una red comercial de un operador en España y todas las implicaciones asociadas a esta caso concreto. The object of this work is to provide a deep view about the core network inside next generation network (NGN) and how the evolution of the current comunications networks towards the concepts introduced by these new networks brings a change in the way of think and develop communications networks of the future. This work is composed of three blocks and one real case and it starts with the analysis of the evolution of the core network in digital mobile comunications networks since the beginning of the digital mobile comunications networks deployments until nowadays both in core network side and access network side and how the providers have made changes inside their comunications infrastructure and how they interconnect them with other networks. A second part which is the central theoretical part of this work where it is studied the next generation network models stablished by telecomunications associations and how they will be the next step in the evolution of comunications networks towards a common network infrastructure for all existing access networks. A third part where it is studied the level of transformation that core network in mobile and terrestrial comunications networks have to experienced since current situation up to next generation scenarios and what it is the impact of these changes, the issues that are arising for developers, manufactures and service providers in this process, the way that these changes will improve and shift telecomunications business models and how the current economic and technological context is influencing in the whole process. Finally it is studied a actual case about a proposed solution by a manufacturer that based on the models exposed in second part take place a integration and interconection process in a the comercial network of one telecomunication service providers in Spain. This final part regards to all implications associated with this specific case.
Resumo:
El peso específico de las Comunicaciones Ópticas dentro del ámbito de la Ingeniería de Telecomunicación no cesa de crecer. Sus aplicaciones, inicialmente dedicadas a las grandes líneas que enlazan las centrales de conmutación, alcanzan en la actualidad, como se ha mencionado, hasta los mismos hogares. Los progresos en este campo, con una sucesión sin tregua, no sólo se destinan a incrementar la capacidad de transmisión de los sistemas, sino a ampliar la diversidad de los procesos que sobre las señales se efectúan en el dominio óptico. Este dinamismo demanda a los profesionales del sector una revisión y actualización de sus conocimientos que les permitan resolver con soltura las cuestiones de su actividad de ingeniería. Por otra parte, durante los últimos años la importancia de las Comunicaciones Ópticas también se ha reflejado en las diferentes titulaciones de Ingenierías de Telecomunicación, cuyos planes de estudio contemplan esta materia tanto en asignaturas troncales como optativas. A menudo, las fuentes de información disponibles abordan esta disciplina con una orientación principalmente teórica. Profesionales y estudiantes de Ingeniería, pues, frente a esta materia se encuentran unos temas que tratan fenómenos físicos complejos, abundantes en conceptos abstractos y con un florido aparato matemático, pero muchas veces carentes de una visión práctica, importantísima en ingeniería, y que es, en definitiva, lo que se exige a alumnos e ingenieros: saber resolver problemas y cuestiones relacionados con las Comunicaciones Ópticas. Los sistemas de comunicaciones ópticas, y en especial aquellos que utilizan la fibra óptica como medio para la transmisión de información, como se ha dicho, están alcanzando un desarrollo importante en el campo de las telecomunicaciones. Las bondades que ofrece la fibra, de sobra conocidos y mencionados en el apartado que antecede (gran ancho de banda, inmunidad total a las perturbaciones de origen electromagnético, así como la no producción de interferencias, baja atenuación, etc.), han hecho que, hoy en día, sea uno de los campos de las llamadas tecnologías de la información y la comunicación que presente mayor interés por parte de científicos, ingenieros, operadores de telecomunicaciones y, por supuesto, usuarios. Ante esta realidad, el objetivo y justificación de la realización de este proyecto, por tanto, no es otro que el de acercar esta tecnología al futuro ingeniero de telecomunicaciones, y/o a cualquier persona con un mínimo de interés en este tema, y mostrarle de una forma práctica y visual los diferentes fenómenos que tienen lugar en la transmisión de información por medio de fibra óptica, así como los diferentes bloques y dispositivos en que se divide dicha comunicación. Para conseguir tal objetivo, el proyecto fin de carrera aquí presentado tiene como misión el desarrollo de una interfaz gráfica de usuario (GUI, del inglés Graphic User Interface) que permita a aquel que la utilice configurar de manera sencilla cada uno de los bloques en que se compone un enlace punto a punto de fibra óptica. Cada bloque en que se divide este enlace estará compuesto por varias opciones, que al elegir y configurar como se quiera, hará variar el comportamiento del sistema y presentará al usuario los diferentes fenómenos presentes en un sistema de comunicaciones ópticas, como son el ruido, la dispersión, la atenuación, etc., para una mejor comprensión e interiorización de la teoría estudiada. Por tanto, la aplicación, implementada en MATLAB, fruto de la realización de este PFC pretende servir de complemento práctico para las asignaturas dedicadas al estudio de las comunicaciones ópticas a estudiantes en un entorno amigable e intuitivo. Optical Communications in the field of Telecommunications Engineering continues to grow. Its applications, initially dedicated to large central lines that link the switching currently achieved, as mentioned, to the same household nowadays. Progress in this field, with a relentless succession, not only destined to increase the transmission capacity of the systems, but to broaden the diversity of the processes that are performed on the signals in the optical domain. This demands to professionals reviewing and updating their skills to enable them resolve issues easily. Moreover, in recent years the importance of optical communications is also reflected in the different degrees of Telecommunications Engineering, whose curriculum contemplates this area. Often, the information sources available to tackle this discipline mainly theoretical orientation. Engineering professionals and students are faced this matter are few topics discussing complex physical phenomena, and abstract concepts abundant with a flowery mathematical apparatus, but often wotput a practical, important in engineering, and that is what is required of students and engineers: knowing how to solve problems and issues related to optical communications. Optical communications systems, particularly those using optical fiber as a medium for transmission of information, as stated, are reaching a significant development in the field of telecommunications. The advantages offered by the fiber, well known and referred to in the preceding paragraph (high bandwidth, immunity to electromagnetic disturbances of origin and production of non interference, low attenuation, etc..), have made today, is one of the fields of information and communication technology that this increased interest by scientists, engineers, telecommunications operators and, of course, users. Given this reality, the purpose and justification of this project is not other than to bring this technology to the future telecommunications engineer, and / or anyone with a passing interest in this subject, and showing of a practical and various visual phenomena occurring in the transmission of information by optical fiber, as well as different blocks and devices in which said communication is divided. To achieve that objective, the final project presented here has as its mission the development of a graphical user interface (GUI) that allows the user to configure each of the blocks in which divided a point-to-point optical fiber. Each block into which this link will consist of several options to choose and configure it as you like, this will change the behavior of the system and will present to the user with the different phenomena occurring in an optical communication system, such as noise, dispersion, attenuation, etc., for better understanding and internalization of the theory studied. Therefore, the application, implemented in MATLAB, the result of the completion of the thesis is intended to complement practical subjects for the study of optical communications students in a friendly and intuitive environment.
Resumo:
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MATRICES DE HESSENBERG se enmarca entre las áreas de la teoría geométrica de la medida, la teoría de polinomios ortogonales y la teoría de operadores. La memoria aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la óptica de las matrices infinitas de momentos y de Hessenberg asociadas a estas medidas que en la teoría de los polinomios ortogonales las representan. En particular se centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio definidas por un sistema de funciones iteradas (SFI). Los conjuntos autosemejantes son conjuntos que tienen la propiedad geométrica de descomponerse en unión de piezas semejantes al conjunto total. Estas piezas pueden solaparse o no, cuando el solapamiento es pequeño la teoría de Hutchinson [Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de la complejidad de este problema se plantea con las convoluciones infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema, lejos de ser sencillo ha sido estudiado durante más de setenta y cinco años y siguen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en 1962. El interés que ha despertado este problema así como la complejidad del mismo está demostrado por las numerosas publicaciones que abordan cuestiones relacionadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11]. En el primer capítulo comenzamos introduciendo con detalle las medidas autosemejante en el plano complejo y los sistemas de funciones iteradas, así como los conceptos de la teoría de la medida necesarios para describirlos. A continuación se introducen las herramientas necesarias de teoría de polinomios ortogonales, matrices infinitas y operadores que se van a usar. En el segundo y tercer capítulo trasladamos las propiedades geométricas de las medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamente. A partir de estos resultados se describen algoritmos para calcular estas matrices a partir del SFI correspondiente. Concretamente, se obtienen fórmulas explícitas y algoritmos de aproximación para los momentos y matrices de momentos de medidas fractales, a partir de un teorema del punto fijo para las matrices. Además utilizando técnicas de la teoría de operadores, se han extendido al plano complejo los resultados que G. Mantica [Ma00, Ma96] obtenía en el caso real. Este resultado es la base para definir un algoritmo estable de aproximación de la matriz de Hessenberg asociada a una medida fractal u obtener secciones finitas exactas de matrices Hessenberg asociadas a una suma de medidas. En el último capítulo, se consideran medidas, μ, más generales y se estudia el comportamiento asintótico de los autovalores de una matriz hermitiana de momentos y su impacto en las propiedades de la medida asociada. En el resultado central se demuestra que si los polinomios asociados son densos en L2(μ) entonces necesariamente el autovalor mínimo de las secciones finitas de la matriz de momentos de la medida tiende a cero. ABSTRACT The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg Matrices” is framed among the geometric measure theory, orthogonal polynomials and operator theory. The work studies measures with compact support on the complex plane from the point of view of the associated infinite moments and Hessenberg matrices representing them in the theory of orthogonal polynomials. More precisely, it concentrates on the study of the self-similar measures that are equilibrium measures in a iterated functions system. Self-similar sets have the geometric property of being decomposable in a union of similar pieces to the complete set. These pieces can overlap. If the overlapping is small, Hutchinson’s theory [Hut81] works well, however, when it has no restrictions, the theory does not hold. The overlapping problem consists in controlling the measure of the overlap. The complexity of this problem is exemplified in the infinite convolutions of Bernoulli’s distributions, that are an example of self-similar measures in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem, that far from being simple, has been studied during more than 75 years. The main cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this problem, together with its complexity, is demonstrated by the number of publications that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11]. In the first chapter, we will start with a detailed introduction to the self-similar measurements in the complex plane and to the iterated functions systems, also including the concepts of measure theory needed to describe them. Next, we introduce the necessary tools from orthogonal polynomials, infinite matrices and operators. In the second and third chapter we will translate the geometric properties of selfsimilar measures to the moments and Hessenberg matrices. From these results, we will describe algorithms to calculate these matrices from the corresponding iterated functions systems. To be precise, we obtain explicit formulas and approximation algorithms for the moments and moment matrices of fractal measures from a new fixed point theorem for matrices. Moreover, using techniques from operator theory, we extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96]. This result is the base to define a stable algorithm that approximates the Hessenberg matrix associated to a fractal measure and obtains exact finite sections of Hessenberg matrices associated to a sum of measurements. In the last chapter, we consider more general measures, μ, and study the asymptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with its impact on the properties of the associated measure. In the main result we demonstrate that, if the associated polynomials are dense in L2(μ), then necessarily follows that the minimum eigenvalue of the finite sections of the moments matrix goes to zero.
Resumo:
Se describe en profundidad el proceso de formación de precios de los productos pesqueros frescos. Se identifican los factores críticos para un proceso muy común (venta de la pescadilla en España). Se inventarían todos los factores que inciden en la formación del precio. Se estudia el proceso de comercialización pesquera, el papel de todos los actores y el futuro al que se enfrenta cada agente. España es uno de los principales mercados pesqueros del mundo, el segundo en volumen de capturas de la UE (20%) y el cuarto en consumo per-cápita del mundo, sólo superado por Japón, Estados Unidos y Portugal. La comercialización de los productos pesqueros frescos es un proceso muy complejo debido a las características del producto (vida muy corta, manipulación delicada, heterogeneidad), al gran número de agentes y flujos que intervienen o a la inestabilidad de la oferta asociada a la actividad. La formación del precio del pescado es una materia de la que se dispone de muy poca información y transparencia. Se desconoce su mecanismo tanto para expertos como para profanos del sector y externos a él. Es un proceso complejo muy poco estudiado sujeto a multitud de tópicos y realidades consumadas. Desde diversas instituciones académicas y organizaciones sectoriales se han encargado y realizado algunas iniciativas destinadas a investigar la formación del precio en puntos concretos del flujo, con una visión parcial del proceso y sus dependencias. El trabajo presentado en esta Tesis da un paso más y pretende encontrar y explicar todos los factores que intervienen en la formación del precio del pescado fresco, considerando el proceso completo, y determina las variables críticas que tienen un mayor impacto en este proceso. Para eso se estudia el proceso de comercialización de los productos pesqueros frescos extremo a extremo, desde la captura hasta la venta final al público, desde el sector extractivo al minorista, a través de las principales asociaciones y agentes del Sector y de la observación presencial del trabajo de todos los agentes que intervienen en el proceso en distintos puntos de España. Además se repasa el estado actual del Sector pesquero y comercializador en España, identificando aspectos clave de mejora en todos los ámbitos. Se describe detalladamente el proceso completo de comercialización pesquera a través de los actores que intervienen en él, enfocados hacia la identificación de todos los factores de todos los tipos que inciden en el proceso de formación de precios y la descripción de puntos débiles y problemas del Sector pesquero en conjunto. Se repasa el marco teórico general del proceso de formación de precios y se explican las particularidades existentes para el pescado fresco. Todos los factores identificados se caracterizaron con una serie de atributos que ayudan a describir mejor el proceso. A través de una herramienta informática y de los datos de un caso completo real se analizan todas las variables y se identifican las críticas que explican la formacióndel precio. Se llega a una ecuación que modeliza este fenómeno complejo a través de estos factores. En el mapa actual de la comercialización de productos pesqueros en España la gran distribución ha ganado una gran cuota de mercado, debido a los cambios sociales y a las necesidades del nuevo consumidor. El rol y las actividades de los distintos operadores van a cambiar en los próximos años para adaptarse a esta evolución del proceso. Por último se presentan una serie de conclusiones generales, asociadas al proceso de comercialización, a las estructuras de oferta, demanda, precios y se resumen los resultados obtenidos a través del proceso de identificación de variables críticas realizado. Se proporcionan los aspectos clave asociados a los problemas de la industria extractiva, y se proponen sugerencias de mejora para incrementar la competitividad del sector en todos los eslabones y mejorar el proceso comercializador.
Resumo:
La Internet de las Cosas (IoT), como parte de la Futura Internet, se ha convertido en la actualidad en uno de los principales temas de investigación; en parte gracias a la atención que la sociedad está poniendo en el desarrollo de determinado tipo de servicios (telemetría, generación inteligente de energía, telesanidad, etc.) y por las recientes previsiones económicas que sitúan a algunos actores, como los operadores de telecomunicaciones (que se encuentran desesperadamente buscando nuevas oportunidades), al frente empujando algunas tecnologías interrelacionadas como las comunicaciones Máquina a Máquina (M2M). En este contexto, un importante número de actividades de investigación a nivel mundial se están realizando en distintas facetas: comunicaciones de redes de sensores, procesado de información, almacenamiento de grandes cantidades de datos (big--‐data), semántica, arquitecturas de servicio, etc. Todas ellas, de forma independiente, están llegando a un nivel de madurez que permiten vislumbrar la realización de la Internet de las Cosas más que como un sueño, como una realidad tangible. Sin embargo, los servicios anteriormente mencionados no pueden esperar a desarrollarse hasta que las actividades de investigación obtengan soluciones holísticas completas. Es importante proporcionar resultados intermedios que eviten soluciones verticales realizadas para desarrollos particulares. En este trabajo, nos hemos focalizado en la creación de una plataforma de servicios que pretende facilitar, por una parte la integración de redes de sensores y actuadores heterogéneas y geográficamente distribuidas, y por otra lado el desarrollo de servicios horizontales utilizando dichas redes y la información que proporcionan. Este habilitador se utilizará para el desarrollo de servicios y para la experimentación en la Internet de las Cosas. Previo a la definición de la plataforma, se ha realizado un importante estudio focalizando no sólo trabajos y proyectos de investigación, sino también actividades de estandarización. Los resultados se pueden resumir en las siguientes aseveraciones: a) Los modelos de datos definidos por el grupo “Sensor Web Enablement” (SWE™) del “Open Geospatial Consortium (OGC®)” representan hoy en día la solución más completa para describir las redes de sensores y actuadores así como las observaciones. b) Las interfaces OGC, a pesar de las limitaciones que requieren cambios y extensiones, podrían ser utilizadas como las bases para acceder a sensores y datos. c) Las redes de nueva generación (NGN) ofrecen un buen sustrato que facilita la integración de redes de sensores y el desarrollo de servicios. En consecuencia, una nueva plataforma de Servicios, llamada Ubiquitous Sensor Networks (USN), se ha definido en esta Tesis tratando de contribuir a rellenar los huecos previamente mencionados. Los puntos más destacados de la plataforma USN son: a) Desde un punto de vista arquitectónico, sigue una aproximación de dos niveles (Habilitador y Gateway) similar a otros habilitadores que utilizan las NGN (como el OMA Presence). b) Los modelos de datos están basado en los estándares del OGC SWE. iv c) Está integrado en las NGN pero puede ser utilizado sin ellas utilizando infraestructuras IP abiertas. d) Las principales funciones son: Descubrimiento de sensores, Almacenamiento de observaciones, Publicacion--‐subscripcion--‐notificación, ejecución remota homogénea, seguridad, gestión de diccionarios de datos, facilidades de monitorización, utilidades de conversión de protocolos, interacciones síncronas y asíncronas, soporte para el “streaming” y arbitrado básico de recursos. Para demostrar las funcionalidades que la Plataforma USN propuesta pueden ofrecer a los futuros escenarios de la Internet de las Cosas, se presentan resultados experimentales de tres pruebas de concepto (telemetría, “Smart Places” y monitorización medioambiental) reales a pequeña escala y un estudio sobre semántica (sistema de información vehicular). Además, se está utilizando actualmente como Habilitador para desarrollar tanto experimentación como servicios reales en el proyecto Europeo SmartSantander (que aspira a integrar alrededor de 20.000 dispositivos IoT). v Abstract Internet of Things, as part of the Future Internet, has become one of the main research topics nowadays; in part thanks to the pressure the society is putting on the development of a particular kind of services (Smart metering, Smart Grids, eHealth, etc.), and by the recent business forecasts that situate some players, like Telecom Operators (which are desperately seeking for new opportunities), at the forefront pushing for some interrelated technologies like Machine--‐to--‐Machine (M2M) communications. Under this context, an important number of research activities are currently taking place worldwide at different levels: sensor network communications, information processing, big--‐ data storage, semantics, service level architectures, etc. All of them, isolated, are arriving to a level of maturity that envision the achievement of Internet of Things (IoT) more than a dream, a tangible goal. However, the aforementioned services cannot wait to be developed until the holistic research actions bring complete solutions. It is important to come out with intermediate results that avoid vertical solutions tailored for particular deployments. In the present work, we focus on the creation of a Service--‐level platform intended to facilitate, from one side the integration of heterogeneous and geographically disperse Sensors and Actuator Networks (SANs), and from the other the development of horizontal services using them and the information they provide. This enabler will be used for horizontal service development and for IoT experimentation. Prior to the definition of the platform, we have realized an important study targeting not just research works and projects, but also standardization topics. The results can be summarized in the following assertions: a) Open Geospatial Consortium (OGC®) Sensor Web Enablement (SWE™) data models today represent the most complete solution to describe SANs and observations. b) OGC interfaces, despite the limitations that require changes and extensions, could be used as the bases for accessing sensors and data. c) Next Generation Networks (NGN) offer a good substrate that facilitates the integration of SANs and the development of services. Consequently a new Service Layer platform, called Ubiquitous Sensor Networks (USN), has been defined in this Thesis trying to contribute to fill in the previous gaps. The main highlights of the proposed USN Platform are: a) From an architectural point of view, it follows a two--‐layer approach (Enabler and Gateway) similar to other enablers that run on top of NGN (like the OMA Presence). b) Data models and interfaces are based on the OGC SWE standards. c) It is integrated in NGN but it can be used without it over open IP infrastructures. d) Main functions are: Sensor Discovery, Observation Storage, Publish--‐Subscribe--‐Notify, homogeneous remote execution, security, data dictionaries handling, monitoring facilities, authorization support, protocol conversion utilities, synchronous and asynchronous interactions, streaming support and basic resource arbitration. vi In order to demonstrate the functionalities that the proposed USN Platform can offer to future IoT scenarios, some experimental results have been addressed in three real--‐life small--‐scale proofs--‐of concepts (Smart Metering, Smart Places and Environmental monitoring) and a study for semantics (in--‐vehicle information system). Furthermore we also present the current use of the proposed USN Platform as an Enabler to develop experimentation and real services in the SmartSantander EU project (that aims at integrating around 20.000 IoT devices).
Resumo:
Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.
Resumo:
El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.
Resumo:
En el estudio buscamos caracterizar el análisis de la SOSTENIBILIDAD (Suficiencia) del CICLO DE VIDA de una INFRAESTRUCTURA AEROPORTUARIA centrándonos en la evaluación de los aspectos SOCIALES (de forma Interdisciplinaria o Transversal) que le afectan y considerando todos los AGENTES involucrados (ingenieros/ operadores/ mantenedores/ usuarios/ stakeholders/ etc.). La complejidad de las interacciones entre los edificios y su entorno hace que sea difícil definir y evaluar con precisión la sostenibilidad de un edificio. Las NORMAS AMBIENTALES para la construcción (unas pocas existentes y algunos en fase de desarrollo) se centran en la sostenibilidad ECONÓMICA, SOCIAL Y AMBIENTAL que caracteriza a un edificio, siendo los aspectos socio-económicos difíciles de evaluar. En consecuencia, los métodos existentes para la evaluación de la construcción sostenible (por ejemplo, LEED, BREEAM, SBTool) tienden a superar los aspectos ambientales pues son más fáciles de evaluar de manera cuantitativa. Así desde el punto de vista holístico (global) y utilizando la teoría de sistemas complejos, la sostenibilidad debe ser evaluada, en parte, utilizando los INDICADORES DE SOSTENIBILIDAD SOCIALES Y ECONÓMICOS para cubrir todos los factores de Sostenibilidad. El estudio propone una metodología para valorar la sostenibilidad en la construcción aeroportuaria a través de la evaluación de los indicadores sostenibles de la construcción (SKPIs) sin y superando las carencias presentadas. Para ello hemos implementado una herramienta de evaluación de la sostenibilidad, donde: Puede evaluar, en primer aproximación e independientemente, la sostenibilidad del CICLO DE VIDA de la INFRAESTRUCTURA AEROPORTUARIA Puede COMPLETAR otras herramientas comerciales disponibles (ej. BREEAM, LEED), bajo un enfoque ECONÓMICO-SOCIAL y complementando el enfoque ambiental La evaluación de los KPIs se realiza por medio de TECNOLOGÍAS Y ESTRATEGIAS SOSTENIBLES, cuya aplicación supondría un aumento de la sostenibilidad del edificio La herramienta propuesta considera la complejidad y transdisciplinariedad del problema, fundada en un SISTEMA DE CRÉDITOS fácil de usar. Así el programa diseñado permite el análisis y la comparación del CICLO DE VIDA de la INFRAESTRUCTURA AEROPORTUARIA: Abarcando las etapas de construcción (diseño, operación, mantenimiento, etc.) Incluyendo a todos los agentes de construcción (ocupantes, stakeholders, constructores, etc.) Finalmente, se aporta un ejemplo teórico de una INFRAESTRUCTURA AEROPORTUARIA (Terminal Aeroportuaria) para fijar, demostrar y discutir el estudio presentado Abstract We seek to characterize the sustainability analysis of the life cycle of a building focus us on the evaluation of social aspect. From a holistic point of view and using complex systems theory, sustainability must be evaluated, in part, using social key performance indicator (KPI) to cover all factors of sustainability. The most remarkable of the proposed framework is to provide a methodology to achieve the sustainability in construction through the assessment of social KPIs. Besides we implement a tool to assess sustainability, where this tool could complete other commercial tools available (e.g. BREEAM, LEED). The proposed tool considers the complexity and trans-disciplinary of the problem. The procedure is based on a credit system easy to use. It also allows analysis and comparison of the boundary conditions of the building, embracing construction stages (design, operation), involving all the building agents (occupants, stakeholders, etc.)
Resumo:
Si se estudian los distintos métodos existentes actualmente para el estudio del comportamiento de los incendios en túneles no parece que se disponga de una solución única y definitiva. Tanto los métodos numéricos como los modelos fisicos a escala tienen sus limitaciones y ventajas. Por tanto, puede decirse que se trata de enfoques complementarios y que deben emplearse todos cuando la importancia de la obra así lo requiera.Desde el punto de vista del proyecto cabe indicar la necesidad de que los cálculos no se limiten al dimensionamiento del sistema de ventilación sino que incluyan pautas de actuación sencillas que puedan ser seguidas de forma refleja por los responsables del Centro de Control en los primeros momentos del incendio ya que ello es clave en el éxito del proceso de evacuación. En este sentido es perentorio el desarrollo de simuladores numéricos que puedan ser utilizados en el entrenamiento y formación de los operadores del Centro de Control.
Resumo:
El sector de la edificación es uno de los principales sectores económicos con grandes repercusiones en el conjunto de la sociedad y en los valores culturales que entraña el patrimonio arquitectónico y, sin embargo, carece de una regulación acorde. La imparable evolución de las TIC y la cultura de la competencia han provocado la aparición de nuevos servicios y operadores. Por ello, el presente estudio, basado en un trabajo de investigación empírico, propone la caracterización de un sistema de información interorganizacional (SIIO) entre los diversos agentes que configuran la cadena de valor del sector de la edificación. El objetivo es la mejora de gestión en las interrelaciones entre los diferentes agentes de cara a abordar proyectos de edificación más complejos, contribuyendo, en particular, a la mejora de la calidad de la vivienda y, por tanto, a la calidad de vida de la sociedad en general.