876 resultados para OA repository infrastructure
Resumo:
El trabajo realizado se encuentra enmarcado dentro del proyecto de I+D+I del 7o programa marco de la Comisión Europea Fi-WARE: The future Internet core platform que forma parte de la iniciativa Future Internet PPP. En concreto, se ha desarrollado la especificación de un Generic Enabler con funcionalidad de tienda virtual que de soporte a la publicación y adquisición o subscripción de aplicaciones y servicios dentro del denominado Business Framework Ecosystem (BFE), además de una implementación de referencia de este Generic Enabler (GE) que ha sido utilizada para la realización de una prueba de concepto con el objetivo de comprobar la adecuación del comportamiento de la especificación dentro del BFE. La primera tarea realizada ha consistido en un estudio de otras stores (o tiendas digitales) existentes, mirando aspectos tales como la funcionalidad proporcionada, la información mostrada de los distintos productos ofrecidos o la organización de la interfaz de usuario y la metáfora visual. Este estudio ha tenido como objetivo establecer un punto de partida desde el que empezar a analizar las distintas funcionalidades que deberá proveer el sistema.Utilizando como base el estudio anterior y las necesidades concretas de la plataforma Fi-WARE se paso a la educación de los requisitos generales del sistema en los cuales se especifica a grandes rasgos la funcionalidad que debe proveer esta tienda digital así como algunos aspectos concretos de la experiencia de usuario. Una vez definida la funcionalidad de la store se ha abordado el diseño del sistema. Para realizar este diseño se ha trabajado en dos tareas principales: La primera de estas tareas ha consistido en realizar el diseño de la arquitectura del Store GE, en el que se especifican todos los módulos que debe contener el sistema para poder satisfacer los requisitos, así como las distintas conexiones del Store GE con otros componentes del proyecto Fi-Ware y de sus interrelaciones con el resto de componentes de dicho proyecto. Esto ofrece una visión global de la ubicación del Store GE dentro de la arquitectura general del proyecto Fi-Ware. La segunda tarea ha consistido en el desarrollo de la especicación abierta (Open specication) del Store GE. Esta tarea es probablemente la más relevante de cara a cumplir con los objetivos del proyecto Fi-Ware, ya que Fi-Ware se propone como objetivo principal proporcionar las especificaciones de una plataforma tecnológica abierta para la Internet del futuro, formada por un conjunto de componentes (denominados Generic Enablers), entre los que se encuentra el Store GE. En este documento ha quedado descrito con todo detalle en que consiste el Store GE y cuales son sus APIs, sobre las que se construirán las aplicaciones de la futura Internet basadas en Fi-Ware, de manera que sea posible que cualquier empresa pueda realizar una implementación diferente a la que se está desarrollando en este proyecto (si bien ésta será su implementación de referencia). Para esta Open specication se han desarrollado un modelo de gestión de usuarios y roles, un modelo de datos, diagramas de interacción que definen todas las posibles comunicaciones de la store con otros Generic Enablers del proyecto Fi-Ware, la definición del ciclo de vida de una oferta y las APIs REST del Store GE, incluyendo el contenido de las peticiones y los tipos MIME soportados. En este punto se pudo comenzar a trabajar en la implementación de referencia del Store GE. La primera tarea ha consistido en realizar la integración con el Marketplace GE, otro de los Generic Enablers del proyecto Fi-Ware, para ello se definieron unos requisitos específicos y se realizó un diseño de bajo nivel de este móodulo seguido de la propia implementación y un conjunto exhaustivo de pruebas unitarias para comprobar su correcto funcionamiento. A continuación se pasó a realizar la integracióon con el Repository GE siguiendo los mismos pasos que con la integración con el Marketplace GE. La siguiente tarea realizada ha consistido en la realización de los móodulos necesarios para permitir crear nuevas ofertas en la implementación de referencia de Store GE incluyendo nuevamente una fase de educación de requisitos específicos, un diseño de bajo nivel, la propia implementación y una serie de pruebas unitarias. Una vez implementada la creación de nuevas ofertas, se pasó a la realización de la funcionalidad necesaria para la recuperación y visualizacion de estas ofertas así como a la realización del soporte necesario para el registro de recursos y para la vinculación de estos a determinadas ofertas, siguiendo nuevamente la metodología antes mencionada. Finalmente se ha dado el soporte para la publicación y la adquisición de ofertas. En este caso la adquisición de ofertas se ha realizado tan solo en la parte servidora de la aplicación y no se ha llegado a dar soporte a esta funcionalidad en la interfaz Web al no ser necesaria para la realización de la prueba de concepto prevista. No obstante esta funcionalidad será implementada junto con otras funcionalidades como el soporte de características sociales, ya fuera del ámbito de este Trabajo de fin de grado. Como paso previo a la realización de la prueba de concepto se ha trabajado en la plataforma Wirecloud, que es una implementación de referencia del denominado Application Mashup GE, modicando su funcionalidad para integrarla con la API de compras realizada dentro de la implementación de referencia del Store GE. La úultima tarea realizada para este Trabajo de fin de grado ha consistido por fin en la realización de la prueba de concepto del Store GE integrando su implementación de referencia con las del resto de Generic Enablers, lo cual ha permitido comprobar así el fucionamiento de la arquitectura y modelo propuestos.
Resumo:
Antecedentes: Esta investigación se enmarca principalmente en la replicación y secundariamente en la síntesis de experimentos en Ingeniería de Software (IS). Para poder replicar, es necesario disponer de todos los detalles del experimento original. Sin embargo, la descripción de los experimentos es habitualmente incompleta debido a la existencia de conocimiento tácito y a la existencia de otros problemas tales como: La carencia de un formato estándar de reporte, la inexistencia de herramientas que den soporte a la generación de reportes experimentales, etc. Esto provoca que no se pueda reproducir fielmente el experimento original. Esta problemática limita considerablemente la capacidad de los experimentadores para llevar a cabo replicaciones y por ende síntesis de experimentos. Objetivo: La investigación tiene como objetivo formalizar el proceso experimental en IS, de modo que facilite la comunicación de información entre experimentadores. Contexto: El presente trabajo de tesis doctoral ha sido desarrollado en el seno del Grupo de Investigación en Ingeniería del Software Empírica (GrISE) perteneciente a la Escuela Técnica Superior de Ingenieros Informáticos (ETSIINF) de la Universidad Politécnica de Madrid (UPM), como parte del proyecto TIN2011-23216 denominado “Tecnologías para la Replicación y Síntesis de Experimentos en Ingeniería de Software”, el cual es financiado por el Gobierno de España. El grupo GrISE cumple a la perfección con los requisitos necesarios (familia de experimentos establecida, con al menos tres líneas experimentales y una amplia experiencia en replicaciones (16 replicaciones hasta 2011 en la línea de técnicas de pruebas de software)) y ofrece las condiciones para que la investigación se lleve a cabo de la mejor manera, como por ejemplo, el acceso total a su información. Método de Investigación: Para cumplir este objetivo se opta por Action Research (AR) como el método de investigación más adecuado a las características de la investigación, para obtener resultados a través de aproximaciones sucesivas que abordan los problemas concretos de comunicación entre experimentadores. Resultados: Se formalizó el modelo conceptual del ciclo experimental desde la perspectiva de los 3 roles principales que representan los experimentadores en el proceso experimental, siendo estos: Gestor de la Investigación (GI), Gestor del Experimento (GE) y Experimentador Senior (ES). Por otra parte, se formalizó el modelo del ciclo experimental, a través de: Un workflow del ciclo y un diagrama de procesos. Paralelamente a la formalización del proceso experimental en IS, se desarrolló ISRE (de las siglas en inglés Infrastructure for Sharing and Replicating Experiments), una prueba de concepto de entorno de soporte a la experimentación en IS. Finalmente, se plantearon guías para el desarrollo de entornos de soporte a la experimentación en IS, en base al estudio de las características principales y comunes de los modelos de las herramientas de soporte a la experimentación en distintas disciplinas experimentales. Conclusiones: La principal contribución de la investigación esta representada por la formalización del proceso experimental en IS. Los modelos que representan la formalización del ciclo experimental, así como la herramienta ISRE, construida a modo de evaluación de los modelos, fueron encontrados satisfactorios por los experimentadores del GrISE. Para consolidar la validez de la formalización, consideramos que este estudio debería ser replicado en otros grupos de investigación representativos en la comunidad de la IS experimental. Futuras Líneas de Investigación: El cumplimiento de los objetivos, de la mano con los hallazgos alcanzados, han dado paso a nuevas líneas de investigación, las cuales son las siguientes: (1) Considerar la construcción de un mecanismo para facilitar el proceso de hacer explícito el conocimiento tácito de los experimentadores por si mismos de forma colaborativa y basados en el debate y el consenso , (2) Continuar la investigación empírica en el mismo grupo de investigación hasta cubrir completamente el ciclo experimental (por ejemplo: experimentos nuevos, síntesis de resultados, etc.), (3) Replicar el proceso de investigación en otros grupos de investigación en ISE, y (4) Renovar la tecnología de la prueba de concepto, tal que responda a las restricciones y necesidades de un entorno real de investigación. ABSTRACT Background: This research addresses first and foremost the replication and also the synthesis of software engineering (SE) experiments. Replication is impossible without access to all the details of the original experiment. But the description of experiments is usually incomplete because knowledge is tacit, there is no standard reporting format or there are hardly any tools to support the generation of experimental reports, etc. This means that the original experiment cannot be reproduced exactly. These issues place considerable constraints on experimenters’ options for carrying out replications and ultimately synthesizing experiments. Aim: The aim of the research is to formalize the SE experimental process in order to facilitate information communication among experimenters. Context: This PhD research was developed within the empirical software engineering research group (GrISE) at the Universidad Politécnica de Madrid (UPM)’s School of Computer Engineering (ETSIINF) as part of project TIN2011-23216 entitled “Technologies for Software Engineering Experiment Replication and Synthesis”, which was funded by the Spanish Government. The GrISE research group fulfils all the requirements (established family of experiments with at least three experimental lines and lengthy replication experience (16 replications prior to 2011 in the software testing techniques line)) and provides favourable conditions for the research to be conducted in the best possible way, like, for example, full access to information. Research Method: We opted for action research (AR) as the research method best suited to the characteristics of the investigation. Results were generated successive rounds of AR addressing specific communication problems among experimenters. Results: The conceptual model of the experimental cycle was formalized from the viewpoint of three key roles representing experimenters in the experimental process. They were: research manager, experiment manager and senior experimenter. The model of the experimental cycle was formalized by means of a workflow and a process diagram. In tandem with the formalization of the SE experimental process, infrastructure for sharing and replicating experiments (ISRE) was developed. ISRE is a proof of concept of a SE experimentation support environment. Finally, guidelines for developing SE experimentation support environments were designed based on the study of the key features that the models of experimentation support tools for different experimental disciplines had in common. Conclusions: The key contribution of this research is the formalization of the SE experimental process. GrISE experimenters were satisfied with both the models representing the formalization of the experimental cycle and the ISRE tool built in order to evaluate the models. In order to further validate the formalization, this study should be replicated at other research groups representative of the experimental SE community. Future Research Lines: The achievement of the aims and the resulting findings have led to new research lines, which are as follows: (1) assess the feasibility of building a mechanism to help experimenters collaboratively specify tacit knowledge based on debate and consensus, (2) continue empirical research at the same research group in order to cover the remainder of the experimental cycle (for example, new experiments, results synthesis, etc.), (3) replicate the research process at other ESE research groups, and (4) update the tools of the proof of concept in order to meet the constraints and needs of a real research environment.
Resumo:
La agricultura es uno de los sectores más afectados por el cambio climático. A pesar de haber demostrado a lo largo de la historia una gran capacidad para adaptarse a nuevas situaciones, hoy en día la agricultura se enfrenta a nuevos retos tales como satisfacer un elevado crecimiento en la demanda de alimentos, desarrollar una agricultura sostenible con el medio ambiente y reducir las emisiones de gases de efecto invernadero. El potencial de adaptación debe ser definido en un contexto que incluya el comportamiento humano, ya que éste juega un papel decisivo en la implementación final de las medidas. Por este motivo, y para desarrollar correctamente políticas que busquen influir en el comportamiento de los agricultores para fomentar la adaptación a estas nuevas condiciones, es necesario entender previamente los procesos de toma de decisiones a nivel individual o de explotación, así como los efectos de los factores que determinan las barreras o motivaciones de la implementación de medidas. Esta Tesis doctoral trata de profundizar en el análisis de factores que influyen en la toma de decisiones de los agricultores para adoptar estrategias de adaptación al cambio climático. Este trabajo revisa la literatura actual y desarrolla un marco metodológico a nivel local y regional. Dos casos de estudio a nivel local (Doñana, España y Makueni, Kenia) han sido llevados a cabo con el fin de explorar el comportamiento de los agricultores hacia la adaptación. Estos casos de estudio representan regiones con notables diferencias en climatología, impactos del cambio climático, barreras para la adaptación y niveles de desarrollo e influencia de las instituciones públicas y privadas en la agricultura. Mientras el caso de estudio de Doñana representa un ejemplo de problemas asociados al uso y escasez del agua donde se espera que se agraven en el futuro, el caso de estudio de Makueni ejemplifica una zona fuertemente amenazada por las predicciones de cambio climático, donde adicionalmente la falta de infraestructura y la tecnología juegan un papel crucial para la implementación de la adaptación. El caso de estudio a nivel regional trata de generalizar en África el comportamiento de los agricultores sobre la implementación de medidas. El marco metodológico que se ha seguido en este trabajo abarca una amplia gama de enfoques y métodos para la recolección y análisis de datos. Los métodos utilizados para la toma de datos incluyen la implementación de encuestas, entrevistas, talleres con grupos de interés, grupos focales de discusión, revisión de estudios previos y bases de datos públicas. Los métodos analíticos incluyen métodos estadísticos, análisis multi‐criterio para la toma de decisiones, modelos de optimización de uso del suelo y un índice compuesto calculado a través de indicadores. Los métodos estadísticos se han utilizado con el fin de evaluar la influencia de los factores socio‐económicos y psicológicos sobre la adopción de medidas de adaptación. Dentro de estos métodos se incluyen regresiones logísticas, análisis de componentes principales y modelos de ecuaciones estructurales. Mientras que el análisis multi‐criterio se ha utilizado con el fin de evaluar las opciones de adaptación de acuerdo a las opiniones de las diferentes partes interesadas, el modelo de optimización ha tenido como fin analizar la combinación óptima de medidas de adaptación. El índice compuesto se ha utilizado para evaluar a nivel regional la implementación de medidas de adaptación en África. En general, los resultados del estudio ponen de relieve la gran importancia de considerar diferentes escalas espaciales a la hora de evaluar la implementación de medidas de adaptación al cambio climático. El comportamiento de los agricultores es diferente entre lugares considerados a una escala local relativamente pequeña, por lo que la generalización de los patrones del comportamiento a escalas regionales o globales resulta relativamente compleja. Los resultados obtenidos han permitido identificar factores determinantes tanto socioeconómicos como psicológicos y calcular su efecto sobre la adopción de medidas de adaptación. Además han proporcionado una mejor comprensión del distinto papel que desempeñan los cinco tipos de capital (natural, físico, financiero, social y humano) en la implementación de estrategias de adaptación. Con este trabajo se proporciona información de gran interés en los procesos de desarrollo de políticas destinadas a mejorar el apoyo de la sociedad a tomar medidas contra el cambio climático. Por último, en el análisis a nivel regional se desarrolla un índice compuesto que muestra la probabilidad de adoptar medidas de adaptación en las regiones de África y se analizan las causas que determinan dicha probabilidad de adopción de medidas. ABSTRACT Agriculture is and will continue to be one of the sectors most affected by climate change. Despite having demonstrated throughout history a great ability to adapt, agriculture today faces new challenges such as meeting growing food demands, developing sustainable agriculture and reducing greenhouse gas emissions. Adaptation policies planned on global, regional or local scales are ultimately implemented in decision‐making processes at the farm or individual level so adaptation potentials have to be set within the context of individual behaviour and regional institutions. Policy instruments can play a formative role in the adoption of such policies by addressing incentives/disincentives that influence farmer’s behaviour. Hence understanding farm‐level decision‐making processes and the influence of determinants of adoption is crucial when designing policies aimed at fostering adoption. This thesis seeks to analyse the factors that influence decision‐making by farmers in relation to the uptake of adaptation options. This work reviews the current knowledge and develops a methodological framework at local and regional level. Whilst the case studies at the local level are conducted with the purpose of exploring farmer’s behaviour towards adaptation the case study at the regional level attempts to up‐scale and generalise theory on adoption of farmlevel adaptation options. The two case studies at the local level (Doñana, Spain and Makueni, Kenya) encompass areas with different; climates, impacts of climate change, adaptation constraints and limits, levels of development, institutional support for agriculture and influence from public and private institutions. Whilst the Doñana Case Study represents an area plagued with water‐usage issues, set to be aggravated further by climate change, Makueni Case study exemplifies an area decidedly threatened by climate change where a lack of infrastructure and technology plays a crucial role in the uptake of adaptation options. The proposed framework is based on a wide range of approaches for collecting and analysing data. The approaches used for data collection include the implementation of surveys, interviews, stakeholder workshops, focus group discussions, a review of previous case studies, and public databases. The analytical methods include statistical approaches, multi criteria analysis for decision‐making, land use optimisation models, and a composite index based on public databases. Statistical approaches are used to assess the influence of socio‐economic and psychological factors on the adoption or support for adaptation measures. The statistical approaches used are logistic regressions, principal component analysis and structural equation modelling. Whilst a multi criteria analysis approach is used to evaluate adaptation options according to the different perspectives of stakeholders, the optimisation model analyses the optimal combination of adaptation options. The composite index is developed to assess adoption of adaptation measures in Africa. Overall, the results of the study highlight the importance of considering various scales when assessing adoption of adaptation measures to climate change. As farmer’s behaviour varies at a local scale there is elevated complexity when generalising behavioural patterns for farmers at regional or global scales. The results identify and estimate the effect of most relevant socioeconomic and psychological factors that influence adoption of adaptation measures to climate change. They also provide a better understanding of the role of the five types of capital (natural, physical, financial, social, and human) on the uptake of farm‐level adaptation options. These assessments of determinants help to explain adoption of climate change measures and provide helpful information in order to design polices aimed at enhancing societal support for adaptation policies. Finally the analysis at the regional level develops a composite index which suggests the likelihood of the regions in Africa to adopt farm‐level adaptation measures and analyses the main causes of this likelihood of adoption.
Resumo:
Quantum Key Distribution (QKD) is maturing quickly. However, the current approaches to its network use require conditions that make it an expensive technology. All the QKD networks deployed to date are designed as a collection of dedicated point-to-point links that use the trusted repeater paradigm. Instead, we propose a novel network model in which QKD systems use simultaneously quantum and conventional signals that are wavelength multiplexed over a common communication infrastructure. Signals are transmitted end-to-end within a metropolitan area using optical components. The model resembles a commercial telecom network and takes advantage of existing components, thus allowing for a cost-effective and reliable deployment.
Resumo:
The ability to generate entangled photon-pairs over a broad wavelength range opens the door to the simultaneous distribution of entanglement to multiple users of a network using a single source and wavelength-division multiplexing technologies. Here we show the design of a metropolitan optical network made of tree-type access networks where entangled photon-pairs are distributed to any pair of users, independently of their location. The resulting network improves the reach, number of users and capabilities of existing proposals. Moreover, it is made up of typical commercial components and uses the existing infrastructure, which allows for moderate deployment costs. Finally, we develop a channel plan and a network design that allow direct optical communications, quantum and classical, between any pair of users. Therefore, multiple quantum information technologies can make use of this network.
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
El desarrollo de actividades de carga y descarga son parte de la esencia de la naturaleza funcional de un puerto, de las cuales derivan en gran medida los ingresos del mismo y la eficiencia de la cadena logística en su conjunto. Las oscilaciones en el interior de una dársena y en un línea de atraque disminuyen la calidad de la estancia de las embarcaciones en puerto, reducen el rendimiento de la estiba de los buques y solicitan y fatigan las estructuras y los cuerpos flotantes amarrados. Si los parámetros que definen la agitación local se aproximan a regiones de fallo 0 parada, el subsistema pierde rendimiento, fiabilidad y finalmente se paralizan las operaciones, produciéndose de este modo tiempos de inactividad. Estas paradas operativas conllevan pérdidas económicas para la terminal y, consecuentemente, para el puerto. Hoy día se dispone vastas redes de monitorización destinadas a la caracterización del medio físico en el entorno de los puertos. Paralelamente, las operaciones de manipulación de cargas en las terminales se están dirigiendo hacia modelos de automatización o semi automatización, que permiten no sólo la sistematización de procesos, sino también un profundo conocimiento del flujo de tareas. En este contexto hay un déficit de información sobre cómo afectan los diferentes forzadores del medio físico al rendimiento, la seguridad funcionalidad del proceso de manipulación de carga y descarga. Esto se debe en gran medida a la falta de registros dilatados en el tiempo que permitan correlacionar todos los aspectos mencionados de un modo particularizado para cada línea de atraque y amarre de un puerto. En esta tesis se desarrolla una metodología de vídeo monitorización no intrusiva y de bajo coste basada en la aplicación de técnicas "pixel tool' y la obtención de los parámetros extrínsecos de una observación monofocal. Con ello pretende poner en valor las infraestructuras de vídeo vigilancia de los puertos y de los laboratorios de experimentación a escala reducida, con el objeto de facilitar el estudio los umbrales operativos de las áreas de atraque y amarre. The development of loading and unloading activities is an essential part of he functional nature of a port, which derive largely from he same income and the efficiency of he supply chain as a whole. The oscillations inside a dock and a mooring line diminish he quality of the stay of vessels in port reducing the performance of the stowage of ship and asking and fatigued structures and moored floating bodies. If the parameters defining the local al agitation regions are close to areas of failure or shutdown, he subsystem looses performance, reliability and eventually paralyzes the operations, thereby producing downtime. These operational stops entail economic 1osses to the terminal and, consequently for the port. Today vast networks of monitoring, aimed at he characterization of the physical environment in the vicinity of he ports, are available. In parallel, the cargo handling operations at terminals are moving towards automation or semi-automation models that allow not only the systematization of processes, but also a deep understanding of he workflow. In this context, there is a lack of information about how the different forcing agents of the physical environment affect the performance and he functional safety of the loading and unloading process. This is due largely to the lack of spread-over-time records which would allow to correlate all aspects mentioned, specifically, for each berthing and mooring of a port. This thesis develops a methodology for non-intrusive and low cost monitoring video based on the application of "pixel tool" techniques and on obtaining the extrinsic parameters of a monofocal observation. It seeks an enhancement of the video monitoring infrastructure at ports and at experimental laboratories of reduced scale, in order to facilitate the study of operational thresholds berthing and mooring areas.
Resumo:
Quantum Key Distribution (QKD) is maturing quickly. However, the current approaches to its application in optical networks make it an expensive technology. QKD networks deployed to date are designed as a collection of point-to-point, dedicated QKD links where non-neighboring nodes communicate using the trusted repeater paradigm. We propose a novel optical network model in which QKD systems share the communication infrastructure by wavelength multiplexing their quantum and classical signals. The routing is done using optical components within a metropolitan area which allows for a dynamically any-to-any communication scheme. Moreover, it resembles a commercial telecom network, takes advantage of existing infrastructure and utilizes commercial components, allowing for an easy, cost-effective and reliable deployment.
Resumo:
The ability to generate entangled photon pairs over a broad wavelength range opens the door to the simultaneous distribution of entanglement to multiple users in a network by using centralized sources and flexible wavelength-division multiplexing schemes. Here, we show the design of a metropolitan optical network consisting of tree-type access networks, whereby entangled photon pairs are distributed to any pair of users, independent of their location. The network is constructed employing commercial off-the-shelf components and uses the existing infrastructure, which allows for moderate deployment costs. We further develop a channel plan and a network-architecture design to provide a direct optical path between any pair of users; thus, allowing classical and one-way quantum communication, as well as entanglement distribution. This allows the simultaneous operation of multiple quantum information technologies. Finally, we present a more flexible backbone architecture that pushes away the load limitations of the original network design by extending its reach, number of users and capabilities.
Resumo:
This paper reports the results of the assessment of a range of measures implemented in bus systems in five European cities to improve the use of public transport by increasing its attractiveness and enhancing its image in urban areas. This research was conducted as part of the EBSF project (European Bus System of the Future) from 2008 to 2012. New buses (prototypes), new vehicle and infrastructure technologies, and operational best practices were introduced, all of which were combined in a system approach. The measures were assessed using multicriteria analysis to simultaneously evaluate a certain number of criteria that need to be aggregated. Each criterion is measured by one or more key performance indicators (KPI) calculated in two scenarios (reference scenario, with no measure implemented; and project scenario, with the implementation of some measures), in order to evaluate the difference in the KPI performance between the reference and project scenario. The results indicate that the measures produce a greater benefit in issues related to bus system productivity and customer satisfaction, with the greatest impact on aspects of perceptions of comfort, cleanliness and quality of service, information to passengers and environmental issues. The study also reveals that the implementation of several measures has greater social utility than very specific and isolated measures.
Resumo:
Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.
Resumo:
El presente proyecto propone la utilización de un protocolo de obtención y gestión de certificados llamado SCEP (Simple Certificate Enrollment Protocol), utilizado inicialmente para el aprovisionamiento automático de certificados en routers y switches de la marca Cisco Networks, para su uso en dispositivos personales o corporativos dentro del ámbito laboral. En la actualidad, se están aplicando nuevas técnicas más eficientes de control del uso de los dispositivos corporativos por parte de los empleados de determinadas empresas. Estas empresas son las encargadas de proporcionar a sus empleados dichos dispositivos, que en muchos casos son un ordenador personal y un teléfono móvil. En las empresas del sector de las TIC, el uso de esos dispositivos es la principal herramienta de sus empleados, con lo que la seguridad y control son mecanismos fundamentales que deben estar presentes y garantizados. Además, nuevas tendencias como el BYOD (Bring Your Own Device o el teletrabajo, permiten a los empleados tanto el uso de los dispositivos corporativos lejos del ámbito laboral (en su domicilio, por ejemplo), como el uso de dispositivos no preparados de antemano por la empresa. A priori, estas técnicas suponen un avance en comodidad para los empleados; pero puede significar todo lo contrario cuando se habla del mantenimiento de la seguridad y el control de acceso a los recursos de la empresa desde dichos dispositivos (obtención de certificados para acceder a recursos internos, envío de información cifrada entre individuos de la misma empresa, etc). Es aquí donde cobra sentido la idea de utilizar un protocolo de aprovisionamiento y gestión automatizada de certificados para garantizar la seguridad y control de acceso en la PKI (Public Key Infrastructure) corporativa, permitiendo el uso de dispositivos personales, y evitando la acumulación de trámites burocráticos incómodos tanto para el empleado como para la empresa. Este proyecto plantea la utilización del protocolo SCEP como mecanismo para la realización de la gestión automatizada de certificados ampliando su utilización a dispositivos de escritorio Windows y móviles Android.
Resumo:
La escasez de recursos, la desertización creciente y el previsible calentamiento global forman un escenario físico sin precedentes que urge la revisión de las relaciones entre arquitectura y agua en la urbanización de los paisajes secos, donde la aridez es el factor limitante principal. Cuestionar la idea de escasez, la de residuo o la de confort es el punto de partida para analizar la hidrología urbana. La condición ubicua y dinámica del agua, sus continuos cambios de estado y las implicaciones energéticas y ambientales involucradas argumentan a favor de un entendimiento integral, holístico, que aborda el diseño en relación a lo paisajístico, lo infraestructural y lo ambiental como un único ámbito de investigación, planteado en términos no solo de materia o de escasez, sino de energía. Este trabajo se interesa por el rol de la arquitectura en este proyecto conjunto, integral, del espacio físico con el ciclo hidrológico donde lo orgánico, lo geológico y lo atmosférico están ligados, y donde las categorías de lo hidrológico y lo hidráulico se confunden. Las profundas implicaciones culturales en la construcción de la naturaleza urbana y en la relación con el cuerpo humano adquieren especial notoriedad en los modelos de paisaje y de espacio público adoptados, importados desde las geografías húmedas, y en la estigmatización del agua desde los presupuestos del higienismo decimonónico, que conduce al hidrofugado general de una ciudad aséptica y estéril, que se extiende hasta las envolventes de fachadas estancas y los interiores blancos y satinados. La búsqueda de referentes salta la modernidad hacia contextos de baja energía como el oasis tradicional de las tierras áridas, que concilia la formación de un ecosistema productivo con la climatización de un espacio público exterior, o los ambientes aislados de la investigación aeroespacial, con ciclos cerrados de materia. Las condiciones del ciclo del agua, como la vinculación con el suelo y el territorio, la capacidad de disolver, de mezclarse y de lavar, su volumen variable y su papel como termorregulador señalan el interés que características físicas como la fluidez, la biodiversidad, la hidrofilia y la transpirabilidad tienen para una arquitectura con competencias hidráulicas y un espacio urbano transparente a los procesos del agua. La morfología y localización, la elección de escalas, jerarquías y relaciones entre espacios y la reformulación de los sistemas constructivos aparecen como herramientas y categorías propias desde las que proponer mejores respuestas a problemas como la deshidratación, la erosión y la contaminación. Una urbanización permeable e hidrófila que absorba el agua como un recurso valioso, nuevos ensamblajes para la bioquímica urbana (que introduzcan una idea de limpieza más próxima a fertilidad que a la desinfección), y el diseño de las condiciones atmosféricas a través de una arquitectura transpirable, que se empapa y rezuma frescor, son las claves de este nuevo proyecto. La ciudad se piensa como una síntesis multiescalar de espacios hidráulicos que aporta mayor resiliencia frente a la desertificación y las condiciones climáticas extremas, y mayor visibilidad en la escena pública al agua y a las inevitables conexiones entre ecología y economía. Pero también es una oportunidad para revisar las categorías disciplinares, para renovar las consistencias materiales, las calidades ambientales y las relaciones entre el cuerpo y el espacio. ABSTRACT The shortage of resources, foreseeable global warming and increasing desertification create an unprecedented prospect that question the existing relationships between water and architecture, in the urbanization of the arid lands. The awareness of the huge volumes of water that pierce unnoticed through urban space, their impact on the landscape as well as on environmental qualities, promote a design field where cultural, social and political considerations intersect, related to the body and the physical experience of space within the built environment. Fluidity and ubiquity, solution ability, variability and cyclical processes are characteristic of water as material, directly related with the fields of potential, chemical and thermal energy and the reality of its mass, as it occupies a changing volume in space. These are also the imposing cross sections that water introduces into the project, that argue in favor of a comprehensive and holistic understanding, of addressing design in relationship to landscape, infrastructure and environmental issues as a one single area of research. This work attempts to investigate how architecture, with its specific tools, can partake in the design of water cycle in the space, linking the organic, geological, and atmospheric, blurring the lines between hydrology and hydraulic. It aims to identify issues, within the continuous query associated with water, that deal with the architectural project and may have here better results. The deep cultural implications in the construction of urban nature and the relationship with the body, acquire special notoriety in the models of landscape and public space adopted, imported from humid geographies. Also in the stigmatization of water from the premises of nineteenth- century hygienics, which lead to the entire waterproofing of an aseptic and sterile city, to the sealed facades and white and polished interiors. The search for alternative references goes beyond modernity towards a mindset of low energy, as the traditional oasis of arid lands, which aims to reconcile the formation of a productive ecosystem with the conditioning of an outdoor public space, or the controlled environments of aerospace research, with closed cycles of matter. Fluidity, biodiversity, hydrophilicity and breathability are characteristic of an architecture with hydraulic competences. The distributing phenomenon of water, its necessary connectivity to the ground and to small cycles in the ecosystems, shows strong affinities with an infrastructural architecture, as an alternative to large-scale centralized networks. Its volume has approximated to the dimensions of the built space, promoting a new found condition of coexistence. A permeable and hydrophilic urbanization absorbs water as a valuable resource; new assemblies for urban biochemistry introduce an idea of sanitation closer to fertility than to disinfection; a breathable architecture that soaks and exudes freshness design the atmospheric conditions: these are the essential components of this new project. The city is understood as a synthesis of multi-scale hydraulic spaces that provides greater resilience against desertification and increases the visibility of water and the linkages between ecology and economy in the public scene. It is also an opportunity to review the disciplinary categories of architecture, the material consistencies, the environmental qualities and the relationship between body and space.
Resumo:
En un mundo donde el cambio es constante y cada vez más vertiginoso, la innovación es el combustible que utilizan las empresas que permite su renovación constante y, como consecuencia, su supervivencia en el largo plazo. La innovación es sin dudas un elemento fundamental para determinar la capacidad de las empresas en crear valor a lo largo del tiempo, y por ello, las empresas suelen dedicar esfuerzos considerables y recursos de todo tipo para identificar nuevas alternativas de innovación que se adapten a su estrategia, cultura, objetivos y ambiciones corporativas. Una forma específica para llevar a cabo la innovación es la innovación abierta. Esta se entiende como la innovación que se realiza de manera conjunta con otras empresas o participantes del ecosistema. Cabe la aclaración que en este documento se toma la definición de ecosistema referida al conjunto de clientes, proveedores, competidores y otros participantes que interactúan en un mismo entorno donde existen posiciones de liderazgo que pueden cambiar a lo largo del tiempo (Moore 1996). El termino de innovación abierta fue acuñado por Henry Chesbrough hace algo mas de una década para referirse a esta forma particular de organizar la innovación corporativa. Como se observa en el presente trabajo la innovación abierta es un nuevo paradigma que ha capturado el interés académico y empresarial desde algo más de una década. Se verán varios casos de innovación abierta que se están llevando a cabo en diversos países y sectores de la economía. El objetivo principal de este trabajo de investigación es el de desarrollar y explicar un modelo de relación entre la innovación abierta y la creación de valor en las empresas. Para ello, y como objetivos secundarios, se ha investigado los elementos de un Programa de Innovación Abierta, los impulsores 1 de creación de valor, el proceso de creación de valor y, finalmente, la interacción entre estos tres elementos. Como producto final de la investigación se ha desarrollado un marco teórico general para establecer la conexión entre la innovación abierta y la creación de valor que facilita la explicación de la interacción entre ambos elementos. Se observa a partir de los casos de estudio que la innovación abierta puede abarcar todos los sectores de la economía, múltiples geografías y empresas de distintos tamaños (grandes empresas, pequeñas y medianas empresas, incluso empresas de reciente creación) cada una de ellas con distinta relevancia dentro del ecosistema en el que participan. Elementos de un Programa de Innovación Abierta La presente investigación comienza con la enumeración de los distintos elementos que se encuentran presentes en los Programas de Innovación Abierta. De esta manera, se describen los diversos elementos que se han identificado a través de la revisión de la literatura académica que se ha llevado a cabo. En función de una serie de características comunes, los distintos elementos se agrupan en cuatro niveles diferentes para lograr un mejor entendimiento de los Programas de Innovación Abierta. A continuación se detallan estos elementos § Organización del Programa. En primer lugar se menciona la existencia de una estructura organizativa capaz de cumplir una serie de objetivos establecidos previamente. Por su naturaleza de innovación abierta deberá existir cierto grado de interacción entre los distintos miembros que participen en el proceso de innovación. § Talento Interno. El talento interno asociado a los programas de innovación abierta juega un rol fundamental en la ejecución y éxito del programa. Bajo este nivel se asocian elementos como la cultura de innovación abierta y el liderazgo como mecanismo para entender uno de los elementos que explica el grado de adopción de innovación en una empresa. Estrechamente ligados al liderazgo se encuentran los comportamientos organizacionales como elementos diferenciadores para aumentar las posibilidades de creación de innovación abierta. § Infraestructura. En este nivel se agrupan los elementos relacionados con la infraestructura tecnológica necesaria para llevar a cabo el programa incluyendo los procesos productivos y las herramientas necesarias para la gestión cotidiana. § Instrumentos. Por último, se mencionan los instrumentos o vehículos que se utilizan en el entorno corporativo para implementar innovación abierta. Hay varios instrumentos disponibles como las incubadoras corporativas, los acuerdos de licenciamiento o las áreas de capital de riesgo corporativo. Para este último caso se hará una mención especial por el creciente y renovado interés que ha despertado tanto en el entorno académico como empresarial. Se ha identificado al capital de riesgo corporativo como un de los elementos diferenciales en el desarrollo de la estrategia de innovación abierta de las empresas ya que suele aportar credibilidad, capacidad y soporte tecnológico. Estos cuatro elementos, interactuando de manera conjunta y coordinada, tienen la capacidad de crear, potenciar e incluso desarrollar impulsores de creación de valor que impactan en la estrategia y organización de la empresa y partir de aquí en su desempeño financiero a lo largo del tiempo. Los Impulsores de Creación de Valor Luego de identificar, ordenar y describir los distintos elementos presentes en un Programa de Innovación Abierta se ha avanzado en la investigación con los impulsores de creación de valor. Estos pueden definirse como elementos que potencian o determinan la capacidad de crear valor dentro del entorno empresarial. Como se puede observar, se detallan estos impulsores como punto de interacción entre los elementos del programa y el proceso de creación de valor corporativo. A lo largo de la presente investigación se han identificado 6 impulsores de creación de valor presentes en un Programa de Innovación Abierta. § Nuevos Productos y Servicios. El impulsor de creación de valor más directo y evidente en un Programa de Innovación Abierta es la capacidad de crear nuevos productos y servicios dado que se relacionan directamente con el proceso de innovación de la empresa § Acceso a Mercados Adyacentes. El proceso de innovación también puede ser una fuente de valor al permitir que la empresa acceda a mercados cercanos a su negocio tradicional, es decir satisfaciendo nuevas necesidades de sus clientes existentes o de nuevos clientes en otro mercado. § Disponibilidad de Tecnologías. La disponibilidad de tecnologías es un impulsor en si mismo de la creación de valor. Estas pueden ser tanto complementarias como de apalancamiento de tecnologías ya existentes dentro de la empresa y que tengan la función de transformar parte de los componentes de la estrategia de la empresa. § Atracción del Talento Externo. La introducción de un Programa de Innovación Abierta en una empresa ofrece la oportunidad de interactuar con otras organizaciones del ecosistema y, por tanto, de atraer el talento externo. La movilidad del talento es una característica singular de la innovación abierta. § Participación en un Ecosistema Virtuoso. Se ha observado que las acciones realizadas en el entorno por cualquiera de los participantes también tendrán un claro impacto en la creación de valor para el resto de participantes por lo tanto la participación en un ecosistema virtuoso es un impulsor de creación de valor presente en la innovación abierta. § Tecnología “Dentro--‐Fuera”. Como último impulsor de valor es necesario comentar que la dirección que puede seguir la tecnología puede ser desde la empresa hacia el resto del ecosistema generando valor a partir de disponibilizar tecnologías que no son de utilidad interna para la empresa. Estos seis impulsores de creación de valor, presentes en los procesos de innovación corporativos, tienen la capacidad de influir en la estrategia y organización de la empresa aumentando su habilidad de crear valor. El Proceso de Creación de Valor en las Empresas Luego se ha investigado la práctica de la gestión basada en valor que sostiene la necesidad de alinear la estrategia corporativa y el diseño de la organización con el fin de obtener retornos financieros superiores al resto de los competidores de manera sostenida, y finalmente crear valor a lo largo del tiempo. Se describe como los impulsores de creación de valor influyen en la creación y fortalecimiento de las ventajas competitivas de la empresa impactando y alineando su estrategia y organización. Durante la investigación se ha identificado que las opciones reales pueden utilizarse como una herramienta para gestionar entornos de innovación abierta que, por definición, tienen altos niveles de incertidumbre. Las opciones reales aportan una capacidad para la toma de decisiones de forma modular y flexible que pueden aplicarse al entorno corporativo. Las opciones reales han sido particularmente diseñadas para entender, estructurar y gestionar entornos de múltiples incertidumbres y por ello tienen una amplia aplicación en los entornos de innovación. Se analizan los usos potenciales de las opciones reales como complemento a los distintos instrumentos identificados en los Programas de Innovación Abierta. La Interacción Entre los Programas de Innovación Abierta, los Impulsores de Creación de Valor y el Proceso de Creación de Valor A modo de conclusión del presente trabajo se puede mencionar que se ha desarrollado un marco general de creación de valor en el entorno de los Programas de Innovación Abierta. Este marco general incluye tres elementos fundamentales. En primer lugar describe los elementos que se encuentran presentes en los Programas de Innovación Abierta, en segundo lugar como estos programas colaboran en la creación de los seis impulsores de creación de valor que se han identificado y finalmente en tercer lugar como estos impulsores impactan sobre la estrategia y la organización de la empresa para dar lugar a la creación de valor de forma sostenida. A través de un Programa de Innovación Abierta, se pueden desarrollar los impulsores de valor para fortalecer la posición estratégica de la empresa y su capacidad de crear de valor. Es lo que denominamos el marco de referencia para la creación de valor en un Programa de Innovación Abierta. Se presentará la idea que los impulsores de creación de valor pueden colaborar en generar una estrategia óptima que permita alcanzar un desempeño financiero superior y lograr creación de valor de la empresa. En resumen, se ha desarrollado un modelo de relación que describe el proceso de creación de valor en la empresa a partir de los Programas de Innovación Abierta. Para ello, se han identificado los impulsores de creación de valor y se ha descripto la interacción entre los distintos elementos del modelo. ABSTRACT In a world of constant, accelerating change innovation is fuel for business. Year after year, innovation allows firms to renew and, therefore, advance their long--‐term survival. Undoubtedly, innovation is a key element for the firms’ ability to create value over time. Companies often devote considerable effort and diverse resources to identify innovation alternatives that could fit into their strategy, culture, corporate goals and ambitions. Open innovation refers to a specific approach to innovate by collaborating with other firms operating within the same business ecosystem.2 The term open innovation was pioneered by Henry Chesbrough more than a decade ago to refer to this particular mode of driving corporate innovation. Open innovation is a new paradigm that has attracted academic and business interest for over a decade. Several cases of open innovation from different countries and from different economic sectors are included and reviewed in this document. The main objective of this study is to explain and develop a relationship model between open innovation and value creation. To this end, and as secondary objectives, we have explored the elements of an Open Innovation Program, the drivers of value creation, the process of value creation and, finally, the interaction between these three elements. As a final product of the research we have developed a general theoretical framework for establishing the connection between open innovation and value creation that facilitates the explanation of the interaction between the two. From the case studies we see that open innovation can encompass all sectors of the economy, multiple geographies and varying businesses – large companies, SMEs, including (even) start--‐ups – each with a different relevance within the ecosystem in which they participate. Elements of an Open Innovation Program We begin by listing and describing below the items that can be found in an Open Innovation Program. Many of such items have been identified through the review of relevant academic literature. Furthermore, in order to achieve a better understanding of Open Innovation, we have classified those aspects into four different categories according to the features they share. § Program Organization. An organizational structure must exist with a degree of interaction between the different members involved in the innovation process. This structure must be able to meet a number of previously established objectives. § Internal Talent. Internal talent plays a key role in the implementation and success of any Open Innovation program. An open innovation culture and leadership skills are essential for adopting either radical or incremental innovation. In fact, leadership is closely linked to organizational behavior and it is essential to promote open innovation. § Infrastructure. This category groups the elements related to the technological infrastructure required to carry out the program, including production processes and daily management tools. § Instruments. Finally, we list the instruments or vehicles used in the corporate environment to implement open innovation. Several instruments are available, such as corporate incubators, licensing agreements or venture capital. There has been a growing and renewed interest in the latter, both in academia and business circles. The use of corporate venture capital to sustain the development of the open innovation strategy brings ability, credibility, and technological support to the process. The combination of elements from these four categories, interacting in a coordinated way, makes it possible to create, enhance and develop value creation drivers that may impact the company’s strategy and organization and affect its financial performance over time. The Drivers of Value Creation After identifying describing and categorizing the different elements present in an Open Innovation Program our research examines the drivers of value creation. These can be defined as elements that enhance or determine the ability to create value in the business environment. As can be seen, these drivers can act as interacting points between the elements of the program and the process of value creation. The study identifies six drivers of value creation that might be found in an Open Innovation Program. § New Products and Services. The more direct and obvious driver of value creation in any Open Innovation Program is the ability to create new products and services. This is directly related to the company’s innovation process. § Access to Adjacent Markets. The innovation process can also serve as a source of value by granting access to adjacent markets through satisfying new needs for existing customers or attracting new customers from other markets. § Availability of Technologies. The availability of technology is in itself a driver for value creation. New technologies can either be complementary and/or can leverage existing technologies within the firm. They can partly transform certain elements of the company’s strategy. § External Talent Strategy. Incorporating an Open Innovation Program offers the opportunity to interact with other organizations operating in the same ecosystem and can therefore attract external skilled resources. Talent mobility is a unique feature of open innovation. § Becoming Part of a Virtuous Circle. The actions carried out in the environment by any of its members will also have a clear impact on value creation for the other participants. Participation in a virtuous ecosystem is thus a driver for value creation in an open innovation strategy. § Inside--‐out Technology. Value creation may also evolve by allowing other firms in the ecosystem to incorporate internally developed under--‐utilized technologies into their own innovation processes. These six drivers that are present in the innovation process can influence the strategy and the organization of the company, increasing its ability to create value. The Value Creation Process Value--‐based management is the management approach that requires aligning the corporate strategy and the organizational design to create value and obtain sustained financial returns (at least, higher returns than its competitors). We describe how the drivers of value creation can enhance corporate advantages by aligning its strategy and organization. During this study, we were able to determine that real options can be used as managing tools in open innovation environments which, by definition, have high uncertainty levels. Real options provide capability for flexible and modular decision--‐making in the business environment. In particular, real options have been designed for uncertainty management and, therefore, they may be widely applied in innovation environments. We analyze potential uses of real options to supplement the various instruments identified in the Open Innovation programs. The Interaction Between Open Innovation Programs, Value Creation drivers and Value Creation Process As a result of this study, we have developed a general framework for value creation in Open Innovation Programs. This framework includes three key elements. We first described the elements that are present in Open Innovation Programs. Next, we showed how these programs can boost six drivers of value creation that have been identified. Finally, we analyzed how the drivers impact on the strategy and organization of the company in order to lead to the creation of sustainable value. Through an Open Innovation Program, value drivers can be developed to strengthen a company’s strategic position and its ability to create value. That is what we call the framework for value creation in the Open Innovation Program. Value drivers can collaborate in generating an optimal strategy that helps foster a superior financial performance and a sustained value creation process. In sum, we have developed a relationship model that describes the process of creating value in a firm with an Open Innovation Program. We have identified the drivers of value creation and described how the different elements of the model interact with each other.
Resumo:
Este proyecto de fin de carrera se realiza bajo la supervisión y aprobación de la empresa BT S.A.U. Este documento pretende ser un manual básico para dar a conocer al lector los elementos, herramientas y procedimientos para llevar a cabo un proyecto de tendido de fibra óptica en España. Se compone de 5 temas cuyos contenidos paso a resumir a continuación. Tema 1. En él, se muestra una explicación a las redes de acceso y las distintas topologías FTTx necesarias para llegar al cliente, además de las tecnologías y elementos utilizados para su conexión. Tema 2. Se explicará la regulación española para el tendido de redes de acceso necesarios como son la Regulación OBA, coubicación en las centrales de Telefónica, y la Regulación MARCO, compartición de la infraestructura de Telefónica con otros operadores. Tema 3. Aquí se explica la herramienta NEON, necesaria para la “comunicación” con Telefónica para las peticiones de la compartición de su infraestructura y un apartado para la legislación municipal para el despliegue de redes de fibra. Tema 4. Expondremos el procedimiento de trabajo en campo. Hablaremos de los procedimientos del tendido de cable, las obras civiles, y finalmente las medidas para comprobar el enlace. Tema 5. Explicaremos un ejemplo de despliegue real, desde la viabilidad hasta finalmente el tendido. Tema 6. Por último, expondré mis conclusiones y trabajos futuros. Este proyecto está orientado desde un punto de vista de la infraestructura (Capa Física, Modelo OSI). ABSTRACT. This thesis project is carried out under the supervision and approval of the company BT S.A.U. This document is intended as a basic manual to expose the reader items, tools, and procedures to carry out a deployment of optical fiber project in Spain. It is composed of 5 topics whose contents I summarize below. Topic 1. In it, shows an explanation to access networks and different topologies FTTx necessary to reach the customer, as well as technologies and elements used for connection. Topic 2. In this topic will be explained the Spanish regulation for the access networks needed such as the regulation of OBA, co-location in Telefonica’s central, and the framework regulation, sharing of Telefonica infrastructure with other operators. Topic 3. Here we explain the tool NEON, necessary for the "communication" with Telefónica for requests for infrastructure sharing, and a section for municipal legislation for the deployment of fiber networks. Topic 4. We will exhibit work in field procedure. We will discuss the procedures of laying cable, civil works, and finally measures to check the link. Topic 5. We will present an example of an actual deployment, from viability until finally laying. Topic 6. Finally, I shall explain my conclusions and future work. This project is from a point of view of the infrastructure (physical layer, OSI model).