64 resultados para CABLEADO ESTRUCTURADO
Resumo:
Este trabajo de investigación se compone de ocho capítulos ilustrados con varios planos referentes a la evolución y composición urbana de la Medina de Argel, un plano de la restitución de la estructura urbana de la ciudad, varias láminas correspondientes a plantas, secciones y alzados de 45 casas del actual caso histórico, otras láminas en las cuales se sintetizan los diferentes tipos de viviendas, la tipología de las entradas y la de las habitaciones, además de reproducciones de grabados, dibujos y planos parciales que se escalonan entre los siglos XVI y XIX, estos últimos hallados en distintos archivos. La tesis aborda, como núcleo central, el análisis pormenorizado de la vivienda tradicional de la Medina de Argel y su evolución a lo largo de los tres siglos de la época otomana, ilustrado por una abundante documentación planimétrica y apoyado en documentos históricos. La localización de casas que fueron propiedad de andalusíes o habitadas por miembros de su comunidad, se ha realizado a través del estudio de documentos de códices encontrados principalmente en el Archivo Nacional de Argel. Los diferentes elementos que componen el marco urbano y las diferentes etapas de su desarrollo se estudian a través de cuatro secciones temáticas: la infraestructura políco-militar, como fundamento del asentamiento del poder otomano; la estructura urbana, basada en la restitución de las calles y en su organización en barrios; el sistema económico, estructurado en mercados y repartido entre los diferentes gremios, y el abastecimiento de agua, suministrado por acueductos y distribuido entre las fuentes. El último capítulo está dedicado a la investigación de los posibles antecedentes de las casas de la Medina de Argel y se ofrece una panorámica global de la arquitectura residencial por orden cronológico. En las conclusiones generales se subrayan las nuevas aportaciones con respecto a las características urbanas de la Medina, así como su expansión, y se destaca la evolución de estas viviendas con las hispano-magrebies
Resumo:
Resulta imposible disociar la evolución de la arquitectura de Enric Miralles de lo que fue el desarrollo de un sistema de representación propio. Partiendo de una posición heredada de su formación en la Escuela de Arquitectura de Barcelona y de su práctica en el estudio Viaplana-Piñón, donde adquiere el gusto por la precisión en el dibujo técnico, la delineación sobre papel vegetal o el grafismo constituido exclusivamente a base de líneas del mismo grosor, Miralles pronto evoluciona hacia un método caracterizado por un personal uso del sistema diédrico, vinculado a una concepción fragmentaria de la planta de arquitectura y del espacio mismo. Miralles proyectará por fragmentos de planta, asignándoles una geometría característica para diferenciarlos entre sí y desarrollar su espacialidad y sección con cierta autonomía, a través de planos y maquetas independientes. Gran parte de la arquitectura que elabora con Carme Pinós, en solitario o con Benedetta Tagliabue, estará compuesta por colecciones de piezas heterogéneas herederas de los fragmentos de la planta original, que encajan entre sí no en base a esquemas clásicos de integración subordinada o jerárquica, sino a través de posiciones relativas de yuxtaposición o superposición, caracterizadas por una ausencia de compacidad en la solución de conjunto. Este sistema de representación se apoya por tanto en la geometría como mecanismo de diferenciación por piezas, se basa en la fragmentación del diédrico desde la fragmentación de la planta, y en la falta de compacidad como soporte de pensamiento separativo. Un sistema que se define como “planta Miralles”, término que incluye todas las técnicas de representación empleadas por el arquitecto, desde planos a maquetas, pero que enfatiza la importancia estratégica de la planta como origen y guía del proyecto de arquitectura. La tesis se estructura en los tres primeros capítulos como un corolario de las categorías enunciadas, explicando, en orden cronológico a través de los proyectos, la evolución de la geometría, la utilización del diédrico, y el impacto de la falta de compacidad en la obra construida. Mientras que estos capítulos son globales, se refieren a la trayectoria de este método en su totalidad, el cuarto y último es un estudio de detalle de su aplicación en un proyecto particular, el Ayuntamiento de Utrecht, a través de los dibujos originales de Miralles. Tanto en la explicación global como en el estudio de detalle de este sistema de representación, la tesis pone de manifiesto su instrumentalidad en el pensamiento de esta arquitectura, argumentando que ésta no podría haber sido desarrollada sin la existencia del mismo. La relación entre representación y pensamiento es por tanto un tema capital para explicar esta obra. No obstante, hasta la fecha, las referencias al mismo en la bibliografía disponible no han pasado de ser una colección de opiniones dispersas, incapaces de construir por sí mismas un cuerpo estructurado y coherente de conocimiento. Se ha insistido sobremanera en el análisis y contextualización de los proyectos individuales, y poco en el estudio de la técnica proyectual utilizada para pensarlos y llevarlos a cabo. En definitiva, se han priorizado los resultados frente a los procesos creativos, existiendo por tanto un inexplicable vacío teórico respecto a un tema de gran importancia. Este vacío es el marco donde se inserta la necesidad de esta tesis doctoral. La investigación que aquí se presenta explica el origen y evolución del sistema de representación de Enric Miralles, desde su etapa como estudiante en la Escuela de Arquitectura de Barcelona hasta los últimos proyectos que elabora con Benedetta Tagliabue, así como el estudio de sus consecuencias en la obra construida. Termina concluyendo que su desarrollo es paralelo al de la arquitectura de Miralles, poniendo de manifiesto su vinculación y mutua interdependencia. ABSTRACT It is impossible to dissociate the evolution of the architecture of Enric Miralles from the development of his own system of representation. Starting from a position inherited from his training at the Barcelona School of Architecture and his practice at the office of Viaplana-Piñón, where he acquires a liking for precision in drafting and a graphic style based exclusively on lines of the same thickness, Miralles soon moves into a method defined by a customized use of the dihedral system, connected to a fragmented conception of the floorplan and space itself. Breaking up the floorplan into multiple fragments, Miralles will design an architecture where each of them has a unique shape and geometry, developing their sections and spatial qualities with a certain degree of autonomy within the whole, through separate plans and models. Many of the projects he designs with Carme Pinós, individually or with Benedetta Tagliabue, will consist of collections of heterogeneous pieces, heirs of the original floorplan fragments, which do not fit together according to classical principles of subordinate or hierarchical integration, but based on relative positions of juxtaposition or superposition that lead to a lack of compactness in the overall scheme. This system of representation is thus based on the use of geometry as a way of differentiating architectural pieces, on the fragmentation of the dihedral system from the fragmentation of the floorplan, and on a lack of compactness as a device of separative thinking. This system is defined as “Miralles plan”, a term that includes all techniques of representation used by the architect, from plans to models, and that emphasizes the particular importance of the floorplan as the guiding force of the design process. The first three chapters of the thesis have been structured as a corollary of these categories, explaining, in chronological order through Miralles’ projects, the evolution of geometry, the customization of the dihedral system, and the impact of the lack of compactness on the built work. While these three chapters are global, for they refer to the overall evolution of this system, the fourth and last one is a case study of its application to a particular project, the Utrecht Town Hall, through Miralles’ original drawings. Both in the global and particular explanations of this system of representation, the thesis highlights its instrumentality in the process of thinking this architecture, arguing that it could not have been designed without its parallel development. The relationship between thinking and representation is therefore a key issue to explain this architecture. However, to date, existing references to it in the available literature have not evolved from a collection of scattered opinions, unable to build for themselves a structured and coherent body of knowledge. Great emphasis has been put on the critical contextualization of this architecture through the analysis of the projects themselves, but little on the study of the design technique used to think and carry them out. Results have been prioritized over creative processes, existing therefore an inexplicable theoretical void on an issue of great importance. This void is the conceptual framework where the need for this thesis is inserted. This research explains the origin and evolution of Enric Miralles’ system of representation, from his time as student at the Barcelona School of Architecture to the last projects he designed with Benedetta Tagliabue, as well as the study of its impact on the built work. It concludes that the development of this system runs parallel to that of the architecture it is used for, making it explicit its indissolubility and mutual interdependence.
Resumo:
Resulta difícil definir una profesión que surge por la necesidad de adaptar los espacios de trabajo a las nuevas tendencias de las organizaciones, a la productividad, a las nuevas tecnologías que continúan modificando y facilitando desde las últimas décadas el modo y forma de trabajar. Mucho más complicado resulta definir una profesión casi invisible. Cuando todo funciona en un edificio, en un inmueble, en un activo. Todo está correcto. He ahí la dificultad de su definición. Lo que no se ve, no se valora. Las reuniones, las visitas, un puesto de trabajo, una sala de trabajo, una zona de descanso. La climatización, la protección contra incendios, la legionela, el suministro eléctrico, una evacuación. La organización, sus necesidades, su filosofía. Los informes, los análisis, las mejoras. Las personas, el espacio, los procesos, la tecnología. En la actualidad, todo se asocia a su coste. A su rentabilidad. En la difícil tarea de realizar el proyecto de un edificio, participan multitud de aspectos que deben estar perfectamente organizados. El arquitecto proyecta y aúna en el proyecto: pasado (experiencia), presente (tendencias) y futuro (perdurabilidad). Y es en ese momento, cuando al considerar el futuro del edificio, su perdurabilidad, hace que su ciclo de vida sea criterio fundamental al proyectar. Que deba considerarse desde el primer esbozo del proyecto. Para que un edificio perdure en el tiempo existen gran número de factores condicionantes. Empezando por su uso apropiado, su nivel de actividad, pasando por las distintas propiedades que pueda tener, y terminando por los responsables de su mantenimiento en su día a día. Esa profesión invisible, es la disciplina conocida como Facility Management. Otra disciplina no tan novedosa –sus inicios fueron a finales del siglo XIX-, y que en la actualidad se empieza a valorar en gran medida es la Responsabilidad Social. Todo lo que de forma voluntaria, una organización realiza por encima de lo estrictamente legal con objeto de contribuir al desarrollo sostenible (económico, social y medio ambiental). Ambas disciplinas destacan por su continuo dinamismo. Reflejando la evolución de distintas inquietudes: • Personas, procesos, espacios, tecnología • Económica, social, medio-ambiental Y que sólo puede gestionarse con una correcta gestión del cambio. Elemento bisagra entre ambas disciplinas. El presente trabajo de investigación se ha basado en el estudio del grado de sensibilización que existe para con la Responsabilidad Social dentro del sector de la Facility Management en España. Para ello, se han estructurado varios ejercicios con objeto de analizar: la comunicación, el marco actual normativo, la opinión del profesional, del facilities manager. Como objetivo, conocer la implicación actual que la Responsabilidad Social ejerce en el ejercicio de la profesión del Facilities Manager. Se hace especial hincapié en la voluntariedad de ambas disciplinas. De ahí que el presente estudio de investigación realice dicho trabajo sobre elementos voluntarios y por tanto sobre el valor añadido que se obtiene al gestionar dichas disciplinas de forma conjunta y voluntaria. Para que una organización pueda desarrollar su actividad principal –su negocio-, el Facilities Manager gestiona el segundo coste que esta organización tiene. Llegando a poder ser el primero si se incluye el coste asociado al personal (nóminas, beneficios, etc.) Entre el (70 – 80)% del coste de un edificio a lo largo de toda su vida útil, se encuentra en su periodo de explotación. En la perdurabilidad. La tecnología facilita la gestión, pero quien gestiona y lleva a cabo esta perdurabilidad son las personas en los distintos niveles de gestión: estratégico, táctico y operacional. En estos momentos de constante competencia, donde la innovación es el uniforme de batalla, el valor añadido del Facilities Manager se construye gestionando el patrimonio inmobiliario con criterios responsables. Su hecho diferenciador: su marca, su reputación. ABSTRACT It comes difficult to define a profession that emerges due to the need of adapting working spaces to new organization’s trends, productivity improvements and new technologies, which have kept changing and making easier the way that we work during the last decades. Defining an invisible profession results much more complicated than that, because everything is fine when everything works in a building, or in an asset, properly. Hence, there is the difficulty of its definition. What it is not seen, it is not worth. Meeting rooms, reception spaces, work spaces, recreational rooms. HVAC, fire protection, power supply, legionnaire’s disease, evacuation. The organization itself, its needs and its philosophy. Reporting, analysis, improvements. People, spaces, process, technology. Today everything is associated to cost and profitability. In the hard task of developing a building project, a lot of issues, that participate, must be perfectly organized. Architects design and gather/put together in the project: the past (experience), the present (trends) and the future (durability). In that moment, considering the future of the building, e. g. its perdurability, Life Cycle turn as the key point of the design. This issue makes LCC a good idea to have into account since the very first draft of the project. A great number of conditioner factors exist in order to the building resist through time. Starting from a suitable use and the level of activity, passing through different characteristics it may have, and ending daily maintenance responsible. That invisible profession, that discipline, is known as Facility Management. Another discipline, not as new as FM –it begun at the end of XIX century- that is becoming more and more valuable is Social Responsibility. It involves everything a company realizes in a voluntary way, above legal regulations contributing sustainable development (financial, social and environmentally). Both disciplines stand out by their continuous dynamism. Reflecting the evolution of different concerning: • People, process, spaces, technology • Financial, social and environmentally It can only be managed from the right change management. This is the linking point between both disciplines. This research work is based on the study of existing level of increasing sensitivity about Social Responsibility within Facility Management’s sector in Spain. In order to do that, several –five- exercises have been studied with the purpose of analyze: communication, law, professional and facility manager’s opinions. The objective is to know the current implication that Social Responsibility has over Facility Management. It is very important the voluntary part of both disciplines, that’s why the present research work is focused over the voluntary elements and about the added value that is obtained managing the before named disciplines as a whole and in voluntary way. In order a company can develop his core business/primary activities, facility managers must operate the second largest company budget/cost centre. Being the first centre cost if we considerer human resources’ costs included (salaries, incentives…) Among 70-80% building costs are produced along its operative life. Durability Technology ease management, but people are who manage and carry out this durability, within different levels: strategic, tactic and operational. In a world of continuing competence, where innovation is the uniform for the battle, facility manager’s added value is provided managing company’s real estate with responsibility criteria. Their distinguishing element: their brand, their reputation.
Resumo:
El Proyecto Fin de Carrera realizado aborda un estudio teórico acerca de la retransmisión de un Real Madrid – F.C. Barcelona. Con este proyecto se intenta que el lector consiga tener una idea acerca de todo lo que con lleva un partido de fútbol con estas dimensiones desde el punto de vista audiovisual y sea capaz de entender los pasos necesarios a dar para realizarlo. Cuando vemos la retransmisión de un evento deportivo y concretamente de un partido de fútbol de tal envergadura, es casi imposible pensar el despliegue que hay detrás de él. Por ello, se ha intentado explicar de una manera sencilla y breve la manera de realizar un evento de este tamaño, que podría servir como ejemplo para realizar otros eventos deportivos de gran escala. A lo largo de este proyecto, se realiza un estudio completo sobre los principales pasos a dar para hacer posible que la retransmisión llegue a los espectadores. La memoria de este proyecto está basada en 7 capítulos. En el primer capítulo, se expone una breve introducción sobre la retransmisión de partidos, para que el lector pueda hacerse una idea de lo que se va a realizar posteriormente y pueda tener una idea de lo que se explica en los capítulos restantes. En el segundo capítulo, se trata del primer paso para la retransmisión de un partido de fútbol, que puede aplicarse a otros eventos deportivos. Este apartado está centrado en la localización del lugar, en él se explican los primeros pasos a dar en los primeros días de montaje. Estos son fundamentales para que posteriormente el partido pueda salir de la mejor manera posible, equivocarse o cometer errores al inicio puede acarrear mayores gastos económicos y grandes demoras de tiempo posteriormente. El tercer capítulo se centra en el montaje y la producción del evento. En la primera parte, se explica cómo situar dentro del campo de fútbol los micrófonos y las cámaras. Además, se hace una descripción de cada uno de ellos. También se introducen conceptos básicos y parámetros de los principales micrófonos y cámaras que se usarán en el evento. La segunda parte del capítulo se centra en explicar las diferentes señales utilizadas, como se transmiten y la comunicación interna y externa. El capítulo cuarto sirve para conocer el material necesario para realizar el evento. Se explican: micrófonos, cámaras, EVS (Unidades de grabación), CCU (Camera Control Unit), mezclador y tipo de cableado indicando los modelos y marcas más relevantes que se usan en la actualidad. Además, se pueden ver diferentes figuras del material utilizado. En el quinto capítulo, se ven las principales funciones que realizan los empleados. Comienza con una amplia explicación de la realización del evento y continúa explicando las diferentes funciones de los operadores del material visto en el capítulo anterior. El capítulo sexto, sirve para explicar un presupuesto aproximado de lo que sería la realización y producción del evento y poder estudiar la viabilidad de este. Por último, en el capítulo séptimo se ven una serie de conclusiones a modo de resumen, las cuales han de ayudar a dejar completamente claros una serie de conceptos básicos acerca del proyecto. ABSTRACT. The Thesis made deals with a theoretical study of the broadcast of a Real Madrid - FC Barcelona. This project, tries that the reader gets has an idea of everything that has a football match with these dimensions from the visual point of view and be able to understand the steps to take. When we see the broadcast of a sport event and specifically a football match of this magnitude, it is almost impossible to think the deployment behind it. Therefore, we have tried to explain in a simple and concise way to hold an event of this size and it could serve for other large-scale sporting events. Throughout this project, a comprehensive study is done on the main steps to be taken to make the broadcast possible way to reach spectators. The memory of this project is based on seven chapters. In the first chapter, a brief introduction explains retransmission matches, so that the reader can get an idea about is explained in the next chapters. In the second chapter, the first step is performed to broadcast a football match and that can be applied to other sports events. This section focuses on the location of where it explains the first days of installation. This is important for later the match can be done of the best possible way and wrong or make mistakes at the beginning can lead to higher economic costs and long delays of time later. The third chapter focuses on the assembly and production of the event. The first part explains how to locate within the football field microphones and cameras. It also explains each one. Also, introduces basic concepts and parameters of the main microphones and cameras that will be used at the event. In the second part, the chapter focuses on explaining the different signals used as transmission and communication internally and externally. The fourth chapter serves to meet the necessary material for the event. It explains: microphones, cameras, EVS, CCU, mixer and cabling type indicating the most relevant models and brands that are used today. Also, you can see different figures on the material used. In the fifth chapter, the main functions are performed by employees. It begins with a thorough explanation of the event and goes on to explain the various functions of the operators of the material seen in the previous chapter. The sixth chapter, helps explain an estimate of what would be the creation and production of the event and to study the feasibility of this. Finally, in the seventh chapter are a number of conclusions in summary, which should help to make thoroughly clear a number of basic concepts about the project.
Resumo:
Motivación Internet es sin duda sinónimo de telecomunicaciones en este momento, es la tecnología no de futuro, sino de presente llamada a cambiar la sociedad hasta puntos insospechables, sin opción de retorno. Hoy en día ha cambiado la forma en la que nos relacionamos, la forma en la que trabajamos y la manera en que tomamos decisiones se ve fuertemente apoyada en esta herramienta. Por supuesto el devenir de la Red está por ver, los gobiernos y las grandes compañías quieren "meter mano" en el control de los contenidos, sin embargo parece que la Red sabe autogestionarse y es capaz de funcionar dentro de un modelo semi-anárquico. Objetivos El objetivo del presente proyecto es dar a conocer los orígenes de la red de redes, desarrollando un entorno social, político, económico y tecnológico para una mejor comprensión. El lector no obtendrá un extenso conocimiento técnico sobre redes y ordenadores, sin embargo será capaz de entender los verdaderos motivos que llevaron a una comunidad científica a crear la mayor herramienta para el desarrollo del ser humano. También es mi intención hacer que el lector reflexione sobre cómo influyen diferentes factores en el devenir de los hechos, momentos de grandes cambios sociales o políticos, o cómo la ciencia resuelve problemas mediante la observación o el análisis, buscando siempre la mejor opción, sin conformarse con soluciones a medias. Estructura El proyecto está estructurado en 3 grandes bloques. El primer bloque corresponde a los tres primeros capítulos que nos adentran en el tema vía una introducción a modo de punto de partida u origen del concepto, un marco histórico del período de formación de la Red y un pequeño análisis del estado del arte de los ordenadores desde sus orígenes como tal, prácticamente coetáneos con el origen de Internet. El segundo bloque narra cómo comienza el desarrollo de la Red, los pasos que se van dando y las soluciones adoptadas hasta llegar a lo que conocemos hoy día como la red de redes: Internet. Por último se detallan las conclusiones obtenidas tras la escritura de este documento, realizando una serie de reflexiones globales que me surgen tras conocer la historia de la Red. ABSTRACT. Motivation Nowadays Internet without any doubt means telecommunications. It is not the future technology but the present one and it is supposed to change the society to an unexpected point, without possibility of return. It has already changed the way we communicate each other, the way we work and also the way we take decisions are strongly hold by this tool. Meanwhile we will see the becoming of the Network, the governments and the big companies want to have the control over the contents, however it seems that the Network has the ability to self-manage and it is also capable to keep working in a semi-anarchic model. Objectives The main aim of the present project is to show what is the real origin of the network of networks, developing a social, politic, economic and technologic context of it to ensure a better comprehension. The reader won´t get an extended knowledge about computing or networking, however he or she will be able to understand the truly motivation that lead a scientific community to create the most important tool for the human development. It is also my intention to make the reader think about how different facts, depending on the moment they take place like social or political changes, can transform the way everything happens and how science solves problems by the observation and the analysis, searching always the best option, without comply with half solutions. Structure This project is divided into three sections. The first part which includes the three first chapters place us in the topic by an introduction of the concept origin, an historic context of the period of Network development and a small analysis of the state of the art in computing since its origins, which appear at the same time as the Internet. The second block explains how the development of the Net starts, the steps followed and the solutions taken until the arrival of the network of networks we all know: the Internet. Finally, we can find the conclusions, which are exposed in a reflection way, with some considerations that came to me after writing this document about the history of the Internet.
Resumo:
La idea de hacer un libro como este dedicado a exponer un conjunto de datos descriptivos de mi trayectoria profesional de más de cuarenta y cinco años como ingeniero brotó en mi mente como una decisión basada en el libro publicado sobre la Trayectoria artística de mi esposa, Pilar Lara, acogido muy satisfactoriamente por sus familiares, amigos y colegas, que reconocieron que su visión y lectura les aportó un exquisito conjunto estructurado y conceptual de informaciones acerca de los procesos polifacéticos y complejos de la vida artística y personal de esta mujer. He pensado que podía crear un documento con formato de libro sobre mi trayectoria profesional, con la finalidad de exponer también un conjunto estructurado y conceptual acerca de mis variadas actividades técnicas y sociotécnicas de infoingeniero con tendencias polifacéticas e interdisciplinares, un tanto heterodoxas en el mundo de la ingeniería. Además de esa finalidad informativa, con menos explicaciones, debido a su tecnicidad, que las del libro sobre procesos humanos y artísticos de Pilar Lara, como autor pretendo un objetivo personal, consistente en plasmarlo moderadamente como un complemento del de mi esposa.
Resumo:
El estudio sobre Domótica que presentamos en este documento pretende ser un texto con una explícita orientación didáctica y por tanto supuestamente coherente,bien estructurado, de lectura sencilla y amena, dentro de lo posible. Dedicamos este prefacio a explicar un poco su razón de ser, su génesis y su contexto.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
El presente trabajo tiene como objetivo diseñar un modelo de gestión de responsabilidad social sustentado en estándares internacionales para las empresas del sector petrolero venezolano. Esta investigación no se suscribe a un modelo epistémico en particular, como forma parcializada de ver la realidad. Por el contrario, se realizó un abordaje holístico de la investigación, entendiendo el evento de estudio, la gestión de la responsabilidad social, como un evento integrado por distintas visiones de la relación empresa – sociedad. La holística se refiere a una tendencia que permite entender la realidad desde el punto de vista de las múltiples interacciones que la caracterizan. Corresponde a una actitud integradora como también a una teoría explicativa que se orienta hacia una comprensión contextual de los procesos, de los protagonistas y de los eventos. Desde la concepción holística se determinó que la investigación es de tipo proyectiva. Este tipo de investigación propone soluciones a una situación determinada a partir de un proceso de indagación. Implica describir, comparar, explicar y proponer alternativas de cambios, lo que da lugar a los estadios de investigación. En cuanto al diseño de la investigación, aplicando el ciclo holístico, se tiene un diseño que es univariable, transeccional contemporáneo y de fuente mixta. Univariable, porque se enfoca en la gestión de responsabilidad social. Transeccional contemporáneo, porque el evento se estudia en la actualidad y se realiza una sola medición de los datos. De fuente mixta, porque en los estadios descriptivo y explicativo se aplica un diseño de campo, al recolectar los datos directamente en las empresas objeto de estudio, mientras que para los estadios analítico y comparativo se aplica un diseño documental. Las técnicas de recolección de la información estuvieron constituidas por fuentes primarias provenientes de la observación directa, la revisión documental y la aplicación de un cuestionario estructurado tipo escala Likert. El análisis de los datos comprendió el análisis estadístico descriptivo, la estimación de la fiabilidad y el análisis de coeficientes de correlación y análisis de ruta, a través del software estadístico SPSS v.19.0 y AMOS v.20. En los estadios descriptivo y explicativo se estudió la gestión de la responsabilidad social en las empresas del sector petrolero. Los resultados indicaron que las empresas del sector petrolero actúan bajo los lineamientos trazados en el Plan de Desarrollo Nacional y de acuerdo con las políticas, directrices, planes y estrategias para el sector de los hidrocarburos, dictadas por el Ministerio de Energía y Petróleo. También incluyen el compromiso social y la política ambiental en su filosofía de gestión. Tienen en su estructura organizacional una gerencia de desarrollo social que gestiona la responsabilidad social. Las actividades de inversión social se presentan poco estructuradas y en ocasiones se improvisan ya que atienden a los lineamientos políticos del Estado y no a una política interna de sostenibilidad del negocio petrolero. En cuanto a la integralidad de la gestión las empresas no consideran la responsabilidad social en todas las áreas, por lo que deben ampliar su concepción de una gestión responsable, redefiniendo estructuras, estrategias y procesos, con una orientación hacia una gestión sustentable. En cuanto a los estadios analítico y comparativo aplicados al estudio de las guías y estándares internacionales de responsabilidad social, se determinó que en términos de la integralidad de la gestión las iniciativas que destacan son: en cuanto a los principios, las directrices para empresas multinacionales según la OCDE y el Libro Verde de la Unión Europea. En relación con las guías de implementación y control, el Global Reporting Initiative y la norma ISO 26000. Y en cuanto a los sistemas de gestión el Sistema de Gestión Ética y Responsable (SGE 21) y el Sistema de Gestión de Responsabilidad Social IQNET SR10. Finalmente se diseñó una estructura para la gestión integral de responsabilidad social basada en los estándares internacionales y en el concepto de desarrollo sostenible. Por tanto abarca el desarrollo social, el equilibrio ecológico y el crecimiento económico, lo que permite un desarrollo sinérgico. La originalidad del enfoque consistió en la comprensión de la investigación desde una concepción holística, que permitió la integración de las teorías que tratan el tema de la responsabilidad social a través de un abordaje estructurado. ABSTRACT The present research aims to design a model of social responsibility management underpinned by international standards for companies in the Venezuelan oil sector. This research is not framed in a particular epistemic model as a biased way of looking at reality. Instead, a holistic approach to the research was conducted, understanding the event under study, the management of social responsibility as an event composed of different views of the relationship between corporation and society. The term holistic refers to a trend in understanding the reality from the point of view of the multiple interactions that characterize it. It corresponds to an integrative as well as an explanatory theory that is oriented towards a contextual understanding of the processes, of the participants and of the events. From the holistic conception it was determined that this research is of a projective type. The research proposes solutions to a given situation from a process of inquiry. It implies describing, comparing, explaining and proposing alternative changes, which results in the different research stages. Regarding the research design, applying the holistic cycle, an univariate, contemporary cross-sectional and mixed source design is obtained. It is univariate, because it focuses on the management of social responsibility. It is contemporary cross-sectional, because the event is studied in the present time and a single measurement of data is performed. It relies on mixed source, because in the descriptive and explanatory stages a field design is applied when collecting data directly from the companies under study, while for the analytical and comparative stages applies a documentary design is applied. The data collection techniques were constituted by primary sources from direct observation, document review and the implementation of a structured Likert scale questionnaire. The data analysis comprised descriptive statistical analysis, reliability estimates and analysis of correlation and the path analysis through the SPSS v.19.0 and AMOS V.20 statistical software. In the descriptive and explanatory stages social responsibility management in the oil sector companies was studied. The results indicated that the oil companies operate under the guidelines outlined in the National Development Plan and in accordance with the policies, guidelines, plans and strategies for the hydrocarbons sector, issued by the Ministry of Energy and Petroleum. They also include the social commitment and the environmental policy in their management philosophy. They have in their organizational structure a social development management which deals with social responsibility. Corporate social investment is presented poorly structured and is sometimes improvised since they follow the policy guidelines of the state and not the internal sustainability policy of the oil business. As for the integrity of management companies they do not consider social responsibility in all areas, so they need to expand their conception of responsible management, redefining structures, strategies and processes, with a focus on sustainable management. As for the analytical and comparative stages applied to the study of international guidelines and standards of social responsibility, it was determined that, in terms of the comprehensiveness of management, the initiatives that stand out are the following: With respect to principles, the guidelines for multinational enterprises as indicated by OECD and the Green Paper of the European Union. Regarding the implementation and control guides, the Global Reporting Initiative and the ISO 26000 standard are relevant. And as for management systems the Ethics and Responsible Management System (SGE 21) and the IQNet SR10 Social responsibility management system have to be considered. Finally a framework for the comprehensive management of social responsibility based on international standards and the concept of sustainable development was designed. Hence, social development, ecological balance and economic growth are included allowing therefore a synergistic development. The originality of this approach is the understanding of research in a holistic way, which allows the integration of theories that address the issue of social responsibility through a structured approximation.
Resumo:
Un Equity Carve Out, también conocido como escisión IPO o escisión parcial de empresas, constituye un tipo de reorganización corporativa, en la que una empresa crea una nueva filial a partir de la separación de una de sus actividades, negocios o servicios. Estas operaciones empresariales actualmente constituyen unas de las prácticas más comunes usadas por las compañías para conseguir financiación. El capital entrante por la venta de parte o la totalidad de la filial, justificará por un lado el esfuerzo invertido en el proceso y por otro abrirá nuevos caminos para la empresa recién constituida. Pero la mayor parte de estos procesos son de una complejidad elevada, tanto si se ven desde la óptica externa a la empresa, como interna. Por un lado las valoraciones bursátiles, dadas las actuales circunstancias económicas, no son las mejores. Y por otro, los proyectos de escisión tienen demasiados puntos críticos para considerarlos sencillos o mecánicos de ejecución. Este documento se centrará en dar solución a la problemática interna que afrontan las empresas una vez tomada la decisión de escindir una actividad: ¿cómo gestionar el proceso? Desde la experiencia y el conocimiento empresarial, se propone como solución: un proyecto completo, coherente y estructurado de escisión; y un PMO o responsable de proyecto, para dirigirlo. Durante todo el documento se repasarán todos y cada uno de los pasos que debe tener en consideración y llevar bajo control el PMO, para acabar el equity carve out en 5 meses. Se definirá un proyecto completo describiendo los pasos necesarios para: • Construir nueva empresa y las relaciones con su ecosistema. • Definir todas las operaciones de negocio necesarias para garantizar su operatividad. • Crear las estructuras necesarias que soporten todas las operaciones y procesos. Para ello y dentro de una planificación global, se propone el trabajo diario con todos los departamentos que tengan algún tipo de involucración en el proceso: operaciones, legal, recursos humanos, financiero, fiscal, TI, marketing y comunicación y compras. Todos estos departamentos o líneas de trabajo tendrán tareas y objetivos particulares. El documento servirá de manual, para que el PMO tenga una visión cuasi-completa de lo que hay que hacer en cada momento, con qué profesionales trabajar y con qué propósito. ---ABSTRACT---An Equity Carve Out, also named as excision or partial IPO excision of companies, is a type of corporate reorganization in which a company creates a new one from the separation of one of its activities, business or services. Currently these business operations constitute one of the most common practices used by companies to get funding. The capital that comes from the sale of part or the totality of the subsidiary, justifies the effort invested in the process on one hand, and on the other opens new perspectives for the newly formed company. But most of these processes are highly complex, whether viewed from outside the company, or from inside. On one side, stock valuations, taking into account the current economic circumstances, are not the best. And on the other side, excision projects have too many critical points to consider the projects simple or mechanical. This document is focused on resolving the internal problems faced by enterprises, once the decision of spinning off the activity is taken: how to manage the process? From the experience and business knowledge, we propose as solution: a complete, coherent and structured excision project; and a PMO or Project Officer leading it. Throughout the document, each and every step that the PMO must take into consideration will be reviewed, in order to finish the equity carve-out in 5 months. A complete project will be defined by describing the steps necessary to: • Build new business and relationships with its ecosystem. • Define all business operations necessary to ensure their operability. • Create the necessary structures that support all operations and processes. Within the Global Planning, we will propose daily work with all the departments that have some sort of involvement in the process: operations, legal, human resources, financial, taxes, IT, marketing communication and purchases. All these departments or working lines have their own tasks and goals. The document could be used as a manual for the PMO in order to have a near-complete picture of what to do anytime, with what professionals he/she would work and for what purpose.
Resumo:
Muchas de las grandes iniciativas empresariales, se ven truncadas por falta de un adecuado análisis económico-financiero. Incluso, muchas grandes ideas no son implantadas correctamente en el primer intento por este motivo, y son otras personas las que consiguen posteriormente el éxito de esas brillantes ideas gracias a una correcta aproximación financiera. Las empresas necesitan definir sus objetivos, establecer las para lograrlos, identificar las personas responsables de su ejecución (sus roles y funciones) y elaborar un plan económico-financiero que recoja el estudio de inversiones necesarias, el análisis de costes, la previsión de ingresos, así como la estrategia financiera más adecuada para la captación de los fondos necesarios para llevar a cabo las acciones programadas. Una vez iniciado el proyecto empresarial, será imprescindible realizar un seguimiento y control de la evolución (integración), tomando las medidas que se estimen oportunas para mantener el rumbo adecuado durante todo el tiempo de actividad. En este trabajo, aplicaremos las metodologías y buenas prácticas de la gestión de proyectos, como marco estructurado que nos permita abordar las principales cuestiones económico-financieras a tener en cuenta a la hora de enfrentarnos a un proyecto empresarial, para contribuir, en la medida de lo posible, a que los emprendedores tengan en cuenta estas cuestiones, facilitando así el desarrollo de negocios, en un difícil entorno económico de crisis como el que actualmente estamos viviendo en España, y animando de esta manera a optar por la iniciativa emprendedora, tratando de minimizar el riesgo en base al contenido. ---ABSTRACT---Lack of adequate economic and financial analysis truncates many of the entrepreneurship and innovation programs. Because of that reason, many great ideas are not even correctly implemented on the first attempt, and the person who finds the proper financial approach, succeed. All the enterprises have to establish clear objectives, actions to accomplish those objectives, assign roles, responsibilities and executive functions to specific people. Elaborate funding plan that contains surveys on necessary investments, cost analysis, estimate the income, liquid assets and also financial strategy suitable for fundraising to finance programmed actions. Once the project has been executed it is essential to monitor and control the development and integration adopting measures accordingly to the needs. This thesis applies methodology and best practice of project management as structured framework for the principal economic and financial issues facing business project. It is necessary contribution to entrepreneurs understanding of business, therefore facilitates business development in such rough environment as Spain is at this moment, and at the same time encourages adopting entrepreneur’s solution as less risky one. This document aims to explore all the economic and financial issues from methodological point of view based on my own professional experience, resulting in helping to understand the importance that economy and finances have in developing adequate corporate strategy. Crisis has highlighted inadequate functionality of many companies. Most popular first symptom is lack of cash flow that deteriorates the company, and results in suspension of payments followed by closing. In other cases, difficulties appear due to poor financial management of committed resources; to be observed in lack of prevision and planning or incorrect basic functionality and operational matters on daily basis. What would be your advice to someone who have magnificent business idea however no knowledge on how to handle finances in order to succeed in initiating and executing the project? Despite of the fact that the central nucleus of this paper is at economics and finances area, all the other concepts and topics given during master will be revived; for example business strategy, consultants abilities, organization and standard processes, among others, are impregnated with knowledge of project management.
Resumo:
La energía es ya un tema arquitectónico, pero su incorporación al proyecto ha sido hasta ahora fundamentalmente técnica, dando pie a una especie de funcionalismo ecológico cuyo destino es acaso repetir los errores de los viejos funcionalismos en su confianza de encontrar modos ‘objetivos’ de transmutar la energía en forma construida, pero sin que en tal proceso parezca haber hueco para mediaciones de tipo estético. Sin embargo, son precisamente tales mediaciones las que necesitan analizarse para que la adopción de los temas energéticos resulte fructífera en la arquitectura, y asimismo para dar cuenta de otras perspectivas complementarias —filosóficas, científicas, artísticas— que hoy forman el complejo campo semántico de la energía. Partiendo de la fecha de 1750 —que da comienzo simbólicamente al proceso de contaminaciones ‘modernas’ entre la arquitectura y otras disciplinas—, esta tesis analiza los diferentes modos con los que proyectos y edificios han expresado literal y analógicamente ciertos temas o ideales energéticos, demostrando la existencia de una ‘estética de la energía’ en la arquitectura y también de una tradición proyectual e intelectual sostenida en ella. Con este fin, se han seleccionados siete metáforas que vinculan tanto técnica como ideológicamente a la arquitectura con la energía: la metáfora de la máquina, asociada al ideal de movimiento y la autorregulación; las metáforas del arabesco, del cristal y del organismo, afines entre sí en su modo de dar cuenta del principio de la morfogénesis o energía creadora de la naturaleza; la metáfora de la actividad interna de los materiales; la metáfora del gradiente, que expresa la condición térmica y climática de la arquitectura, y, finalmente, la de la atmósfera que, recogiendo los sentidos anteriores, los actualiza en el contexto de la estética contemporánea. La selección de estas siete metáforas se ha llevado a cabo después de un barrido exhaustivo de la bibliografía precedente, y ha estructurado un relato cuyo método combina la perspectiva general —que permite cartografiar las continuidades históricas— con la cercana —que atiende a las problemas específicos de cada tema o metáfora—, complementándolas con una aproximación de sesgo iconográfico cuyo propósito es incidir en los vínculos que se dan entre lo ideológico y lo morfológico. El análisis ha puesto de manifiesto cómo detrás de cada una de estas metáforas se oculta un principio ideológico común —la justificación de la arquitectura desde planteamientos externos procedentes de la ciencia, la filosofía y el arte—, y cómo en cada uno de los casos estudiados las asimilaciones más fructíferas de la energía se han producido según mecanismos de mímesis analógica que inciden más en los procesos que en las formas que estos generan, y que en último término son de índole estética, lo cual constituye un indicio de los métodos de la arquitectura por venir. ABSTRACT Although it is already an architectural theme, the matter of incorporating energy into projects has up to now been mainly technical, giving rise to a kind of ecological functionalism which may be bound to old funcionalist mistakes in hopes of finding “objective” ways of transmuting energy into built forms without aesthetic considerations. However, it is precisely such considerations that need to be analyzed if the adoption of energy issues in architecture is to bear fruit and also to account for other complementary perspectives – philosophical, scientific, artistic – which today form the complex fabric of the energy semantic field. Beginning in 1750 – symbolic start of ‘modern’ contaminations between architecture and other disciplines –, this thesis analyzes the different ways in which projects and buildings have literally and analogically expressed certain subjects or ideals on energy, and demonstrates the existence of an “aesthetics of energy” in architecture, as well as of an intellectual and design tradition based on such aesthetics. For this purpose, seven metaphors are selected to link energy to architecture both technically and ideologically: the machine’s metaphor, associated with the ideal of mouvement and self-regulation; the arabesque, glass and the organism’s metaphors, which account for the morphogenesis principle, i.e. creative energy of nature; the metaphor linked to matter and the ideal of internal activity; the gradient’s metaphor, which expressed the thermal and climatic condition of architecture, and, finally, that of the atmosphere which, collecting the above meanings, updates them in the context of contemporary aesthetics. The selection of these seven metaphors was carried out after a thorough scan of the preceding literature, and has structured a reasoning that combines the overview method – which accounts for historical continuities – with the nearby one – which meets the specifics problems of each theme or metaphor –, both supplemented with an iconographic bias, the purpose of which is to visually express the links existing between the ideological and the morphological. So presented, the analysis shows how, behind each of these metaphors, lies a common ideological principle – the justification of architecture from scientific, philosophical and artistic “external” angles –, and how in each of the studied cases the most successful assimilation of energy were those produced by aesthetic mechanisms of analogical mimesis not focused in forms but in processes that generate them: an indication of the methods of architecture to come.
Resumo:
Este trabajo es una contribución a los sistemas fotovoltaicos (FV) con seguimiento distribuido del punto de máxima potencia (DMPPT), una topología que se caracteriza porque lleva a cabo el MPPT a nivel de módulo, al contrario de las topologías más tradicionales que llevan a cabo el MPPT para un número más elevado de módulos, pudiendo ser hasta cientos de módulos. Las dos tecnologías DMPPT que existen en el mercado son conocidos como microinversores y optimizadores de potencia, y ofrecen ciertas ventajas sobre sistemas de MPPT central como: mayor producción en situaciones de mismatch, monitorización individual de cada módulo, flexibilidad de diseño, mayor seguridad del sistema, etc. Aunque los sistemas DMPPT no están limitados a los entornos urbanos, se ha enfatizado en el título ya que es su mercado natural, siendo difícil una justificación de su sobrecoste en grandes huertas solares en suelo. Desde el año 2010 el mercado de estos sistemas ha incrementado notablemente y sigue creciendo de una forma continuada. Sin embargo, todavía falta un conocimiento profundo de cómo funcionan estos sistemas, especialmente en el caso de los optimizadores de potencia, de las ganancias energéticas esperables en condiciones de mismatch y de las posibilidades avanzadas de diagnóstico de fallos. El principal objetivo de esta tesis es presentar un estudio completo de cómo funcionan los sistemas DMPPT, sus límites y sus ventajas, así como experimentos varios que verifican la teoría y el desarrollo de herramientas para valorar las ventajas de utilizar DMPPT en cada instalación. Las ecuaciones que modelan el funcionamiento de los sistemas FVs con optimizadores de potencia se han desarrollado y utilizado para resaltar los límites de los mismos a la hora de resolver ciertas situaciones de mismatch. Se presenta un estudio profundo sobre el efecto de las sombras en los sistemas FVs: en la curva I-V y en los algoritmos MPPT. Se han llevado a cabo experimentos sobre el funcionamiento de los algoritmos MPPT en situaciones de sombreado, señalando su ineficiencia en estas situaciones. Un análisis de la ventaja del uso de DMPPT frente a los puntos calientes es presentado y verificado. También se presenta un análisis sobre las posibles ganancias en potencia y energía con el uso de DMPPT en condiciones de sombreado y este también es verificado experimentalmente, así como un breve estudio de su viabilidad económica. Para ayudar a llevar a cabo todos los análisis y experimentos descritos previamente se han desarrollado una serie de herramientas software. Una siendo un programa en LabView para controlar un simulador solar y almacenar las medidas. También se ha desarrollado un programa que simula curvas I-V de módulos y generador FVs afectados por sombras y este se ha verificado experimentalmente. Este mismo programa se ha utilizado para desarrollar un programa todavía más completo que estima las pérdidas anuales y las ganancias obtenidas con DMPPT en instalaciones FVs afectadas por sombras. Finalmente, se han desarrollado y verificado unos algoritmos para diagnosticar fallos en sistemas FVs con DMPPT. Esta herramienta puede diagnosticar los siguientes fallos: sombras debido a objetos fijos (con estimación de la distancia al objeto), suciedad localizada, suciedad general, posible punto caliente, degradación de módulos y pérdidas en el cableado de DC. Además, alerta al usuario de las pérdidas producidas por cada fallo y no requiere del uso de sensores de irradiancia y temperatura. ABSTRACT This work is a contribution to photovoltaic (PV) systems with distributed maximum power point tracking (DMPPT), a system topology characterized by performing the MPPT at module level, instead of the more traditional topologies which perform MPPT for a larger number of modules. The two DMPPT technologies available at the moment are known as microinverters and power optimizers, also known as module level power electronics (MLPE), and they provide certain advantages over central MPPT systems like: higher energy production in mismatch situations, monitoring of each individual module, system design flexibility, higher system safety, etc. Although DMPPT is not limited to urban environments, it has been emphasized in the title as it is their natural market, since in large ground-mounted PV plants the extra cost is difficult to justify. Since 2010 MLPE have increased their market share steadily and continuing to grow steadily. However, there still lacks a profound understanding of how they work, especially in the case of power optimizers, the achievable energy gains with their use and the possibilities in failure diagnosis. The main objective of this thesis is to provide a complete understanding of DMPPT technologies: how they function, their limitations and their advantages. A series of equations used to model PV arrays with power optimizers have been derived and used to point out limitations in solving certain mismatch situation. Because one of the most emphasized benefits of DMPPT is their ability to mitigate shading losses, an extensive study on the effects of shadows on PV systems is presented; both on the I-V curve and on MPPT algorithms. Experimental tests have been performed on the MPPT algorithms of central inverters and MLPE, highlighting their inefficiency in I-V curves with local maxima. An analysis of the possible mitigation of hot-spots with DMPPT is discussed and experimentally verified. And a theoretical analysis of the possible power and energy gains is presented as well as experiments in real PV systems. A short economic analysis of the benefits of DMPPT has also been performed. In order to aide in the previous task, a program which simulates I-V curves under shaded conditions has been developed and experimentally verified. This same program has been used to develop a software tool especially designed for PV systems affected by shading, which estimates the losses due to shading and the energy gains obtained with DMPPT. Finally, a set of algorithms for diagnosing system faults in PV systems with DMPPT has been developed and experimentally verified. The tool can diagnose the following failures: fixed object shading (with distance estimation), localized dirt, generalized dirt, possible hot-spots, module degradation and excessive losses in DC cables. In addition, it alerts the user of the power losses produced by each failure and classifies the failures by their severity and it does not require the use of irradiance or temperature sensors.
Resumo:
La tesis Asplund versus Lewerentz analiza, por el método comparado, los invariantes, las convergencias y las divergencias entre las obras de los arquitectos suecos Erik Gunnar Asplund y Sigurd Lewerentz. Autores del Cementerio del Bosque de Estocolmo, que desarrollaron en colaboración durante más de veinte años, supone una de las obras maestras de la arquitectura escandinava, y uno de los ejemplos de referencia para entender la cultura arquitectónica nórdica moderna en relación a su tradición. Del estudio contrastado de los distintos proyectos y versiones del cementerio, ejecutados conjuntamente o por separado, se obtienen los valores compartidos entre ambos arquitectos, así como sus afinidades o diferencias respecto a un mismo tema. Estos aspectos, extrapolados al resto de sus trabajos, permiten entender sus actuaciones según las referencias e influencias mutuas, y la definición de las variables que configuran sus respectivos espacios arquitectónicos. La investigación se ha estructurado en ocho capítulos: La Escuela Klara, que trata la relación de Asplund y Lewerentz en su época de estudiantes, así como la influencia de sus maestros respectivos; El Grand Tour, que analiza sus viajes y las miradas de cada uno de ellos en sus visitas a los mismos lugares; Los Estudios, que profundiza en sus caracteres, reflejados a través de la comparación de los distintos lugares de trabajo; Las Tumbas, donde se concretan a pequeña escala los temas desarrollados ampliamente en el Cementerio del Bosque, constituyendo así un laboratorio de ideas; La Exposición de Estocolmo de 1930, que vuelve a aclarar las posturas divergentes de ambos, en este caso, en relación a un tema lúdico, y que supuso un giro de su arquitectura y, con ello, un importante apoyo a los cambios sociales del momento; Los Concursos, realizados por separado, donde se observan con precisión las afinidades y las diferencias respecto a un mismo planteamiento inicial; Los Accesos del Cementerio del Bosque, que supone un trabajo conjunto con alternancia de decisiones, en el que se perfila con claridad los intereses específicos de ambos; y por último, las Capillas del Cementerio del Bosque, especialmente la Capilla del Bosque y de la Resurrección, que concretan, en los dos lugares más íntimos del cementerio, las ideas y personalidades opuestas de Asplund y Lewerentz en relación al tema común de la muerte. Las conclusiones de este estudio comparado y centrado en varios temas, determinan una confluencia de intereses en la conexión de sus obras con la topografía como medio de contextualización, en las acciones sobre la vegetación como un aspecto fundamental y no sólo como un acompañamiento a la arquitectura, y en la manipulación de la luz como hecho diferencial del carácter de los distintos espacios. Se reúnen así en esta tesis unas constantes del trabajo de Asplund y Lewerentz, que planteadas muchas veces de forma distinta, apuntan directamente a los sentimientos del Hombre en el momento de la muerte y ante una despedida en relación a la Arquitectura. ABSTRACT The thesis Asplund versus Lewerentz analyses, by means of comparative methodology, the constants, the convergences and the divergences between the works of the Swedish architects Erik Gunnar Asplund and Sigurd Lewerentz. They are the authors of Stockholm’s Woodland Cemetery, which they developed in collaboration over a period of more than twenty years, one of the masterpieces of Swedish architecture and one of the key examples in terms of understanding modern Nordic architectural culture in relation to its tradition. From the contrasted study of the various projects and versions of the cemetery, executed jointly or separately, one obtains the values shared by both architects as well as their affinities or differences with respect to one and the same theme. These aspects, extrapolated from the rest of their works, permit an understanding of their actions according to mutual references and influences, and the definition of the variables that shape their respective architectural spaces. The research is divided into eight chapters: The Klara School, dealing with Asplund and Lewerentz’s relationship during their student days, as well as the influence of their respective teachers; The Grand Tour, which analyses their travels and the viewpoints of each of them on their visits to the same places; The Studies, looks closely at their personalities, reflected by a comparison of their different workplaces; The Tombs, where the themes extensively developed in the Woodland Cemetery are set out on a small scale, thus constituting one of their laboratories of ideas; The Stockholm exhibition of 1930, which again clarifies the diverging postures of the two, in this case, in relation to a recreational topic which represented a turnabout in their architecture and, moreover an important support for the social changes of the age; The Competitions, which they carried out separately, where one closely observes affinities and differences with respect to an initial approach; The Accesses to the Woodland Cemetery, which represents a joint work with alternating decision-making, in which the interests of both are clearly outlined; and finally, the Chapels of the Woodland Cemetery, especially the Woodland Chapel and the Chapel of the Resurrection, which, in the two most intimate spots in the cemetery, embody the opposing ideas and personalities of Asplund and Lewerentz in relation to the common theme of death. The conclusions of this comparative study centred on various topics, determine a confluence of interests in the connection of their works with the topography as a means of contextualization, in actions relating to vegetation as a fundamental aspect and not just an accompaniment to architecture, and in the manipulation of light as a differential factor in the character of the different spaces. Thus this thesis brings together some of the constants of the work of Asplund and Lewerentz which, frequently dealt with in a different manner, point directly to Man’s feelings at the point of death and in the face of a farewell in relation to Architecture.