41 resultados para nueva generación historiográfica


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A profunda crisis de la ‘nave espacial Tierra’ que cohabitamos, como llamaba Buckminster Fuller a nuestro planeta, y los imparables cambios en los modos de vida occidentales demandan un urgente cambio en el modelo de vivienda que las sociedades‘desarrolladas’ proporcionan a sus ciudadanos. Los nuevos modos de vida son variables e imprevisibles, incapaces de ser predeterminados en un proyecto arquitectónico ‘cerrado’. Los avances tecnológicos conducen a la movilidad, la desaparición del hogar tradicional, la interrelación de los espacios de vivienda y trabajo y anticipan la llegada de tipos de vida más dinámicos y menos ligados a un sitio específico. En cuanto a las formas de relación, disminuye la duración de los compromisos afectivos y crece el número de personas con una vida al margen de la familia tradicional o producto de la disgregación de proyectos familiares. Y, en el campo arquitectónico, no dejan de surgir nuevas herramientas mecánicas y tecnológicas capaces de transformar, de forma sencilla, una vivienda. Todas estas circunstancias no encuentran acomodo en las viviendas concebidas para los modos de vida de las pasadas generaciones. Desde hace décadas, al menos en nuestro país, los arquitectos han dejado de diseñar las viviendas de promoción privada que firman, ya que el propio ‘mercado’ se encarga de hacerlo. Las viviendas que el ‘mercado’ diseña no persiguen entregar a sus habitantes un lugar donde puedan desarrollar sus potencialidades. El único objetivo de estas promociones es el beneficio económico. Las casas que el ‘mercado’ promueve son indiferentes a las minorías y a los nuevos modos de vida. Son viviendas mínimas y uniformes para, de esta forma, maximizar el beneficio y simplificar el proceso económico. Estas viviendas promueven los mismos valores que guían nuestra ‘nave’: son individualistas, buscando minimizar el contacto vecinal, persiguen la uniformidad, en personas y pensamientos, y perpetúan valores, ya que insisten en repetir los mismos modelos habitacionales creados para los modos de vida de las generaciones anteriores. Son casas cerradas que tratan de imponer a sus habitantes el modo de habitarlas. Son casas estáticas que no están pensadas para facilitar su adaptación al particular modo de vida de sus ocupantes. Siguiendo en nuestro país, las viviendas de promoción pública obedecen, también desde hace décadas, a una normativa desfasada ajena a los nuevos modelos familiares, los nuevos modelos de convivencia al margen de la familia, el trabajo en casa, las nuevas tecnologías y los esquemas habitacionales con espacios compartidos. Las viviendas que esta normativa obliga a construir no solo obedecen al modo de vida de dos generaciones atrás, momento en que estas normas se redactaron; tampoco permiten la alteración de sus adjudicatarios para acomodar las viviendas a sus particulares circunstancias. La inflexibilidad de estas normativas obsoletas provoca que el Estado no esté en realidad subvencionando un espacio donde sus habitantes puedan desarrollar la vida que deseen. Lo que el Estado, por medio de estas viviendas, subvenciona es una determinada forma de vida. Esta tesis propone un modelo de vivienda que denomina ‘casa abierta’ porque está abierta a ser vivida tal y como sus ocupantes deseen y necesiten. La casa abierta es un espacio indeterminado que sus usuarios han de completar conceptualmente, y que pueden transformar con facilidad, cuantas veces deseen, según su propio criterio. Es un espacio lleno de potencialidades, un soporte definido solo a medias, a la espera que el usuario lo adapte a sus necesidades. El primer objetivo de la casa abierta es responder a los nuevos modos de vida. Es, pues, destino de algo que está pasando. Pero la casa abierta tiene también un segundo objetivo, tan importante como el primero: ayudar a desarrollar nuevos valores, ser origen de algo, desconocido aún, que ayude a enderezar el rumbo de nuestra ‘nave’. Esta tesis cree que cada nueva generación trae consigo nuevas capacidades que podrían ayudar a las anteriores a solventar sus problemas. Por ello defiende una educación que promueva la diversidad y la creatividad, evitando imponer valores caducos e incitando a los jóvenes a encontrar sus propias capacidades y desarrollarlas, no ya por su propio interés personal sino por la satisfacción de aportarlas al mundo. La casa abierta persigue objetivos similares. Su anhelo es proporcionar buenas herramientas y nuevos valores a sus ocupantes, y dejarles hacer. La casa abierta busca incitar a sus habitantes a desarrollar su creatividad sobre su propio hábitat, convirtiéndolos en co-creadores y, en consecuencia, responsables del mismo. La casa abierta es un espacio de libertad, donde sus ocupantes pueden desarrollar su diferencia, singularidad y diversidad, pudiendo crear un entorno que responda a sus criterios y su sensibilidad. La casa abierta es un lugar de experimentación donde replantear las convenciones sobre la casa, probando nuevas formas de convivencia y hábitat acordes con los nuevos modos de vida. La casa abierta busca también estimular el sentido comunitario de sus ocupantes, favoreciendo el contacto y la agrupación entre vecinos. Pero también desea contribuir a crear un modelo de desarrollo sostenible, respetuoso con el medio ambiente, los recursos del planeta y el futuro de las generaciones venideras. Para crear una casa abierta proponemos diez atributos: versatilidad, permeabilidad elasticidad, adaptabilidad, perfectibilidad, movilidad, sociabilidad, indeterminación, disgregación y sostenibilidad. Con ellos tratamos de establecer diversas cualidades a incorporar en los futuros proyectos de viviendas. A partir de estos diez atributos la tesis analiza cerca de 200 proyectos de vivienda de los últimos 90 años, donde el habitante es parte activa en su concepción o donde los ocupantes pueden transformar su vivienda, con facilidad, acomodándola a su modo de vida o a su estado de ánimo. Dentro de la historia de la arquitectura moderna existen grandes ejemplos de viviendas o proyectos que cumplen con algunos de los atributos propuestos. Muchos de los planteamientos de la ‘casa abierta’ tienen su origen en los años 20 del siglo pasado. Fueron desarrollados por los arquitectos de la primera generación del movimiento moderno, sobre todo Adolf Loos, Le Corbusier, Mies van der Rohe, Gerrit Rietveld, y Buckminster Fuller. El periodo más cercano a las ideas de la casa abierta es el comprendido entre 1955 y 1980, con el trabajo de la tercera generación de arquitectos del movimiento moderno. En estos años surgen grandes ejemplos de casas abiertas, se publican libros sobre la implicación de los habitantes en el diseño de sus casas y se convocan coloquios sobre la adaptabilidad de las viviendas. Entre los ejemplos construidos destacan las viviendas Il Rigo Quarter de Renzo Piano, el complejo residencial Genter Strasse en Munich de Otto Steidle, Doris y Ralph Thut, los apartamentos universitarios en Lovaina de Lucien Kroll y el inicio de las comunidades de cohousing en Dinamarca. La década de 1990 es también propensa a la casa abierta. Entre los ejemplos construidos podemos destacar las casas Latapie y Coutras de Lacaton y Vassal, la Residencia Yakult de Toshio Akimoto, las casas Naked y la Nine square grid de Shigeru Ban y los apartamentos Fukuoka de Steven Holl. En esta década, surgen las cooperativas de viviendas autopromocionadas en Centroeuropa, como la Sargfabrik de BKK-2 en Viena, y se produce el desembarco del cohousing danés en EEUU. Ya en el siglo XXI podemos destacar las viviendas sociales Quinta Monroy y la Colonia Lo Barnechea de Alejandro Aravena-Elemental, las 14 viviendas en Mulhouse de Lacaton y Vassal, las casas Glass Shutter y Metal Shutter de Shigeru Ban, la casa Moriyama de SANAA, el d21system de José Miguel Reyes González y la ETSAM, la propuesta Parasite para Amsterdam, de Maccreanor y Lavington, la Shinonome Canal Court de Tokio y muchos ejemplos de viviendas prefabricadas y móviles como la Micro Compact Home o la LoftCube.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La contribución del sector de las tecnologías de la información y las comunicaciones (TICs) al consumo de energía a nivel global se ha visto incrementada considerablemente en la última década al mismo tiempo que su relevancia dentro de la economía global. Se prevé que esta tendencia continúe debido al uso cada vez más intensivo de estas tecnologías. Una de las principales causas es el tráfico de datos de banda ancha generado por el uso de las redes de telecomunicaciones. De hecho como respuesta a esta demanda de recursos por parte de los usuarios, de la industria de las telecomunicaciones está iniciando el despliegue de las redes de nueva generación. En cualquier caso, el consumo de energía es un factor generalmente ausente del debate sobre el despliegue de estas tecnologías, a pesar de la posible repercusión que pueda llegar a tener en los costes y la sostenibilidad de estos proyectos. A lo largo de este trabajo se desarrollan modelos para evaluar el consumo energético de las redes de acceso de nueva generación (NGAN). Estos servirán tanto para llevar a cabo cálculos en un escenario global estático, como en cualquiera otro que determine la potencial evolución de la red de acceso a lo largo de su despliegue. Estos modelos combinan tres factores: la penetración prospectiva de cada una de las tecnologías de banda ancha analizadas, el tráfico generado por usuario y su futura evolución, y el perfil de consumo de energía de cada uno de los dispositivos de red desplegados. Tras evaluar los resultados derivados de la aplicación de los modelos en el caso demográfico específico de España, se obtienen conclusiones acerca de las diferencias tecnológicas en cuanto al consumo energético, sus implicaciones económicas, y la sensibilidad de los cálculos atendiendo a posibles modificaciones en los valores de referencia de diferentes parámetros de diseño. Se destaca por tanto el efecto en el consumo energético de los desarrollos tecnológicos, tecno-económicos, y de las decisiones en el ámbito regulatorio. Aunque como se ha dicho, se ha ejemplificado el cálculo para un caso particular, tanto los modelos como las conclusiones extraídas se pueden extrapolar a otros países similares.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Análisis cualitativo y cuantitativo sobre el estado del despligue de redes de nueva generación y banda ultra-ancha en España y sus perspectivas de futuro en el horizonte de 2020 y la agenda digital europea.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El pasado mes de julio tuvimos la oportunidad de ensayar una cosechadora Claas. La empresa puso a nuestra disposición una máquina de pre-serie de la nueva generación de cosechadoras Tucano. En la próxima campaña estarán disponibles en el mercado ocho nuevos modelos Tucano divididos en las series 300, 400 y 500. La filosofía es acercar las Tucano a las prestaciones de sus hermanas, las Lexion. Nosotros trabajamos con una Tucano 450 equipada con un cabezal de corte C750.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Entre los años 2004 y 2007 se hundieron por problemas de estabilidad cinco pesqueros españoles de pequeña eslora, de características parecidas, de relativamente poca edad, que habían sido construidos en un intervalo de pocos años. La mayoría de los tripulantes de esos pesqueros fallecieron o desaparecieron en esos accidentes. Este conjunto de accidentes tuvo bastante repercusión social y mediática. Entre ingenieros navales y marinos del sector de la pesca se relacionó estos accidentes con los condicionantes a los diseños de los pesqueros impuestos por la normativa de control de esfuerzo pesquero. Los accidentes fueron investigados y publicados sus correspondientes informes; en ellos no se exploró esta supuesta relación. Esta tesis pretende investigar la relación entre esos accidentes y los cambios de la normativa de esfuerzo pesquero. En la introducción se expone la normativa de control de esfuerzo pesquero analizada, se presentan datos sobre la estructura de la flota pesquera en España y su accidentalidad, y se detallan los criterios de estabilidad manejados durante el trabajo, explicando su relación con la seguridad de los pesqueros. Seguidamente se realiza un análisis estadístico de la siniestralidad en el sector de la pesca para establecer si el conjunto de accidentes estudiados supone una anomalía, o si por el contrario el conjunto de estos accidentes no es relevante desde el punto de vista estadístico. Se analiza la siniestralidad a partir de diversas bases de datos de buques pesqueros en España y se concluye que el conjunto de accidentes estudiados supone una anomalía estadística, ya que la probabilidad de ocurrencia de los cinco sucesos es muy baja considerando la frecuencia estimada de pérdidas de buques por estabilidad en el subsector de la flota pesquera en el que se encuadran los cinco buques perdidos. A continuación el trabajo se centra en la comparación de los buques accidentados con los buques pesqueros dados de baja para construir aquellos, según exige la normativa de control de esfuerzo pesquero; a estos últimos buques nos referiremos como “predecesores” de los buques accidentados. Se comparan las dimensiones principales de cada buque y de su predecesor, resultando que los buques accidentados comparten características de diseño comunes que son sensiblemente diferentes en los buques predecesores, y enlazando dichas características de diseño con los requisitos de la nueva normativa de control del esfuerzo pesquero bajo la que se construyeron estos barcos. Ello permite establecer una relación entre los accidentes y el mencionado cambio normativo. A continuación se compara el margen con que se cumplían los criterios reglamentarios de estabilidad entre los buques accidentados y los predecesores, encontrándose que en cuatro de los cinco casos los predecesores cumplían los criterios de estabilidad con mayor holgura que los buques accidentados. Los resultados obtenidos en este punto permiten establecer una relación entre el cambio de normativa de esfuerzo pesquero y la estabilidad de los buques. Los cinco buques accidentados cumplían con los criterios reglamentarios de estabilidad en vigor, lo que cuestiona la relación entre esos criterios y la seguridad. Por ello se extiende la comparativa entre pesqueros a dos nuevos campos relacionados con la estabilidad y la seguridad delos buques: • Movimientos a bordo (operatividad del buque), y • Criterios de estabilidad en condiciones meteorológicas adversas El estudio de la operatividad muestra que los buques accidentados tenían, en general, una mayor operatividad que sus predecesores, contrariamente a lo que sucedía con el cumplimiento de los criterios reglamentarios de estabilidad. Por último, se comprueba el desempeño de los diez buques en dos criterios específicos de estabilidad en caso de mal tiempo: el criterio IMO de viento y balance intenso, y un criterio de estabilidad de nueva generación, incluyendo la contribución original del autor de considerar agua en cubierta. Las tendencias observadas en estas dos comparativas son opuestas, lo que permite cuestionar la validez del último criterio sin un control exhaustivo de los parámetros de su formulación, poniendo de manifiesto la necesidad de más investigaciones sobre ese criterio antes de su adopción para uso regulatorio. El conjunto de estos resultados permite obtener una serie de conclusiones en la comparativa entre ambos conjuntos de buques pesqueros. Si bien los resultados de este trabajo no muestran que la aprobación de la nueva normativa de esfuerzo pesquero haya significado una merma general de seguridad en sectores enteros de la flota pesquera, sí se concluye que permitió que algunos diseños de buques pesqueros, posiblemente en busca de la mayor eficiencia compatible con dicha normativa, quedaran con una estabilidad precaria, poniendo de manifiesto que la relación entre seguridad y criterios de estabilidad no es unívoca, y la necesidad de que éstos evolucionen y se adapten a los nuevos diseños de buques pesqueros para continuar garantizando su seguridad. También se concluye que la estabilidad es un aspecto transversal del diseño de los buques, por lo que cualquier reforma normativa que afecte al diseño de los pesqueros o su forma de operar debería estar sujeta a evaluación por parte de las autoridades responsables de la seguridad marítima con carácter previo a su aprobación. ABSTRACT Between 2004 and 2007 five small Spanish fishing vessels sank in stability related accidents. These vessels had similar characteristics, had relatively short age, and had been built in a period of a few years. Most crewmembers of these five vessels died or disappeared in those accidents. This set of accidents had significant social and media impact. Among naval architects and seamen of the fishing sector these accidents were related to the design constraints imposed by the fishing control effort regulations. The accidents were investigated and the official reports issued; this alleged relationship was not explored. This thesis aims to investigate the relationship between those accidents and changes in fishing effort control regulations. In the introduction, the fishing effort control regulation is exposed, data of the Spanish fishing fleet structure and its accident rates are presented, and stability criteria dealt with in this work are explained, detailing its relationship with fishing vessel safety. A statistical analysis of the accident rates in the fishing sector in Spain is performed afterwards. The objective is determining whether the set of accidents studied constitute an anomaly or, on the contrary, they are not statistically relevant. Fishing vessels accident rates is analyzed from several fishing vessel databases in Spain. It is concluded that the set of studied accidents is statistically relevant, as the probability of occurrence of the five happenings is extremely low, considering the loss rates in the subsector of the Spanish fishing fleet where the studied vessels are fitted within. From this point the thesis focuses in comparing the vessels lost and the vessels that were decommissioned to build them as required by the fishing effort control regulation; these vessels will be referred to as “predecessors” of the sunk vessels. The main dimensions between each lost vessel and her predecessor are compared, leading to the conclusion that the lost vessels share design characteristics which are sensibly different from the predecessors, and linking these design characteristics with the requirements imposed by the new fishing control effort regulations. This allows establishing a relationship between the accidents and this regulation change. Then the margin in fulfilling the regulatory stability criteria among the vessels is compared, resulting, in four of the five cases, that predecessors meet the stability criteria with greater clearance than the sunk vessels. The results obtained at this point would establish a relationship between the change of fishing effort control regulation and the stability of vessels. The five lost vessels complied with the stability criteria in force, so the relation between these criteria and safety is put in question. Consequently, the comparison among vessels is extended to other fields related to safety and stability: • Motions onboard (operability), and • Specific stability criteria in rough weather The operability study shows that the lost vessels had in general greater operability than their predecessors, just the opposite as when comparing stability criteria. Finally, performance under specific rough weather stability criteria is checked. The criteria studied are the IMO Weather Criterion, and one of the 2nd generation stability criteria under development by IMO considering in this last case the presence of water on deck, which is an original contribution by the author. The observed trends in these two cases are opposite, allowing to put into question the last criterion validity without an exhaustive control of its formulation parameters; indicating that further research might be necessary before using it for regulatory purposes. The analysis of this set of results leads to some conclusions when comparing both groups of fishing vessels. While the results obtained are not conclusive in the sense that the entry into force of a new fishing effort control in 1998 caused a generalized safety reduction in whole sectors of the Spanish fishing fleet, it can be concluded that it opened the door for some vessel designs resulting with precarious stability. This evidences that the relation between safety and stability criteria is not univocal, so stability criteria needs to evolve for adapting to new fishing vessels designs so their safety is still guaranteed. It is also concluded that stability is a transversal aspect to ship design and operability, implying that any legislative reform affecting ship design or operating modes should be subjected to assessing by the authorities responsible for marine safety before being adopted.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde el establecimiento de la Agenda digital para Europa, los Estados sujetos a dicha regulación se han visto ante el reto de desarrollar la mejor estrategia para su cumplimiento. Pese a no ser dicha normativa de carácter obligatorio, España ha hecho de ésta, iniciativa clave en su estrategia nacional de banda ancha. El primer paso fue el establecimiento del Servicio Universal (SU) de banda ancha en 2011. Desde entonces, todo el país se encuentra totalmente cubierto. Respecto al objetivo de al menos 50% de hogares conectados a banda ancha de 100 Mbps en 2020, se asume que se alcanzará a través de redes de acceso de nueva generación (NGA) fijas. Sin embargo, existen ciertas dudas acerca del cumplimiento del objetivo de cobertura universal con 30 Mbps, especialmente en las zonas rurales. Debido a la cobertura casi nacional de redes móviles, se cree que LTE podría ser la solución más eficiente en costes para alcanzar dicho objetivo. Esta tesis estudia el coste de provisionar banda ancha de al menos 30 Mbps a los municipios en los cuales se encuentra el tercio final de la población española, los cuales se clasifican en geotipos. Se comparan tecnologías móviles y fijas a fin de determinar la tecnología más eficiente en costes en cada caso. Asimismo, se discute el límite demográfico para las redes fijas (fibra óptica, cable o cobre). De igual manera, se evalúa si es viable para un operador proveer banda ancha móvil de 30 Mbps en la zona rural española, y de no ser posible, si la compartición pasiva de infraestructuras podría brindar la viabilidad requerida para fomentar la inversión. La investigación se realiza a través de un análisis tecno-económico en un escenario competición basada en infraestructuras. Se emplea un método de flujo de caja descontado, para determinar el coste total del despliegue y el mínimo ingreso por usuario (ARPU) requerido para recuperar la inversión en dos enfoques de red: compartición pasiva y sin compartición. Por otra parte, se construyen tres escenarios de demanda, basados en previsiones de banda ancha para el año 2020, a fin de estimar la adopción por red y el ARPU en el área estudiada. Los resultados confirman que LTE es la tecnología más eficiente en costes para el tercio final de la población. No obstante, VDSL capaz de proveer hasta 50 Mbps en viabilidad del 75% al 90% de la población española. Para esta franja de población, debe fomentarse la competición entre las plataformas LTE y VDSL. Respecto a los municipios en los cuales se encuentran del 90% al 98,5% de la población, la plataforma móvil LTE es la más apropiada. Además, ha quedado de manifiesto que no es posible proveer de manera viable 30 Mbps al 1,5% final de la población, debido a la escasa densidad de población y las previsiones de adopción nada optimistas. Los resultados también indican que las características socioeconómicas del área estudiada, la alta sensibilidad de la población al precio y la existencia de otros productos de banda ancha, obligan al operador a reducir sus ingresos. A consecuencia de lo anterior, únicamente niveles muy altos de adopción a la red podrían brindar la viabilidad requerida al despliegue. La investigación muestra que la compartición pasiva de infraestructuras, en sí misma, no constituye una solución; mientras que un despliegue de red único podría resolver el problema de la universalización de la banda ancha de 30 Mbps en las zonas rurales de España.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente proyecto de fin de carrera esta desarrollado para el explicar el estado actual de las telecomunicaciones en España. Mercado que esta en constante evolución tecnológica y que se ha pasado inicialmente medir por la tasa de penetración de líneas vocales en un país a pasar de hablar de indicadores como la voz IP, descarga de contenidos, uso de los dispositivos ya que el contenido de lo que las redes transporta es donde puede estar el negocio para los operadores.El proyecto de fin de carrera a groso modo está distribuido en dos partes. La primera parte del proyecto, esta enfocado de una manera teórica haciendo una análisis del mercado actual de las telecomunicaciones. Para ello se realiza un primer estudio de los mercados de telecomunicaciones a nivel europeo y en España. Se analiza el sector de las TIC haciendo un repaso por los datos claves obtenidos en el último año y que han sido influenciados por la crisis mundial que vivimos en la actualidad. Detalles de la evolución de los servicios, infraestructuras de nueva generación desplegadas, inversiones y gastos de los operadores así como la cuota de servicio de los mismos. Regulaciones recientes e iniciativas como la Agenda Electrónica Digital para impulsar el crecimiento de la Sociedad de la Información. Investigación sobre la adopción y uso cotidiano de las nuevas tecnologías y dispositivos que hacen los ciudadanos que permiten mejoran nuestras vidas, la productividad de la economía y que será de devenir de las tendencias futuras hacia las que se moverá el mercado. Adicionalmente se plantea cuestiones sobre las tendencias de futuro de las redes de telecomunicaciones, analizando la previsión del volumen de datos creciente a transportar, los mecanismos para aumentar la capacidad, flexibilidad y eficiencia de las redes mediante técnicas como la virtualizacion (SDN).Debido a la experiencia profesional adquirida trabajando en un ISP como es Telefonica de España administrando sus redes y servicios a grandes empresas, profundizare con detalle técnico en estudiar y mostrar como estan montadas sus infraestructuras de red (Red IP Única, NGN, Multiservicio/UNO,…) , los diferentes tipos de accesos a las redes incluyendo los de nueva generación (FTTH) así como el catalogo de servicios ofertados (Macrolan, VPN-IP, Ibercom IP…), principalmente basados RPVs y sus facilidades asociadas sobre las mencionadas redes para las grandes empresas, PYMES y residencial que les permite la comunicación nacional o internacional entre las diferentes emplazamientos de sus oficinas con sus sedes centrales. La segunda parte de este proyecto se describe la implementación de un caso práctico real tanto en tema de configuración y montaje de equipamientos empleados (router,antena 3G…) de una oficina móvil basado en el servicio vpn-ip de Telefonica con acceso móvil 3G que se encuentra en el actual portfolio de sus productos que se explico en teóricamente en la primera parte del proyecto y que tiene conectividad con la red IP Única de la RPV del cliente Caja de Seguros Reunidos (CASER) la cual que nos permitirá conectarnos remotamente a un servidor de monitorización de su intranet ubicada en su sede central de Madrid que muestreara el trafico que se esta cursado por los interfaces del router de la oficina móvil. En la configuración del router se empleara diferentes métodos de conectividad como túneles GRE para la conectividad con los equipos de la red IP Única, LT2P y PPP para el acceso a la red móvil y se dotara de mayor seguridad al trafico cursado por la oficina Mobil empleando túneles IPSEC para la encriptación y cifrado de los datos para evitar que el trafico que va en claro por la red móvil si es interceptado por un tercero no sea capaz de analizarlo y descifrarlo y no se vea afectada la privacidad de la información que estamos transmitiendo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de este trabajo es un estudio profundo del crecimiento selectivo de nanoestructuras de InGaN por epitaxia de haces moleculares asistido por plasma, concentrandose en el potencial de estas estructuras como bloques constituyentes en LEDs de nueva generación. Varias aproximaciones al problema son discutidas; desde estructuras axiales InGaN/GaN, a estructuras core-shell, o nanoestructuras crecidas en sustratos con orientaciones menos convencionales (semi polar y no polar). La primera sección revisa los aspectos básicos del crecimiento auto-ensamblado de nanocolumnas de GaN en sustratos de Si(111). Su morfología y propiedades ópticas son comparadas con las de capas compactas de GaN sobre Si(111). En el caso de las columnas auto-ensambladas de InGaN sobre Si(111), se presentan resultados sobre el efecto de la temperatura de crecimiento en la incorporación de In. Por último, se discute la inclusión de nanodiscos de InGaN en las nanocolumnas de GaN. La segunda sección revisa los mecanismos básicos del crecimiento ordenado de nanoestructuras basadas en GaN, sobre templates de GaN/zafiro. Aumentando la relación III/V localmente, se observan cambios morfológicos; desde islas piramidales, a nanocolumnas de GaN terminadas en planos semipolares, y finalmente, a nanocolumnas finalizadas en planos c polares. Al crecer nanodiscos de InGaN insertados en las nanocolumnas de GaN, las diferentes morfologias mencionadas dan lugar a diferentes propiedades ópticas de los nanodiscos, debido al diferente carácter (semi polar o polar) de los planos cristalinos involucrados. La tercera sección recoge experimentos acerca de los efectos que la temperatura de crecimiento y la razón In/Ga tienen en la morfología y emisión de nanocolumnas ordenadas de InGaN crecidas sobre templates GaN/zafiro. En el rango de temperaturas entre 650 y 750 C, la incorporacion de In puede modificarse bien por la temperatura de crecimiento, o por la razón In/Ga. Controlar estos factores permite la optimización de la longitud de onda de emisión de las nanocolumnas de InGaN. En el caso particular de la generación de luz blanca, se han seguidos dos aproximaciones. En la primera, se obtiene emisión amarilla-blanca a temperatura ambiente de nanoestructuras donde la región de InGaN consiste en un gradiente de composiciones de In, que se ha obtenido a partir de un gradiente de temperatura durante el crecimiento. En la segunda, el apilamiento de segmentos emitiendo en azul, verde y rojo, consiguiendo la integración monolítica de estas estructuras en cada una de las nanocolumnas individuales, da lugar a emisores ordenados con un amplio espectro de emisión. En esta última aproximación, la forma espectral puede controlarse con la longitud (duración del crecimiento) de cada uno de los segmentos de InGaN. Más adelante, se presenta el crecimiento ordenado, por epitaxia de haces moleculares, de arrays de nanocolumnas que son diodos InGaN/GaN cada una de ellas, emitiendo en azul (441 nm), verde (502 nm) y amarillo (568 nm). La zona activa del dispositivo consiste en una sección de InGaN, de composición constante nominalmente y longitud entre 250 y 500 nm, y libre de defectos extendidos en contraste con capas compactas de InGaN de similares composiciones y espesores. Los espectros de electroluminiscencia muestran un muy pequeño desplazamiento al azul al aumentar la corriente inyectada (desplazamiento casi inexistente en el caso del dispositivo amarillo), y emisiones ligeramente más anchas que en el caso del estado del arte en pozos cuánticos de InGaN. A continuación, se presenta y discute el crecimiento ordenado de nanocolumnas de In(Ga)N/GaN en sustratos de Si(111). Nanocolumnas ordenadas emitiendo desde el ultravioleta (3.2 eV) al infrarrojo (0.78 eV) se crecieron sobre sustratos de Si(111) utilizando una capa compacta (“buffer”) de GaN. La morfología y eficiencia de emisión de las nanocolumnas emitiendo en el rango espectral verde pueden ser mejoradas ajustando las relaciones In/Ga y III/N, y una eficiencia cuántica interna del 30% se deriva de las medidas de fotoluminiscencia en nanocolumnas optimizadas. En la siguiente sección de este trabajo se presenta en detalle el mecanismo tras el crecimiento ordenado de nanocolumnas de InGaN/GaN emitiendo en el verde, y sus propiedades ópticas. Nanocolumnas de InGaN/GaN con secciones largas de InGaN (330-830 nm) se crecieron tanto en sustratos GaN/zafiro como GaN/Si(111). Se encuentra que la morfología y la distribución espacial del In dentro de las nanocolumnas dependen de las relaciones III/N e In/Ga locales en el frente de crecimiento de las nanocolumnas. La dispersión en el contenido de In entre diferentes nanocolumnas dentro de la misma muestra es despreciable, como indica las casi identicas formas espectrales de la catodoluminiscencia de una sola nanocolumna y del conjunto de ellas. Para las nanocolumnas de InGaN/GaN crecidas sobre GaN/Si(111) y emitiendo en el rango espectral verde, la eficiencia cuántica interna aumenta hasta el 30% al disminuir la temperatura de crecimiento y aumentar el nitrógeno activo. Este comportamiento se debe probablemente a la formación de estados altamente localizados, como indica la particular evolución de la energía de fotoluminiscencia con la temperatura (ausencia de “s-shape”) en muestras con una alta eficiencia cuántica interna. Por otro lado, no se ha encontrado la misma dependencia entre condiciones de crecimiento y efiencia cuántica interna en las nanoestructuras InGaN/GaN crecidas en GaN/zafiro, donde la máxima eficiencia encontrada ha sido de 3.7%. Como alternativa a las nanoestructuras axiales de InGaN/GaN, la sección 4 presenta resultados sobre el crecimiento y caracterización de estructuras core-shell de InGaN/GaN, re-crecidas sobre arrays de micropilares de GaN fabricados por ataque de un template GaN/zafiro (aproximación top-down). El crecimiento de InGaN/GaN es conformal, con componentes axiales y radiales en el crecimiento, que dan lugar a la estructuras core-shell con claras facetas hexagonales. El crecimiento radial (shell) se ve confirmado por medidas de catodoluminiscencia con resolución espacial efectuadas en un microscopio electrónico de barrido, asi como por medidas de microscopía de transmisión de electrones. Más adelante, el crecimiento de micro-pilares core-shell de InGaN se realizó en pilares GaN (cores) crecidos selectivamente por epitaxia de metal-orgánicos en fase vapor. Con el crecimiento de InGaN se forman estructuras core-shell con emisión alrededor de 3 eV. Medidas de catodoluminiscencia resuelta espacialmente indican un aumento en el contenido de indio del shell en dirección a la parte superior del pilar, que se manifiesta en un desplazamiento de la emisión de 3.2 eV en la parte inferior, a 3.0 eV en la parte superior del shell. Este desplazamiento está relacionado con variaciones locales de la razón III/V en las facetas laterales. Finalmente, se demuestra la fabricación de una estructura pin basada en estos pilares core-shell. Medidas de electroluminiscencia resuelta espacialmente, realizadas en pilares individuales, confirman que la electroluminiscencia proveniente del shell de InGaN (diodo lateral) está alrededor de 3.0 eV, mientras que la emisión desde la parte superior del pilar (diodo axial) está alrededor de 2.3 eV. Para finalizar, se presentan resultados sobre el crecimiento ordenado de GaN, con y sin inserciones de InGaN, en templates semi polares (GaN(11-22)/zafiro) y no polares (GaN(11-20)/zafiro). Tras el crecimiento ordenado, gran parte de los defectos presentes en los templates originales se ven reducidos, manifestándose en una gran mejora de las propiedades ópticas. En el caso de crecimiento selectivo sobre templates con orientación GaN(11-22), no polar, la formación de nanoestructuras con una particular morfología (baja relación entre crecimiento perpedicular frente a paralelo al plano) permite, a partir de la coalescencia de estas nanoestructuras, la fabricación de pseudo-templates no polares de GaN de alta calidad. ABSTRACT The aim of this work is to gain insight into the selective area growth of InGaN nanostructures by plasma assisted molecular beam epitaxy, focusing on their potential as building blocks for next generation LEDs. Several nanocolumn-based approaches such as standard axial InGaN/GaN structures, InGaN/GaN core-shell structures, or InGaN/GaN nanostructures grown on semi- and non-polar substrates are discussed. The first section reviews the basics of the self-assembled growth of GaN nanocolumns on Si(111). Morphology differences and optical properties are compared to those of GaN layer grown directly on Si(111). The effects of the growth temperature on the In incorporation in self-assembled InGaN nanocolumns grown on Si(111) is described. The second section reviews the basic growth mechanisms of selectively grown GaNbased nanostructures on c-plane GaN/sapphire templates. By increasing the local III/V ratio morphological changes from pyramidal islands, to GaN nanocolumns with top semi-polar planes, and further to GaN nanocolumns with top polar c-planes are observed. When growing InGaN nano-disks embedded into the GaN nanocolumns, the different morphologies mentioned lead to different optical properties, due to the semipolar and polar nature of the crystal planes involved. The third section reports on the effect of the growth temperature and In/Ga ratio on the morphology and light emission characteristics of ordered InGaN nanocolumns grown on c-plane GaN/sapphire templates. Within the growth temperature range of 650 to 750oC the In incorporation can be modified either by the growth temperature, or the In/Ga ratio. Control of these factors allows the optimization of the InGaN nanocolumns light emission wavelength. In order to achieve white light emission two approaches are used. First yellow-white light emission can be obtained at room temperature from nanostructures where the InGaN region is composition-graded by using temperature gradients during growth. In a second approach the stacking of red, green and blue emitting segments was used to achieve the monolithic integration of these structures in one single InGaN nanocolumn leading to ordered broad spectrum emitters. With this approach, the spectral shape can be controlled by changing the thickness of the respective InGaN segments. Furthermore the growth of ordered arrays of InGaN/GaN nanocolumnar light emitting diodes by molecular beam epitaxy, emitting in the blue (441 nm), green (502 nm), and yellow (568 nm) spectral range is reported. The device active region, consisting of a nanocolumnar InGaN section of nominally constant composition and 250 to 500 nm length, is free of extended defects, which is in strong contrast to InGaN layers (planar) of similar composition and thickness. Electroluminescence spectra show a very small blue shift with increasing current, (almost negligible in the yellow device) and line widths slightly broader than those of state-of-the-art InGaN quantum wells. Next the selective area growth of In(Ga)N/GaN nanocolumns on Si(111) substrates is discussed. Ordered In(Ga)N/GaN nanocolumns emitting from ultraviolet (3.2 eV) to infrared (0.78 eV) were then grown on top of GaN-buffered Si substrates. The morphology and the emission efficiency of the In(Ga)N/GaN nanocolumns emitting in the green could be substantially improved by tuning the In/Ga and total III/N ratios, where an estimated internal quantum efficiency of 30 % was derived from photoluminescence data. In the next section, this work presents a study on the selective area growth mechanisms of green-emitting InGaN/GaN nanocolumns and their optical properties. InGaN/GaN nanocolumns with long InGaN sections (330-830nm) were grown on GaN/sapphire and GaN-buffered Si(111). The nanocolumn’s morphology and spatial indium distribution is found to depend on the local group (III)/N and In/Ga ratios at the nanocolumn’s top. A negligible spread of the average indium incorporation among different nanostructures is found as indicated by similar shapes of the cathodoluminescence spectra taken from single nanocolumns and ensembles of nanocolumns. For InGaN/GaN nanocolumns grown on GaN-buffered Si(111), all emitting in the green spectral range, the internal quantum efficiency increases up to 30% when decreasing growth temperature and increasing active nitrogen. This behavior is likely due to the formation of highly localized states, as indicated by the absence of a complete s-shape behavior of the PL peak position with temperature (up to room temperature) in samples with high internal quantum efficiency. On the other hand, no dependence of the internal quantum efficiency on the growth conditions is found for InGaN/GaN nanostructures grown on GaN/sapphire, where the maximum achieved efficiency is 3.7%. As alternative to axial InGaN/GaN nanostructures, section 4 reports on the growth and characterization of InGaN/GaN core-shell structures on an ordered array of top-down patterned GaN microrods etched from a GaN/sapphire template. Growth of InGaN/GaN is conformal, with axial and radial growth components leading to core-shell structures with clear hexagonal facets. The radial InGaN growth (shell) is confirmed by spatially resolved cathodoluminescence performed in a scanning electron microscopy as well as in scanning transmission electron microscopy. Furthermore the growth of InGaN core-shell micro pillars using an ordered array of GaN cores grown by metal organic vapor phase epitaxy as a template is demonstrated. Upon InGaN overgrowth core-shell structures with emission at around 3.0 eV are formed. With spatially resolved cathodoluminescence, an increasing In content towards the pillar top is found to be present in the InGaN shell, as indicated by a shift of CL peak position from 3.2 eV at the shell bottom to 3.0 eV at the shell top. This shift is related to variations of the local III/V ratio at the side facets. Further, the successful fabrication of a core-shell pin diode structure is demonstrated. Spatially resolved electroluminescence measurements performed on individual micro LEDs, confirm emission from the InGaN shell (lateral diode) at around 3.0 eV, as well as from the pillar top facet (axial diode) at around 2.3 eV. Finally, this work reports on the selective area growth of GaN, with and without InGaN insertion, on semi-polar (11-22) and non-polar (11-20) templates. Upon SAG the high defect density present in the GaN templates is strongly reduced as indicated by TEM and a dramatic improvement of the optical properties. In case of SAG on non-polar (11-22) templates the formation of nanostructures with a low aspect ratio took place allowing for the fabrication of high-quality, non-polar GaN pseudo-templates by coalescence of the nanostructures.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El wolframio (W) y sus aleaciones se consideran los mejores candidatos para la construcción del divertor en la nueva generación de reactores de fusión nuclear. Este componente va a recibir las cargas térmicas más elevadas durante el funcionamiento del reactor ya que estará en contacto directo con el plasma. En los últimos años, después de un profundo análisis y siguiendo una estrategia de reducción de costes, la Organización de ITER tomó la decisión de construir el divertor integramente de wolframio desde el principio. Por ello, el wolframio no sólo actuará como material en contacto con el plasma (PFM), sino que también tendría aplicaciones estructurales. El wolframio, debido a sus excelentes propiedades termo-físicas, cumple todos los requerimientos para ser utilizado como PFM, sin embargo, su inherente fragilidad pone en peligro su uso estructural. Por tanto, uno de los principales objetivos de esta tesis es encontrar una aleación de wolframio con menor fragilidad. Durante éste trabajo, se realizó la caracterización microstructural y mecánica de diferentes materiales basados en wolframio. Sin embargo, ésta tarea es un reto debido a la pequeña cantidad de material suministrado, su reducido tamaño de grano y fragilidad. Por ello, para una correcta medida de todas las propiedades físicas y mecánicas se utilizaron diversas técnicas experimentales. Algunas de ellas se emplean habitualmente como la nanoindentación o los ensayos de flexión en tres puntos (TPB). Sin embargo, otras fueron especificamente desarrolladas e implementadas durante el desarrollo de esta tesis como es el caso de la medida real de la tenacidad de fractura en los materiales masivos, o de las medidas in situ de la tenacidad de fractura en las láminas delgadas de wolframio. Diversas composiciones de aleaciones de wolframio masivas (W-1% Y2O3, W-2% V-0.5% Y2O3, W-4% V-0.5% Y2O3, W-2% Ti-1% La2O3 y W-4% Ti-1% La2O3) se han estudiado y comparado con un wolframio puro producido en las mismas condiciones. Estas aleaciones, producidas por ruta pulvimetalúrgica de aleado mecánico (MA) y compactación isostática en caliente (HIP), fueron microstructural y mecánicamente caracterizadas desde 77 hasta 1473 K en aire y en alto vacío. Entre otras propiedades físicas y mecánicas se midieron la dureza, el módulo elástico, la resistencia a flexión y la tenacidad de fractura para todas las aleaciones. Finalmente se analizaron las superficies de fractura después de los ensayos de TPB para relacionar los micromecanismos de fallo con el comportamiento macroscópico a rotura. Los resultados obtenidos mostraron un comportamiento mecánico frágil en casi todo el intervalo de temperaturas y para casi todas las aleaciones sin mejoría de la temperatura de transición dúctil-frágil (DBTT). Con el fin de encontrar un material base wolframio con una DBTT más baja se realizó también un estudio, aún preliminar, de láminas delgadas de wolframio puro y wolframio dopado con 0.005wt.% potasio (K). Éstas láminas fueron fabricadas industrialmente mediante sinterizado y laminación en caliente y en frío y se sometieron posteriormente a un tratamiento térmico de recocido desde 1073 hasta 2673 K. Se ha analizado la evolución de su microestructura y las propiedades mecánicas al aumentar la temperatura de recocido. Los resultados mostraron la estabilización de los granos de wolframio con el incremento de la temperatura de recocido en las láminas delgadas de wolframio dopado con potasio. Sin embargo, es necesario realizar estudios adicionales para entender mejor la microstructura y algunas propiedades mecánicas de estos materiales, como la tenacidad de fractura. Tungsten (W) and tungsten-based alloys are considered to be the best candidate materials for fabricating the divertor in the next-generation nuclear fusion reactors. This component will experience the highest thermal loads during the operation of a reactor since it directly faces the plasma. In recent years, after thorough analysis that followed a strategy of cost reduction, the ITER Organization decided to built a full-tunsgten divertor before the first nuclear campaigns. Therefore, tungsten will be used not only as a plasma-facing material (PFM) but also in structural applications. Tungsten, due to its the excellent thermo-physical properties fulfils the requirements of a PFM, however, its use in structural applications is compromised due to its inherent brittleness. One of the objectives of this phD thesis is therefore, to find a material with improved brittleness behaviour. The microstructural and mechanical characterisation of different tunsgten-based materials was performed. However, this is a challenging task because of the reduced laboratory-scale size of the specimens provided, their _ne microstructure and their brittleness. Consequently, many techniques are required to ensure an accurate measurement of all the mechanical and physical properties. Some of the applied methods have been widely used such as nanoindentation or three-point bending (TPB) tests. However, other methods were specifically developed and implemented during this work such as the measurement of the real fracture toughness of bulk-tunsgten alloys or the in situ fracture toughness measurements of very thin tungsten foils. Bulk-tunsgten materials with different compositions (W-1% Y2O3, W-2% V- 0.5% Y2O3, W-4% V-0.5% Y2O3, W-2% Ti-1% La2O3 and W-4% Ti-1% La2O3) were studied and compared with pure tungsten processed under the same conditions. These alloys, produced by a powder metallurgical route of mechanical alloying (MA) and hot isostatic pressing (HIP), were microstructural and mechanically characterised from 77 to 1473 K in air and under high vacuum conditions. Hardness, elastic modulus, flexural strength and fracture toughness for all of the alloys were measured in addition to other physical and mechanical properties. Finally, the fracture surfaces after the TPB tests were analysed to correlate the micromechanisms of failure with the macroscopic behaviour. The results reveal brittle mechanical behaviour in almost the entire temperature range for the alloys and micromechanisms of failure with no improvement in the ductile-brittle transition temperature (DBTT). To continue the search of a tungsten material with lowered DBTT, a preliminary study of pure tunsgten and 0.005 wt.% potassium (K)-doped tungsten foils was also performed. These foils were industrially produced by sintering and hot and cold rolling. After that, they were annealed from 1073 to 2673 K to analyse the evolution of the microstructural and mechanical properties with increasing annealing temperature. The results revealed the stabilisation of the tungsten grains with increasing annealing temperature in the potassium-doped tungsten foil. However, additional studies need to be performed to gain a better understanding of the microstructure and mechanical properties of these materials such as fracture toughness.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este Trabajo de Fin de Grado se va a explicar el procedimiento seguido a la hora de estudiar, diseñar y desarrollar Ackuaria, un portal de monitorización y análisis de estadísticas de comunicaciones en tiempo real. Después, se mostrarán los resultados obtenidos y la interfaz gráfica desarrollada para una mejor experiencia de usuario. Ackuaria se apoyará en el uso de Licode, un proyecto de código libre desarrollado en la Universidad Politécnica de Madrid, más concretamente en el Grupo de Internet de Nueva Generación de la Escuela Técnica Superior de Ingenieros de Telecomunicación. Licode ofrece la posibilidad de crear un servicio de streaming y videoconferencia en la propia infraestructura del usuario. Está diseñado para ser totalmente escalable y su uso está orientado principalmente al Cloud, aunque es perfectamente utilizable en una infraestructura física. Licode a su vez se basa en WebRTC, un protocolo desarrollado por la W3C (World Wide Web Consortium) y el IETF (Internet Engineering Task Force) pensado para poder transmitir y recibir flujos de audio, video y datos a través del navegador. No necesita ninguna instalación adicional, por lo que establecer una sesión de videoconferencia Peer-to-Peer es realmente sencillo. Con Licode se usa una MCU (Multipoint Control Unit) para evitar que todas las conexiones entre los usuarios sean Peer-To-Peer. Actúa como un cliente WebRTC más por el que pasan todos los flujos, que se encarga de multiplexar y redirigir donde sea necesario. De esta forma se ahorra ancho de banda y recursos del dispositivo de una forma muy significativa. Existe la creciente necesidad de los usuarios de Licode y de cualquier servicio de videoconferencia en general de poder gestionar su infraestructura a partir de datos y estadísticas fiables. Sus objetivos son muy variados: desde estudiar el comportamiento de WebRTC en distintos escenarios hasta monitorizar el uso de los usuarios para poder contabilizar después el tiempo publicado por cada uno. En todos los casos era común la necesidad de disponer de una herramienta que permitiese conocer en todo momento qué está pasando en el servicio de Licode, así como de almacenar toda la información para poder ser analizada posteriormente. Para conseguir desarrollar Ackuaria se ha realizado un estudio de las comunicaciones en tiempo real con el objetivo de determinar qué parámetros era indispensable y útil monitorizar. A partir de este estudio se ha actualizado la arquitectura de Licode para que obtuviese todos los datos necesarios y los enviase de forma que pudiesen ser recogidos por Ackuaria. El portal de monitorización entonces tratará esa información y la mostrará de forma clara y ordenada, además de proporcionar una API REST al usuario.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En un momento en el que la Nube cobra cada día más fuerza, contribuyendo como pieza fundamental en la aparición de nuevos modelos de negocio, que a su vez originan una amplia oferta de aplicaciones útiles en prácticamente todos los ámbitos; la Unión Europea decidió sumergirse en el proyecto FIWARE, con la idea de alzarse como una nueva alternativa pública de código abierto, en un mercado dominado desde hace años por Google y Amazon. Desde 2011, FIWARE crece gracias al trabajo colaborativo de multitud de empresas e instituciones europeas especializadas en el ámbito de las TIC, con el objetivo de ofrecer un entorno estandarizado y de código abierto, que de soporte en la nube, tanto a las empresas como a las aplicaciones que puedan surgir en el futuro. Entre el amplio conjunto de contribuidores al proyecto, se encuentra la Universidad Politécnica de Madrid. Concretamente, como parte de la Cátedra de Telefónica en la Escuela Superior de Ingenieros de Telecomunicación, nace el Grupo de Internet de Nueva Generación (GING), responsable de importantes aportaciones al proyecto FIWARE. Entre las diferentes actividades a cargo del GING, están el diseño, la implementación y el mantenimiento del Portal Cloud, la interfaz gráfica que proporciona acceso desde la web a los diferentes servicios de la nube de FIWARE, basados la mayoría en los recursos Openstack: proveedor de infraestructura como servicio (IaaS). El objetivo de este trabajo será introducir al lector los principales propósitos por los que nace FIWARE, y presentar una serie de desarrollos realizados bajo la firma del GING, en torno al Portal y su relación con la infraestructura Openstack. A lo largo del documento, se explicarán los diferentes procedimientos vinculados a la implementación de las herramientas web que han contribuido a mejorar la funcionalidad del Portal. Dichos procedimientos, entrañan el estudio y empleo de tres tecnologías fundamentales: desarrollos web de front-end y el empleo de la framework BackboneJS, los recursos Openstack y el entorno de desarrollo Devstack, y el concepto de los widgets aplicado a la monitorización de máquinas virtuales. La lectura de este documento puede resultar de gran utilidad, pues, la implantación de los diferentes casos de uso tratados en este proyecto, permite hacer un repaso de los diferentes niveles de abstracción con los que cuenta una herramienta como el Portal Cloud: partiendo de la implementación de la interfaz de usuario, hasta llegar a la configuración de los recursos que conforman el soporte de la aplicación, pasando por la creación de APIs y librerías que proporcionen acceso a los distintos servicios disponibles. Así, el análisis de la estructura y componentes que dan forma al Portal Cloud de FIWARE, proporcionará una visión global, extrapolable al diseño y funcionamiento de cualquier aplicación o plataforma que emplee como soporte de sus capacidades los servicios ofrecidos por proveedores de Infraestructura como Servicio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La fiabilidad está pasando a ser el principal problema de los circuitos integrados según la tecnología desciende por debajo de los 22nm. Pequeñas imperfecciones en la fabricación de los dispositivos dan lugar ahora a importantes diferencias aleatorias en sus características eléctricas, que han de ser tenidas en cuenta durante la fase de diseño. Los nuevos procesos y materiales requeridos para la fabricación de dispositivos de dimensiones tan reducidas están dando lugar a diferentes efectos que resultan finalmente en un incremento del consumo estático, o una mayor vulnerabilidad frente a radiación. Las memorias SRAM son ya la parte más vulnerable de un sistema electrónico, no solo por representar más de la mitad del área de los SoCs y microprocesadores actuales, sino también porque las variaciones de proceso les afectan de forma crítica, donde el fallo de una única célula afecta a la memoria entera. Esta tesis aborda los diferentes retos que presenta el diseño de memorias SRAM en las tecnologías más pequeñas. En un escenario de aumento de la variabilidad, se consideran problemas como el consumo de energía, el diseño teniendo en cuenta efectos de la tecnología a bajo nivel o el endurecimiento frente a radiación. En primer lugar, dado el aumento de la variabilidad de los dispositivos pertenecientes a los nodos tecnológicos más pequeños, así como a la aparición de nuevas fuentes de variabilidad por la inclusión de nuevos dispositivos y la reducción de sus dimensiones, la precisión del modelado de dicha variabilidad es crucial. Se propone en la tesis extender el método de inyectores, que modela la variabilidad a nivel de circuito, abstrayendo sus causas físicas, añadiendo dos nuevas fuentes para modelar la pendiente sub-umbral y el DIBL, de creciente importancia en la tecnología FinFET. Los dos nuevos inyectores propuestos incrementan la exactitud de figuras de mérito a diferentes niveles de abstracción del diseño electrónico: a nivel de transistor, de puerta y de circuito. El error cuadrático medio al simular métricas de estabilidad y prestaciones de células SRAM se reduce un mínimo de 1,5 veces y hasta un máximo de 7,5 a la vez que la estimación de la probabilidad de fallo se mejora en varios ordenes de magnitud. El diseño para bajo consumo es una de las principales aplicaciones actuales dada la creciente importancia de los dispositivos móviles dependientes de baterías. Es igualmente necesario debido a las importantes densidades de potencia en los sistemas actuales, con el fin de reducir su disipación térmica y sus consecuencias en cuanto al envejecimiento. El método tradicional de reducir la tensión de alimentación para reducir el consumo es problemático en el caso de las memorias SRAM dado el creciente impacto de la variabilidad a bajas tensiones. Se propone el diseño de una célula que usa valores negativos en la bit-line para reducir los fallos de escritura según se reduce la tensión de alimentación principal. A pesar de usar una segunda fuente de alimentación para la tensión negativa en la bit-line, el diseño propuesto consigue reducir el consumo hasta en un 20 % comparado con una célula convencional. Una nueva métrica, el hold trip point se ha propuesto para prevenir nuevos tipos de fallo debidos al uso de tensiones negativas, así como un método alternativo para estimar la velocidad de lectura, reduciendo el número de simulaciones necesarias. Según continúa la reducción del tamaño de los dispositivos electrónicos, se incluyen nuevos mecanismos que permiten facilitar el proceso de fabricación, o alcanzar las prestaciones requeridas para cada nueva generación tecnológica. Se puede citar como ejemplo el estrés compresivo o extensivo aplicado a los fins en tecnologías FinFET, que altera la movilidad de los transistores fabricados a partir de dichos fins. Los efectos de estos mecanismos dependen mucho del layout, la posición de unos transistores afecta a los transistores colindantes y pudiendo ser el efecto diferente en diferentes tipos de transistores. Se propone el uso de una célula SRAM complementaria que utiliza dispositivos pMOS en los transistores de paso, así reduciendo la longitud de los fins de los transistores nMOS y alargando los de los pMOS, extendiéndolos a las células vecinas y hasta los límites de la matriz de células. Considerando los efectos del STI y estresores de SiGe, el diseño propuesto mejora los dos tipos de transistores, mejorando las prestaciones de la célula SRAM complementaria en más de un 10% para una misma probabilidad de fallo y un mismo consumo estático, sin que se requiera aumentar el área. Finalmente, la radiación ha sido un problema recurrente en la electrónica para aplicaciones espaciales, pero la reducción de las corrientes y tensiones de los dispositivos actuales los está volviendo vulnerables al ruido generado por radiación, incluso a nivel de suelo. Pese a que tecnologías como SOI o FinFET reducen la cantidad de energía colectada por el circuito durante el impacto de una partícula, las importantes variaciones de proceso en los nodos más pequeños va a afectar su inmunidad frente a la radiación. Se demuestra que los errores inducidos por radiación pueden aumentar hasta en un 40 % en el nodo de 7nm cuando se consideran las variaciones de proceso, comparado con el caso nominal. Este incremento es de una magnitud mayor que la mejora obtenida mediante el diseño de células de memoria específicamente endurecidas frente a radiación, sugiriendo que la reducción de la variabilidad representaría una mayor mejora. ABSTRACT Reliability is becoming the main concern on integrated circuit as the technology goes beyond 22nm. Small imperfections in the device manufacturing result now in important random differences of the devices at electrical level which must be dealt with during the design. New processes and materials, required to allow the fabrication of the extremely short devices, are making new effects appear resulting ultimately on increased static power consumption, or higher vulnerability to radiation SRAMs have become the most vulnerable part of electronic systems, not only they account for more than half of the chip area of nowadays SoCs and microprocessors, but they are critical as soon as different variation sources are regarded, with failures in a single cell making the whole memory fail. This thesis addresses the different challenges that SRAM design has in the smallest technologies. In a common scenario of increasing variability, issues like energy consumption, design aware of the technology and radiation hardening are considered. First, given the increasing magnitude of device variability in the smallest nodes, as well as new sources of variability appearing as a consequence of new devices and shortened lengths, an accurate modeling of the variability is crucial. We propose to extend the injectors method that models variability at circuit level, abstracting its physical sources, to better model sub-threshold slope and drain induced barrier lowering that are gaining importance in FinFET technology. The two new proposed injectors bring an increased accuracy of figures of merit at different abstraction levels of electronic design, at transistor, gate and circuit levels. The mean square error estimating performance and stability metrics of SRAM cells is reduced by at least 1.5 and up to 7.5 while the yield estimation is improved by orders of magnitude. Low power design is a major constraint given the high-growing market of mobile devices that run on battery. It is also relevant because of the increased power densities of nowadays systems, in order to reduce the thermal dissipation and its impact on aging. The traditional approach of reducing the voltage to lower the energy consumption if challenging in the case of SRAMs given the increased impact of process variations at low voltage supplies. We propose a cell design that makes use of negative bit-line write-assist to overcome write failures as the main supply voltage is lowered. Despite using a second power source for the negative bit-line, the design achieves an energy reduction up to 20% compared to a conventional cell. A new metric, the hold trip point has been introduced to deal with new sources of failures to cells using a negative bit-line voltage, as well as an alternative method to estimate cell speed, requiring less simulations. With the continuous reduction of device sizes, new mechanisms need to be included to ease the fabrication process and to meet the performance targets of the successive nodes. As example we can consider the compressive or tensile strains included in FinFET technology, that alter the mobility of the transistors made out of the concerned fins. The effects of these mechanisms are very dependent on the layout, with transistor being affected by their neighbors, and different types of transistors being affected in a different way. We propose to use complementary SRAM cells with pMOS pass-gates in order to reduce the fin length of nMOS devices and achieve long uncut fins for the pMOS devices when the cell is included in its corresponding array. Once Shallow Trench isolation and SiGe stressors are considered the proposed design improves both kinds of transistor, boosting the performance of complementary SRAM cells by more than 10% for a same failure probability and static power consumption, with no area overhead. While radiation has been a traditional concern in space electronics, the small currents and voltages used in the latest nodes are making them more vulnerable to radiation-induced transient noise, even at ground level. Even if SOI or FinFET technologies reduce the amount of energy transferred from the striking particle to the circuit, the important process variation that the smallest nodes will present will affect their radiation hardening capabilities. We demonstrate that process variations can increase the radiation-induced error rate by up to 40% in the 7nm node compared to the nominal case. This increase is higher than the improvement achieved by radiation-hardened cells suggesting that the reduction of process variations would bring a higher improvement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las terminales de contenedores son sistemas complejos en los que un elevado número de actores económicos interactúan para ofrecer servicios de alta calidad bajo una estricta planificación y objetivos económicos. Las conocidas como "terminales de nueva generación" están diseñadas para prestar servicio a los mega-buques, que requieren tasas de productividad que alcanzan los 300 movimientos/ hora. Estas terminales han de satisfacer altos estándares dado que la competitividad entre terminales es elevada. Asegurar la fiabilidad de las planificaciones del atraque es clave para atraer clientes, así como reducir al mínimo el tiempo que el buque permanece en el puerto. La planificación de las operaciones es más compleja que antaño, y las tolerancias para posibles errores, menores. En este contexto, las interrupciones operativas deben reducirse al mínimo. Las principales causas de dichas perturbaciones operacionales, y por lo tanto de incertidumbre, se identifican y caracterizan en esta investigación. Existen una serie de factores que al interactuar con la infraestructura y/o las operaciones desencadenan modos de fallo o parada operativa. Los primeros pueden derivar no solo en retrasos en el servicio sino que además puede tener efectos colaterales sobre la reputación de la terminal, o incluso gasto de tiempo de gestión, todo lo cual supone un impacto para la terminal. En el futuro inmediato, la monitorización de las variables operativas presenta gran potencial de cara a mejorar cualitativamente la gestión de las operaciones y los modelos de planificación de las terminales, cuyo nivel de automatización va en aumento. La combinación del criterio experto con instrumentos que proporcionen datos a corto y largo plazo es fundamental para el desarrollo de herramientas que ayuden en la toma de decisiones, ya que de este modo estarán adaptadas a las auténticas condiciones climáticas y operativas que existen en cada emplazamiento. Para el corto plazo se propone una metodología con la que obtener predicciones de parámetros operativos en terminales de contenedores. Adicionalmente se ha desarrollado un caso de estudio en el que se aplica el modelo propuesto para obtener predicciones de la productividad del buque. Este trabajo se ha basado íntegramente en datos proporcionados por una terminal semi-automatizada española. Por otro lado, se analiza cómo gestionar, evaluar y mitigar el efecto de las interrupciones operativas a largo plazo a través de la evaluación del riesgo, una forma interesante de evaluar el effecto que eventos inciertos pero probables pueden generar sobre la productividad a largo plazo de la terminal. Además se propone una definición de riesgo operativo junto con una discusión de los términos que representan con mayor fidelidad la naturaleza de las actividades y finalmente, se proporcionan directrices para gestionar los resultados obtenidos. Container terminals are complex systems where a large number of factors and stakeholders interact to provide high-quality services under rigid planning schedules and economic objectives. The socalled next generation terminals are conceived to serve the new mega-vessels, which are demanding productivity rates up to 300 moves/hour. These terminals need to satisfy high standards because competition among terminals is fierce. Ensuring reliability in berth scheduling is key to attract clients, as well as to reduce at a minimum the time that vessels stay the port. Because of the aforementioned, operations planning is becoming more complex, and the tolerances for errors are smaller. In this context, operational disturbances must be reduced at a minimum. The main sources of operational disruptions and thus, of uncertainty, are identified and characterized in this study. External drivers interact with the infrastructure and/or the activities resulting in failure or stoppage modes. The later may derive not only in operational delays but in collateral and reputation damage or loss of time (especially management times), all what implies an impact for the terminal. In the near future, the monitoring of operational variables has great potential to make a qualitative improvement in the operations management and planning models of terminals that use increasing levels of automation. The combination of expert criteria with instruments that provide short- and long-run data is fundamental for the development of tools to guide decision-making, since they will be adapted to the real climatic and operational conditions that exist on site. For the short-term a method to obtain operational parameter forecasts in container terminals. To this end, a case study is presented, in which forecasts of vessel performance are obtained. This research has been entirely been based on data gathered from a semi-automated container terminal from Spain. In the other hand it is analyzed how to manage, evaluate and mitigate disruptions in the long-term by means of the risk assessment, an interesting approach to evaluate the effect of uncertain but likely events on the long-term throughput of the terminal. In addition, a definition for operational risk evaluation in port facilities is proposed along with a discussion of the terms that better represent the nature of the activities involved and finally, guidelines to manage the results obtained are provided.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los Centros de Datos se encuentran actualmente en cualquier sector de la economía mundial. Están compuestos por miles de servidores, dando servicio a los usuarios de forma global, las 24 horas del día y los 365 días del año. Durante los últimos años, las aplicaciones del ámbito de la e-Ciencia, como la e-Salud o las Ciudades Inteligentes han experimentado un desarrollo muy significativo. La necesidad de manejar de forma eficiente las necesidades de cómputo de aplicaciones de nueva generación, junto con la creciente demanda de recursos en aplicaciones tradicionales, han facilitado el rápido crecimiento y la proliferación de los Centros de Datos. El principal inconveniente de este aumento de capacidad ha sido el rápido y dramático incremento del consumo energético de estas infraestructuras. En 2010, la factura eléctrica de los Centros de Datos representaba el 1.3% del consumo eléctrico mundial. Sólo en el año 2012, el consumo de potencia de los Centros de Datos creció un 63%, alcanzando los 38GW. En 2013 se estimó un crecimiento de otro 17%, hasta llegar a los 43GW. Además, los Centros de Datos son responsables de más del 2% del total de emisiones de dióxido de carbono a la atmósfera. Esta tesis doctoral se enfrenta al problema energético proponiendo técnicas proactivas y reactivas conscientes de la temperatura y de la energía, que contribuyen a tener Centros de Datos más eficientes. Este trabajo desarrolla modelos de energía y utiliza el conocimiento sobre la demanda energética de la carga de trabajo a ejecutar y de los recursos de computación y refrigeración del Centro de Datos para optimizar el consumo. Además, los Centros de Datos son considerados como un elemento crucial dentro del marco de la aplicación ejecutada, optimizando no sólo el consumo del Centro de Datos sino el consumo energético global de la aplicación. Los principales componentes del consumo en los Centros de Datos son la potencia de computación utilizada por los equipos de IT, y la refrigeración necesaria para mantener los servidores dentro de un rango de temperatura de trabajo que asegure su correcto funcionamiento. Debido a la relación cúbica entre la velocidad de los ventiladores y el consumo de los mismos, las soluciones basadas en el sobre-aprovisionamiento de aire frío al servidor generalmente tienen como resultado ineficiencias energéticas. Por otro lado, temperaturas más elevadas en el procesador llevan a un consumo de fugas mayor, debido a la relación exponencial del consumo de fugas con la temperatura. Además, las características de la carga de trabajo y las políticas de asignación de recursos tienen un impacto importante en los balances entre corriente de fugas y consumo de refrigeración. La primera gran contribución de este trabajo es el desarrollo de modelos de potencia y temperatura que permiten describes estos balances entre corriente de fugas y refrigeración; así como la propuesta de estrategias para minimizar el consumo del servidor por medio de la asignación conjunta de refrigeración y carga desde una perspectiva multivariable. Cuando escalamos a nivel del Centro de Datos, observamos un comportamiento similar en términos del balance entre corrientes de fugas y refrigeración. Conforme aumenta la temperatura de la sala, mejora la eficiencia de la refrigeración. Sin embargo, este incremente de la temperatura de sala provoca un aumento en la temperatura de la CPU y, por tanto, también del consumo de fugas. Además, la dinámica de la sala tiene un comportamiento muy desigual, no equilibrado, debido a la asignación de carga y a la heterogeneidad en el equipamiento de IT. La segunda contribución de esta tesis es la propuesta de técnicas de asigación conscientes de la temperatura y heterogeneidad que permiten optimizar conjuntamente la asignación de tareas y refrigeración a los servidores. Estas estrategias necesitan estar respaldadas por modelos flexibles, que puedan trabajar en tiempo real, para describir el sistema desde un nivel de abstracción alto. Dentro del ámbito de las aplicaciones de nueva generación, las decisiones tomadas en el nivel de aplicación pueden tener un impacto dramático en el consumo energético de niveles de abstracción menores, como por ejemplo, en el Centro de Datos. Es importante considerar las relaciones entre todos los agentes computacionales implicados en el problema, de forma que puedan cooperar para conseguir el objetivo común de reducir el coste energético global del sistema. La tercera contribución de esta tesis es el desarrollo de optimizaciones energéticas para la aplicación global por medio de la evaluación de los costes de ejecutar parte del procesado necesario en otros niveles de abstracción, que van desde los nodos hasta el Centro de Datos, por medio de técnicas de balanceo de carga. Como resumen, el trabajo presentado en esta tesis lleva a cabo contribuciones en el modelado y optimización consciente del consumo por fugas y la refrigeración de servidores; el modelado de los Centros de Datos y el desarrollo de políticas de asignación conscientes de la heterogeneidad; y desarrolla mecanismos para la optimización energética de aplicaciones de nueva generación desde varios niveles de abstracción. ABSTRACT Data centers are easily found in every sector of the worldwide economy. They consist of tens of thousands of servers, serving millions of users globally and 24-7. In the last years, e-Science applications such e-Health or Smart Cities have experienced a significant development. The need to deal efficiently with the computational needs of next-generation applications together with the increasing demand for higher resources in traditional applications has facilitated the rapid proliferation and growing of data centers. A drawback to this capacity growth has been the rapid increase of the energy consumption of these facilities. In 2010, data center electricity represented 1.3% of all the electricity use in the world. In year 2012 alone, global data center power demand grew 63% to 38GW. A further rise of 17% to 43GW was estimated in 2013. Moreover, data centers are responsible for more than 2% of total carbon dioxide emissions. This PhD Thesis addresses the energy challenge by proposing proactive and reactive thermal and energy-aware optimization techniques that contribute to place data centers on a more scalable curve. This work develops energy models and uses the knowledge about the energy demand of the workload to be executed and the computational and cooling resources available at data center to optimize energy consumption. Moreover, data centers are considered as a crucial element within their application framework, optimizing not only the energy consumption of the facility, but the global energy consumption of the application. The main contributors to the energy consumption in a data center are the computing power drawn by IT equipment and the cooling power needed to keep the servers within a certain temperature range that ensures safe operation. Because of the cubic relation of fan power with fan speed, solutions based on over-provisioning cold air into the server usually lead to inefficiencies. On the other hand, higher chip temperatures lead to higher leakage power because of the exponential dependence of leakage on temperature. Moreover, workload characteristics as well as allocation policies also have an important impact on the leakage-cooling tradeoffs. The first key contribution of this work is the development of power and temperature models that accurately describe the leakage-cooling tradeoffs at the server level, and the proposal of strategies to minimize server energy via joint cooling and workload management from a multivariate perspective. When scaling to the data center level, a similar behavior in terms of leakage-temperature tradeoffs can be observed. As room temperature raises, the efficiency of data room cooling units improves. However, as we increase room temperature, CPU temperature raises and so does leakage power. Moreover, the thermal dynamics of a data room exhibit unbalanced patterns due to both the workload allocation and the heterogeneity of computing equipment. The second main contribution is the proposal of thermal- and heterogeneity-aware workload management techniques that jointly optimize the allocation of computation and cooling to servers. These strategies need to be backed up by flexible room level models, able to work on runtime, that describe the system from a high level perspective. Within the framework of next-generation applications, decisions taken at this scope can have a dramatical impact on the energy consumption of lower abstraction levels, i.e. the data center facility. It is important to consider the relationships between all the computational agents involved in the problem, so that they can cooperate to achieve the common goal of reducing energy in the overall system. The third main contribution is the energy optimization of the overall application by evaluating the energy costs of performing part of the processing in any of the different abstraction layers, from the node to the data center, via workload management and off-loading techniques. In summary, the work presented in this PhD Thesis, makes contributions on leakage and cooling aware server modeling and optimization, data center thermal modeling and heterogeneityaware data center resource allocation, and develops mechanisms for the energy optimization for next-generation applications from a multi-layer perspective.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesis estudia en detalle la Hunstanton Secondary School y su trascendencia. Así, se trata de analizar el conjunto de procesos que hace que esta obra sea entendida como el manifiesto construido del Nuevo Brutalismo en Inglaterra. La Escuela en Hunstanton fue la primera obra proyectada y construida por los Smithson y, si se considera que el legado que dejaron Alison y Peter fue más de carácter teórico que constructivo, ésta se ha convertido en un edificio relevante dentro de su trayectoria profesional. Además, el rigor con el que fue realizado el proyecto y la ratificación de las ideas que subyacían tras él, a pesar del extenso intervalo temporal que caracterizó su proceso constructivo, hacen que esta obra se convierta en una síntesis de la filosofía arquitectónica gestada en Inglaterra tras la guerra. Por otro lado, hay que contemplar que la sencillez del lenguaje constructivo empleado, viene dada por la compleja reiteración de los sistemas proyectuales tipo que formulan para este proyecto y el establecimiento de una gramática casi matemática. La sistematización de su vocabulario hace que, tras el análisis de su arquitectura, se encuentren nuevos parámetros capaces de documentar este momento de la historia de la arquitectura en Inglaterra. La envolvente del edificio constituye al tiempo fachada y estructura. Esta característica ha pasado inadvertida cuando, en numerosas ocasiones y durante seis décadas, se han venido publicando las fotografías de la obra terminada y los dibujos que los Smithson habían realizado en la fase de proyecto. Como consecuencia, ha proliferado el conocimiento de la arquitectura de la escuela a un nivel más superficial, mostrando el resultado formal de la misma y con ello, simplemente se ha dejado intuir la gran influencia que Mies Van der Rohe provocó en los Smithson en los primeros años de desarrollo de su labor como arquitectos. El objetivo principal de esta tesis es, por tanto, facilitar el entendimiento del espacio que propusieron los Smithson a partir del análisis pormenorizado de los distintos sistemas constructivos empleados y del equipo personal que se vio implicado en su construcción. Para ello, es necesario abordar el estudio de los materiales y mecanismos proyectuales que hicieron posible que este conjunto de espacios –interiores y exteriores- resultase definido a través de la relación entre dos variables: una evidente austeridad en la utilización de los materiales y la combinación de los distintos sistemas intervinientes a partir del recurso de la repetición. La Escuela de Hunstanton, a pesar de las inoportunas intervenciones realizadas para adaptar el centro a unas necesidades derivadas de su número de alumnos actual (el doble que en su inicio), continúa proclamando su integridad espacial. Partiendo de la hipótesis de que la arquitectura de la Secondary School en Hunstanton, representa el manifiesto construido del Nuevo Brutalismo en Inglaterra, se concluye que el resultado de su construcción fue consecuencia de numerosas influencias que, en relación con los Smithson, estuvieron presentes durante los años en que se gestó. Algo que va más allá de la conclusión de aquellos debates arquitectónicos que se habían emprendido, por escrito, en las distintas revistas locales de arquitectura. Los mecanismos compositivos empleados, también habían tenido mucho que ver con lo que los historiadores del arte habían venido aportando a la historia de la arquitectura hasta ese momento. Desde los años 40, éstos últimos habían emprendido una nueva manera de contar la historia en la que quedaba fuertemente involucrada su capacidad crítica, provocando interferencias en la mentalidad de los arquitectos de nueva generación y otorgándoles un bagaje cultural subliminalmente determinado y subjetivo. Por supuesto, en el resultado arquitectónico final, también tuvieron mucho que ver los recursos materiales de que se disponía en aquel momento. Así como la optimización de los mismos a través de la adopción de nuevas metodologías de trabajo como puede ser la organización multidisciplinar. La inclusión del ingeniero Ronald Jenkins en el equipo de trabajo de los Smithson supuso una gran oportunidad. Este ingeniero, propuso poner en práctica la entonces innovadora Teoría Plástica en la metodología de cálculo estructural y, con ello consiguió enriquecer el resultado espacial, posibilitando la percepción de una arquitectura ligera –a pesar de sus grandes dimensiones- y vinculada al paisaje donde se inserta. Pero todos estos condicionantes fueron pasados a su vez por el filtro del deseo de una regeneración social, que buscaba el modelo de la sociedad americana. El Buen Vivir que propugnaban los americanos, viajaba a Europa de la mano de la publicidad. Y, al igual que la componente publicitaria tuvo algo que ver en el proceso creativo de la arquitectura de la escuela, también lo tuvo el conocimiento del arte pop y sus recursos compositivos. ABSTRACT The thesis examines in detail the project of Hunstanton Secondary School and the architectural language’s significance used in it. Thus, it is reinterpreting the set of processes that makes this work to be understood as the “built manifesto” of the English New Brutalism. Hunstanton School’s project was the first work designed and built by the Smithsons and, considering their legacy -more theoretical than constructed-, make of this building an important work within their career. In addition, the rigor with which it was carried out the project and the ratification of the ideas lying behind him, make this work becomes a synthesis of the architectural philosophy gestated in England after the war, despite the extensive time interval that characterized its construction process. On the other hand, it must be considered the simplicity of the constructive language used in this project. It is given by the complex projective repetition of the type systems and by the establishment of a quasi-mathematical grammar. The systematization of its vocabulary makes, after a deep analysis of its architecture, to recognize new parameters able to document this moment in the history of English architecture. The building envelope is, at the same time, facade and structure. This feature has been overlooked when many photographs of the finished work and its drawings -made by the Smithsons during the design phase- has been exposed over six decades. As a result, it has proliferated the knowledge of Hunstanton Secondary Modern School’s architecture as a more superficial level, just by showing the formal outcome of its project and thus simply been left the sensation of the great influence that Mies Van der Rohe provocated in the Smithson thinking during their first years of developing his work as architects. Therefore, the main objective of this thesis is to facilitate an understanding of the Smithsons’ proposed space. This is made possible through the detailed analysis of the different systems used in it and, by understanding the knowledge of the team involved in its construction. To prove this, it is necessary to pay attention to the study of the materials and to different project mechanisms that make possible to this group of spaces -inner and outer- be defined through the game played by two variables: an apparent austerity in the use of materials and the combination of the various participant systems through the resource of repetition. Despite the untimely interventions made in order to adapt the center to the new needs (the large increase in the number of students), Hunstanton School’s building continues proclaiming its spatial integrity. Assuming that Hunstanton Secondary School’s architecture represents the manifesto of New Brutalism in England, it is concluded that the result of its construction was the result of numerous influences that, in connection with the Smithsons, were present during the years in which its project was conceived. This meaning goes beyond the conclusions made from the architectural debate that was published in many of local architectural magazines. The compositional mechanisms employed, are also linked to what art historians had contributed to the history of architecture until then. Since the 40s, historians had undertaken a new way to tell History. This new mode strongly implied its critical capacity. All this, was causing interferences in the mentality of the architects of the new generation and, giving them a subliminally determined and very subjective cultural background. Of course, the final architectural result had much to do with the material resources available at that time and, with its optimization through the adoption of new working methods as the multidisciplinary organization. The inclusion of engineer Ronald Jenkins in the team of the Smithsons was a great opportunity. He proposed to implement the new Plastic Theory in the structural calculation and thereby he got enrich the spatial results achieved, by enabling the perception of a lightweight construction, despite its large size and, linked to the landscape where it is inserted. But all these conditions were passed through the filter of social regeneration’s desire, following the American society’s model. This American model travelled to Europe in the hands of advertising. And, in the same way that publicity had something to do with the creative process of this architecture, also had a lot to do the knowledge of pop art and its compositional resources.