9 resultados para GPLv3Open SourceLicenza libera
em Universidad Politécnica de Madrid
Resumo:
El título de esta tesis, utiliza primero una expresión periodística muy conocida sobre esta obra, que expresa muy bien su característica contradictoria, paradójica, siempre entre opuestos, frecuentemente utilizadas por los textos que sobre esta obra se han escrito. La segunda expresión define a esta tesis, incluida en el grupo de investigación sobre el objetivo común de la Crítica Arquitectónica. La casa Malaparte, olvidada durante largo tiempo y venerada en otros momentos, fue elegida por referéndum en 1979 por la revista “Modo (Cien proyectos para recordar)” como la obra más representativa de la arquitectura italiana del siglo XX. Un icono de modernidad en 1979 y paradójicamente no en su momento, ya que difícilmente se podría encuadrar en las tipologías de vivienda moderna de los años treinta. El objetivo de esta tesis es la racionalización del valor de esta obra, admitida de alguna manera en los “manuales de arquitectura moderna”, proponiendo para ello el reconocimiento de sus singularidades y regularidades como elementos de investigación del valor sustantivo de la arquitectura, el polinomio indisociable: contexto, forma, función, construcción. Tenemos datos, textos, hermenéutica. Nuestro método no puede ser otro que la crítica de los datos y texto y la crítica poética. Nuestra tesis, se inserta en este conjunto de crítica arquitectónica, vinculada al método llamado por el Catedrático Dr. Antonio Miranda Regojo “Mírregan-Todorov” que emplearemos como referencia y método para mostrar lo que más nos interesa, la calidad de la arquitectura, su ser, que paradójicamente, difiere de su descripción, de su momento histórico, en fin de todo aquello que en realidad solo la describe, la analiza y la interpreta. Nuestra variación propuesta al modelo de referencia, consta del siguiente desarrollo: 1. Crítica de “La Crítica”. 2. Crítica poética. 3. Conclusiones El primer capítulo, propone “La Crítica”, entendida como ese valor colectivo depositado por los textos escritos sobre la obra contrastado con nuestras observaciones personales respecto de cada uno de ellos. Las críticas seleccionadas muestran una nube de alternativas relativas a la descripción, análisis e interpretación que sobre la obra se han producido. Este capítulo, constituye una compilación de textos ordenada cronológicamente, que introduce al conocimiento de la obra. Recoge las primeras referencias, los artículos, los libros, las películas y anuncios así como alguno de los textos académicos que se han escrito sobre esta obra. 15 Los artículos seleccionados son los siguientes: Aldo Morbelli 1942. A. Alieri M.Clerici F.Palpacelli y G.Vaccaro 1966. Francesco Venezia con G.Petrusch 1973 Vieri Quilici.1977/1981 G.K.Koenig, 1979 John Hejduk 1980 Audrey Batey 1980. Manfredo Tafuri 1981. Francesco Venezia 1983. Joe Bostik 1989. Vittorio Savi, 1989. Marida Talamona 1989. W. Arets, W. Van der Bergh. 1989. Franco Purinni 1991. Marida Talamona 1997. Bruce Chatwin 1997. Los libros seleccionados han sido: Marida Talamona. Casa Malaparte, Milano 1990. Sergio Attanasio. Curzio Malaparte “Casa come me” Punta del Massullo, tel. 160 Capri. Nápoles 1990 Gianni Petenna. CasaMalaparte, Capri, 1999 Michael McDonough. A house like me. Edit.Clarkson Potter,New York 1999 Mario Ferrari. Adalberto Libera “Casa Malaparte en Capri1938-1942” 2008 Las películas seleccionadas: Il Cristo proibito, 1956 Le Mèpris, 1963 La Pelle, 1981 Anuncio de Hugo Boss 2010 16 Los textos académicos recogidos son: Angela delGaudio. Casa Malaparte. Interventi e restauri. 2003 Nicoletta Setola. Casa Malaparte. Il cantiere le tecnologie i materiali. 2004 Gloria Paz Saravia Ortiz. La casa Malaparte de A.libera. 2007 En el capítulo segundo “Crítica poética” se circunscribe, según la definición utilizada, a lo que en particular tiene como nivel de verdad, por la idoneidad de su construcción, tipología e iconología en relación al lugar (entidad propia, identidad auténtica). Existen algunos estudios que proponen a la casa Malaparte comprendida en la poética común de la obra de su arquitecto, Adalberto Libera. Nuestra posición nada tiene que ver con “la manera de hacer de un autor” se inclina a investigar obras enlazadas por estructuras comunes, reflejo y consecuencia especialmente de la propia arquitectura, nos interesa la poética de la arquitectura, no la de un autor. Realizamos tres ensayos, el primero trata de investigar el “Lugar” contexto de la obra, proponiendo el reconocimiento de un sistema lugar-arquitectura, (Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí) del que formulamos una serie de definiciones como características de esta relación: la analogía, la simpatía, la emulación, la signatura, la nematología y la sinexión. Concluyendo que la relación encontrada en la Malaparte podría explicarse de esta manera: ninguna mimesis, admite cierta analogía, un camuflaje solo geométrico, sin emulación de “tipismo” alguno, con emulación del modelo continuo de la “caja” desde el ataúd a la humilde vivienda , con “simpatía” como una obra contemporánea, con una fuerte signatura sobre el lugar, en correspondencia a lugar señalado por la historia y a la indeterminación iconológica que propone su arquitectura, (fetiche, simulacro) con una relación “nematológica” a través de su implantación y con una vinculación especial de “sinexión” entre la superficie del lugar y el acomodo de esta arquitectura. Continuamos con la relación propia de la obra y el lugar, concluyendo como la casa Malaparte propone el espacio sobre su cubierta, a modo de patio, de recinto. La obra demuestra que no es únicamente la sustancia material quien protagoniza la acción de “recintar”. El vértigo constituye la materia infranqueable del perímetro. En la Malaparte es el plano arquitectónico, (elevado) el recinto descubierto, el plano que posibilita la máxima relación con el exterior en esta arquitectura. En su interior el paisaje deja de ser fondo y el habitante se incorpora al escenario, se incorpora al paisaje. Te encuentras midiendo, relacionando distancias desde las espículas de pino, rocas, acantilados, barcos, islas, mar hasta la costa de Amalfi. Esta posición sobre el paisaje, es comparada con la casa Kaufman de F.L.Wrigth. El segundo ensayo investiga el proyecto de la obra. Distinguimos entre proyecto-forma, proyecto-origen, proyecto programa, proyecto-acción y proyectos-signo. Encontramos que no existe proyecto-forma que explique la casa Malaparte, tenemos proyectoorigen, proyecto-programa y proyectos-signo suficientes para racionalizar esta obra. Nos encontramos con un proyecto-acción, en permanente discusión, debatido hasta la saciedad, con la finalidad de habitar aquella roca, cuyas proposiciones se contrastan en la obra, ampliando el proceso de proyecto a la propia acción de construir, proyecto y construcción no estan disociados. Los proyectos “signo” de esta obra, nos permiten relacionar la permanencia de un programa, una organización, una comunicación y distribución que entendemos continua y conducida por Malaparte. Lo realmente importante previsto y controlable por aquel: programa y distribución. Nos permitimos afirmar que lo significante continuo es un proyecto–programa limitado a una forma necesaria iniciada por Libera, como una semilla. Su forma es el resultado de un procedimiento, arraigado y condicionado a un terreno. Un proceso que consiste en establecer unas alturas tipo sobre un programa distribuido en planta, y limitado con una construcción racional, tipológica sobre muros de carga, capaz de soportar cualquier programa habitacional, que proporciona inevitablemente un resultado seguro. El tercer ensayo propone una “novela” sobre la manera de construcción de la obra, que nos permite explicar la gran escalera de la Malaparte. Encontramos que la construcción de la Malaparte, también forma parte de un sistema. Este sistema es capaz de generar forma, sin recurrir a las mascaras fijadas por la tradición o las modas, manteniendo su libertad de expresión sin concesiones. Consideramos que en el camino de acceso a la obra que hubo que ejecutarse para tal fin están las claves para la comprensión de su escalera. La escalera de la Malaparte la comprendemos desde la propia accesibilidad a la obra. Su trazado abocinado, su forma “strombata”, es consecuencia para nosotros de sus límites físicos, su elevación, resultado de las cotas que responden a los niveles de los planos de trabajo, incluida la terraza –patio. Su expresión geométrica sería visible desde la ejecución de las obras; no es posterior al paralelepípedo inicial, sino previa. Su función de acceso a la terraza no es la principal, excluida desde el proyecto administrativo de Libera, al texto escrito de Malaparte sobre su casa (ninguna escalera exterior). Sus funciones principales subyacentes que quedan envueltas son primeramente abastecer la obra, en segundo lugar como cubierta de la escalera interior que tuvo que salir de su posición centrada en el paralelepípedo inicial, al extremo exterior de este. La solución a estas necesidades acuciantes, mostrarían su función paradigmática en un tercer lugar, su solución como cubierta peldañeada, como fachada remontable, que se produce desde nuestra visión del exterior, la gran escalera de acceso al lugar principal y el hecho único y genial de la Malaparte. Las conclusiones finales de esta tesis están referidas en primer lugar al Texto escrito sobre la obra y en segundo lugar a la obra misma: La Casa es entendida en los textos analizados, como objeto que soporta simultáneamente la idea romántica de emoción-inspiración y la contemporánea de invitación a su conocimiento. Producto de su singular abstracción explicamos su transformación en lo que constatamos dos vías extremas: una como artefacto, trasto inútil y pretencioso que explica las críticas extremas de Koening y Durante. Habría que demoler la Malaparte, y por la otra se produce su transformación en “objeto artístico” (inspiraciónemoción– conocimiento) que hay que venerar. Este trinomio deviene en interpretación y de aquí su provocación hacia la literatura, el cine y la imagen sobre la obra. Ambos extremos podrían originarse por no comprender, por no llegar a explicar cómo este objeto es también casa, casa con patio, habitación, refugio, arquitectura con toda su contingencia que con coherencia, razón y libertad de expresión produce aquel objeto, con la única intencionalidad acuciante de ser construido y habitado. El gran valor “literario-artístico” de la Malaparte recogido en sus textos, debemos admitir pues que tiene su origen en la interpretación de lo arquitectónico, que no es evidente, que entendemos no puede deducirse de su mera imagen, del mismo modo que la escultura asociada a un capitel corintio, que algunos pretenden disociar del apoyo constructivo de un pie derecho, como la solución del tímpano- escultura de una portada barroca, que pretendemos separar de la eficacia del dintel, como la cúpula solución a la cubierta del Panteón de Agripa, que estudiamos aparte como un problema de ingeniería, estos aspectos múltiples, complejos y no evidentes producen la fragmentación de lo arquitectónico, y permiten sus interpretaciones independientes, desguazando la arquitectura en trozos muy visibles que algunos llamaron “arte” y sistemas mas ocultos que otros llamaron “ingeniería y técnica”. Contemplar lo humano con fantasía es también nuestra conclusión deductiva de lo que nos permite la Malaparte, su identidad propia y peculiar deducida del Texto. Una arquitectura que permite examinar lo humano con fantasía, también un gran valor común, literario y arquitectónico que no queremos disociar. Si nos afirmamos en la autonomía de la arquitectura, sin renunciar al Texto, su identidad no es más que materialidad, ni menos que la metáfora del habitar diverso del hombre en la tierra. Ambos discursos permanecerán siempre abiertos para poetas y arquitectos. La Malaparte puede explicarse desde el lugar, de su proyecto y su construcción. Podríamos limitarnos aun más, solamente de su realidad congelada actual lograríamos inferir su valor como arquitectura que ha resuelto el problema; cubriendo, superponiendo con rigurosa limpieza, orden y geometría, al caos de accidentalidad y esfuerzo, un resultado despejado, de la materialidad y la técnica, esto es en definitiva el poder de lo arquitectónico, realizado no como máscara superpuesta, sino como resultado coherente, piel viva sobre huesos y músculos necesarios.
Resumo:
Las últimas previsiones de mercado el cloud computing pronostican un crecimiento anual del 30%, ya que cada vez más personas adoptan la tecnología más avanzada para almacenar información en un espacio virtual. Sin embargo, el cloud computing no es sólo un sistema de almacenamiento de datos, sino que también se puede utilizar para ejecutar software y aplicaciones de forma remota, sin estar atado a un único ordenador. Para una pequeña empresa, la externalización de TI a la nube reduce la necesidad de contratar personas con habilidades especializadas y libera a los directores para que puedan concentrarse en el negocio. En el segundo capítulo analizamos el estado del arte del cloud computing, para lo cual en primer lugar definimos qué es cloud, así como cuáles son sus ventajas e inconvenientes. Presentamos los diferentes modelos de cloud computing, y cuáles son sus principales proveedores actualmente. Para finalizar esbozamos unas pinceladas del siempre complejo marco regulatorio del cloud computing en España. En el Capítulo 3 presentamos la situación de las pequeñas y medianas empresas dentro del ecosistema empresarial español, basándonos en los datos proporcionados por el Instituto Nacional de Estadística del año 2013. A continuación, en el Capítulo 4, analizamos la penetración del Cloud Computing en España, desde el punto de vista que tienen las pequeñas empresas de las tecnologías cloud, así como del uso que estas hacen del mismo. Para este capítulo hemos utilizado el informe realizado por Deloitte para el Ministerio de Industria, Energía y Turismo. En el capítulo 5 veremos un caso real de solución software as a service, desarrollado por mi empresa. Se trata de una aplicación de gestión de activos inmobiliarios, que enfocaremos hacia las pequeñas inmobiliarias. Para ello analizaremos la tipología de Pyme hacia la que queremos dirigir el producto viendo en detalle el sector de las actividades inmobiliarias, así como describiremos qué tipo de aplicación es y su funcionalidad (de modo muy resumido consiste en la gestión del ciclo de venta de todos los inmuebles de una agencia inmobiliaria, desde que el cliente solicita una visita, hasta que se lleva a cabo la firma de las escrituras). Posicionaremos el producto en precio y haremos una comparativa entre otras soluciones tanto cloud como on-premise para comparar su ventaja competitiva en precio. A continuación describiremos cómo pensamos hacer la comunicación del producto, mediante la publicación de la aplicación en el App Exchange de Salesforce, ferias inmobiliarias, etc y describiremos los servicios de valor añadido que ofrecemos. Por último estableceremos las previsiones económicas a tres años de las ventas del producto. Por último en el Capítulo 6 concluiremos el proyecto con una serie de reflexiones sobre los retos y las oportunidades a las que se enfrentan las Pymes actualmente, en lo que se refiere a la implantación de sistemas en la nube, y más concretamente los retos y oportunidades que pueden tener las Pymes el sector inmobiliario con las soluciones cloud.
Resumo:
La utilización de simulaciones por ordenador en el campo de la neurociencia, ofrece una mejora radical en el método científico al proporcionar un medio en el que poder probar hipótesis sobre los complejos modelos biológicos. Hay que tener en cuenta que la calidad de las simulaciones es directamente proporcional a la calidad de los datos y a la exactitud en la abstracción matemática de los procesos biológicos. Las sinapsis son los contactos que permiten el intercambio de información entre neuronas. A través de ellas, las neuronas son capaces de formar circuitos que intervienen en las operaciones funcionales específicas de las distintas regiones del cerebro. Por tanto, puede considerarse a la sinapasis como la estructura elemental y la unidad funcional en la construcción de circuitos neuronales. La inmensa mayoría de las sinapsis del cerebro de los vertebrados son sinapsis químicas. En ellas el elemento presináptico es generalmente un terminal axónico, mientras que el elemento postsináptico puede ser un cuerpo neuronal, el segmento inicial del axón, un tronco dendrítico o una espina dendrítica. Las membranas de los elementos pre y postsináptico no entran en contacto, sino que están separadas por un pequeño espacio denominado hendidura sináptica. En una sinapsis química, el elemento presináptico libera una sustancia química, el neurotransmisor, que difunde por la hendidura sináptica y actúa sobre el elemento postsináptico. Desde un punto de vista operacional, una sinapsis convierte un impulso eléctrico que alcanza el elemento presináptico en una señal química, que a su vez provoca un fenómeno eléctrico en el lado postsináptico. Para que esto ocurra, el neurotransmisor liberado debe difundir por la hendidura sináptica e interactuar con receptores específicos presentes en la membrana postsináptica. Dependiendo del tipo de neurotransmisor utilizado y de los receptores implicados la sinapsis podrá ser excitatoria, si se estimula el elemento postsináptico, o inhibitoria si ocurre lo contrario.La transmisión sináptica ocurre a escala submicroscópica, lo que la hace inaccesible a la observación experimental directa. Sin embargo, tanto la difusión del neurotransmisor como su interacción con los receptores sinápticos pueden simularse dado que dependen de parámetros fisico-químicos conocidos. En este trabajo hemos elegido como objeto de estudio una sinapsis glutamatérgica (que usa glutamato como neurotransmisor excitatorio) debido a que es la sinapsis más común en la corteza cerebral. Si bien se conocen las propiedades de los diferentes tipos de receptores de glutamato, se desconoce la influencia que pueda tener en el comportamiento de la sinapsis la geometría de ésta, es decir, su forma y tamaño. Sabemos por estudios de microscopía electrónica que tanto la forma como el tamaño de las sinapsis son muy variables, y es precisamente esta variabilidad la que pretendemos simular, junto con otros parámetros como el número de receptores de neurotransmisor.
Resumo:
Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.
Resumo:
El principal objetivo de este proyecto, tal como se especifica más adelante, es desarrollar una serie de buenas prácticas dentro del ámbito informático forense. Éstas serían la base de una metodología informática forense, para que cualquier persona con los conocimientos técnicos adecuados pueda afrontar una investigación pericial informática forense con garantías de poder afrontar un proceso judicial. Los objetivos secundarios son: Explorar las posibilidades de alinear las buenas prácticas desarrolladas con el uso del editor de textos Emacs, y un método de gestión de las actividades conocido como Getting Things Done (GTD), utilizando el modo orgmode de Emacs. • GTD se basa en el principio de que una persona necesita borrar de su mente todas las tareas que tiene pendientes guardándolas en un lugar específico. De este modo, se libera a la mente del trabajo de recordar todo lo que hay que hacer, y se puede concentrar en la efectiva realización de aquellas tareas. • ORGMODE es un modo de edición del editor de texto Emacs mediante el cual se editan documentos jerárquicos en texto plano. Su uso encaja con distintas necesidades, como la creación de notas de cosas por hacer, la planificación de proyectos y programación, entre otros aspectos. Por ejemplo, los elementos to-do (cosas por hacer) pueden disponer de prioridades y fechas de vencimiento, pueden estar subdivididos en subtareas o en listas de verificación, y pueden etiquetarse o darles propiedades. También puede generarse automáticamente una agenda de las entradas de cosas por hacer. Facilitar las plantillas de documentación y herramientas que permitan a un perito informático forense abordar una investigación informática forense, siguiendo las buenas prácticas definidas en el presente documento, con garantías de que las tareas realizadas, así como las evidencias presentadas serán aceptadas en un proceso judicial. Explicar las diferencias básicas entre el concepto sobreentendido socialmente como análisis forense y el peritaje informático forense. No es objetivo de este proyecto desarrollar herramientas concretas con objetivos forenses ni una metodología completa de peritaje informático forense.
Resumo:
Tanto Alejandro de la Sota como Peter Zumthor se han mantenido a una distancia prudencial respecto a las épocas que les ha tocado vivir, compartiendo ambos una elegancia casi estoica que se hace tangible en la levedad de sus obras. En ocasiones se ha calificado a la arquitectura de Alejandro de la Sota como “ligera”. Preferiremos utilizar a partir de ahora el término “leve”. Leve como ausencia de “gravedad”, no solo desde el punto de vista físico y gravitatorio, sino también como aquello que no duele, silencioso, humilde…. Leve porque el proyecto no “carga” con el gesto del autor, porque la relación entre los objetivos y el esfuerzo que supone alcanzarlos resulta coherente. Leve porque se libera del peso de la historia y de los prejuicios, sometiéndose al duro y silencioso ejercicio de “cuestionar” lo que otros han asumido sin más. En los croquis iniciales de Alejandro de la Sota para el Gimnasio Maravillas (1961) y el realizado por Peter Zumthor para la Bruder Klaus Field Chapel (2007) notamos cómo ambos arquitectos se deshacen de sus propios gestos gracias a la construcción. Es ella quien asume la responsabilidad del proyecto. De esta manera “claridad” y “necesidad”, actúan como marcadores de la levedad proyectual. Una agradable sensación de “sin esfuerzo” o “facilidad aparente”, surge cuando recordamos cómo el proyecto para las aulas de la Universidad de Sevilla (1972) se construyó con los planos de concurso (1/100) y las instrucciones sobre cómo se ponían en contacto los elementos constructivos. Paralelamente, esta “prefabricación de ideas” aparece en la Capilla de Alemania, donde tampoco se necesitaron detalles constructivos, únicamente las precisas instrucciones que fueron dictadas por el arquitecto. Detalles como el techo del Gobierno Civil de Tarragona (1954-57) nos llevan a pensar en las soluciones que fijan el vidrio en techos y fachada en el Kunsthaus de Bregenz (1990-97). ¿Conocería Peter Zumthor los escritos de Sota en defensa de lo que el llamaba arquitectura “física” cuando, en el año 2000, diseñó el proyecto para el Pabellón Suizo en la Exposición de Hannover? Alejandro de la Sota no necesita utilizar piedra del lugar para dar al edificio de Correos en León un carácter “imponente”, sólo trabajar la chapa de la manera adecuada. Tampoco Peter Zumthor necesita diseñar un vidrio aposta para la fachada de Bregenz. Es la precisión de ambos arquitectos quien les permite acercarse a un concepto tan “inasible” como el que les pone en relación.
Resumo:
La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.
Resumo:
Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.
Resumo:
A finales del siglo XIX y principios del XX, la aparición de nuevos materiales, como el acero y el hormigón armado, y la experimentación en procedimientos industriales provocan un cambio en el concepto de cerramiento y en la forma de construir. La fachada se libera y se independiza de la estructura principal, y el nuevo cerramiento debe responder a los principios arquitectónicos y constructivos de este momento. Se busca, por tanto, un cerramiento nuevo. Un cerramiento ligero, de poco peso, de poco espesor, autoportante, multicapa, montado en seco, de grandes dimensiones y que cumpla las exigencias de todo cerramiento. Se puede afirmar que, hasta que Jean Prouvé experimenta con distintos materiales y sistemas de fabricación, la técnica de los cerramientos ligeros no se desarrolla por completo. En sus trabajos se pueden encontrar aplicaciones de los nuevos materiales y nuevas técnicas, e investigaciones sobre prefabricación ligera en acero y aluminio, en un intento de aplicar la producción industrial y en serie a la construcción. Esta Tesis realiza un análisis en profundidad, tanto gráfico como escrito, de los cerramientos verticales desarrollados por Jean Prouvé, sin tratarlos como objetos aislados, entendiendo que forman parte de una obra arquitectónica concreta y completa. Dicho análisis sirve para clasificarlos según las funciones esenciales que debe garantizar un cerramiento: aislar, iluminar, ventilar y proteger, y para comprender cuáles son las claves, los recursos e intenciones, utilizadas por el autor para conseguir este propósito. El resultado de la investigación se plasma de dos formas diferentes. En la primera, se realizan reflexiones críticas para extraer los temas importantes de los elementos analizados, lo que posibilita el acercamiento a otros arquitectos y ampliar el campo de visión. En la segunda, de tipo gráfico, se elabora un atlas de los distintos tipos de cerramientos verticales desarrollados por Jean Prouvé. ABSTRACT In the late nineteenth and the early twentieth century, the appearance of new materials, like steel or reinforced concrete, and the experimentation in industrial procedures cause a change in the concept of façade and in the way of build. The façade is released and become independent of the main structural frame, and the new building enclosure must answer the architectural and construction principles of that moment. A new façade is therefore looked for. A light, thin, self supported, multi layer, dry mounted and big dimensions façade that meet the exigencies of all building enclosure. You can ensure that until Jean Prouvé experiment with several materials and fabrication systems, the light façade technic does not develop completely. In his work we can find new materials applications and new technics and studies about light prefabrication with steel and aluminium, in an attempt of apply the mass production to construction. This Thesis carries out a deep analysis, graphic and written, of the vertical enclosure panels of Jean Prouvé’s work. This is made without studying them like isolated objects, but understanding that they are part of a particular architectural work, as a whole. The analysis is used for classify the panels according to main functions that a façade must satisfy: isolate, light up, ventilate and protect. And also to understand which are the keys, the resources and intentions used by Prouvé to achieve this goal. The result of the research is presented in two different ways. In the first one, a critical reflection is made in order to extract the important issues of the analyzed elements. That makes possible the approach to other architects and gives us a bigger range of vision. In the second, graphic, an atlas of the different types of vertical façade panels of Jean Prouvé is made.