1000 resultados para OCUPACIÓN PREHISPÁNICA Y POSTERIOR


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este capítulo nos adentramos por la biblioteca de Matemáticas y Física de Leopoldo Calvo-Sotelo y Bustelo quien, durante toda su vida, demostró un interés permanente por los avances que se iban produciendo y una curiosidad inacabable por los descubrímientos que llegaban a su conocimiento. Como se verá, dentro de sus intereses figuran a lo largo de toda su existencia los relacionados con teorías físicas como la relatividad o la mecánica cuántica, así como con sus correspondientes aparatos matemáticos. Pero también lo relativo a las hipótesis cosmológicas y a los procesos termodinámicos irreversibles. Ello le hacía estar atento a todas las ocasiones que se presentaban para atender foros en los que se discutían estos temas, como las conmemoraciones en 2005, en la Residencia de Estudiantes del Consejo Superior de Investigaciones Científicas (CSIC) y en la Real Academia de Ciencias Exactas, Físicas y Naturales, del aniversario de la publicación del primer artículo de Einstein sobre Relatividad, o la ceremonia en que Ilia Prigogine fue nombrado Doctor Honoris Causa por la Universidad Nacional de Educación a Distancia el 15 de octubre de 1985. Creemos que ese deseo de conocimientos científicos tiene sus raíces en la etapa de estudiante en el Instituto Cervantes, en la Escuela Especial de Ingenieros de Caminos y en la fascinación ejercida por las lecciones de Zubiri, pues como el propio Calvo-Sotelo dice: «El estudiante de Matemáticas y de Física Teórica que fui quería buscar, más allá de las estructuras y de las ecuaciones, el sentido último de lo que estudiaba, precisamente porque la Física Matemática vivía por aquellos tiempos el apogeo de la revolución que habían hecho en ella hombres como Plank y Einstein». Por ello, comenzaremos con un análisis de las circunstancias personales en su etapa de formación en la Escuela de Caminos que, unida a sus declaraciones, permita comprender su entusiasmo y posterior dedicación al estudio de temas que sólo marginalmente habían formado parte de su carrera. A continuación, describiremos un somero panorama de la situación española e internacional de ambas ramas del conocimiento, para crear un fondo sobre el que situar las adquisiciones bibliográficas de nuestro protagonista en las diferentes etapas de su vida y, finalmente, intentaremos bosquejar unas conclusiones sobre la inquietud esencialmente intelectual que Leopoldo Calvo-Sotelo cultivó en estos campos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La construcción de una red amplia de infraestructuras para una región supone un indudable enriquecimiento. En España, para lograr este objetivo y debido a una orografía considerablemente montañosa, ha sido necesario potenciar la creación de túneles de carretera y ferrocarril aunque solo recientemente se ha comenzado a prestar atención a aspectos considerados secundarios como la seguridad, el mantenimiento o la explotación. En España, afortunadamente, la eterna lucha entre coste y seguridad va decantándose a favor de la segunda en gran parte debido a la presión de la opinión pública, no siempre objetiva ni razonable. El procedimiento habitual para la elección del sistema de ventilación pasa por la definición y posterior estudio de los distintos casos que pueden presentarse en el túnel. En este artículo se hacer referencia a los sistemas de ventilación principal, como son ventilación longitudinal natural, ventilación longitudinal natural con pozo, ventilación longitudinal con ventiladores en pozo, ventilación longitudinal con ventiladores de chorro , ventilación longitudinal en pozo y aceleradores, ventilación semi-transversal con inyección de aire fresco, ventilación transversal total, ventilación pseudo-transversal y sistemas mixtos. Existen otros conjuntos de ventilación a los que se presta a veces menos atención que a los anteriores aunque son fundamentales en el funcionamiento del túnel especialmente para los casos de incendio, como son refugios, nichos y locales técnicos. El ventilador es una turbomáquina que absorbe energía mecánica en el eje y la emplea en transportar gases a unas presiones suficientemente bajas para poder considerarlo incompresible. Los ventiladores se clasifican en función de la dirección del flujo en el rodete como axiales si el flujo sale en la dirección del eje de giro del rodete o centrífugo(de flujo radial) si el flujo sale en dirección normal a aquél. Dentro de los ventiladores axiales existen dos configuraciones diferentes empleadas habitualmente en túneles, los ventiladores axiales de gran potencia y los ventiladores de chorro. El sistema de ventilación depende en gran medida del seguimiento de los parámetros que intervienen en su control para poder intervenir de forma correctiva y preventiva para asegurar el cumplimiento de los niveles de calidad del aire exigidos. Para ello se emplea un numeroso tipo de equipos que permiten monitorizar el comportamiento del túnel. El artículo concluye haciendo referencia a equipamientos de seguridad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La creciente demanda de alimentos en las áreas urbanas, junto con los avances en los transportes y la aparición de nuevas fuentes de energía propiciaron a finales del siglo XIX la construcción de diversas industrias agroalimentarias en el medio rural español. Un ejemplo de este patrimonio agroindustrial son los antiguos mataderos municipales, edificados en un gran número de localidades de la geografía española con el objetivo de evitar sacrificios clandestinos de ganado y de mejorar las condiciones higiénicas de la carne. Las cada vez mayores exigencias técnicas y sanitarias para este tipo de construcciones a partir de la década de los 70 y la progresiva sustitución de las instalaciones municipales por mataderos privados más modernos y de mayor capacidad provocaron el cierre y posterior abandono de muchos de estos edificios en las décadas siguientes. En el presen te trabajo se muestran cuatro propuestas concretas para la reutilización de este tipo de construcciones. A partir de la información recopilada de varios proyectos fin de carrera desarrollados por alumnos de la Escuela Técnica Superior de Ingenieros Agrónom os de Madrid, se describen las actuaciones y trabajos de rehabilitación necesarios en cada caso y se ofrece un estudio comparativo de costes entre proyectos de reutilización y obra nueva

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se propone indagar en las vias por las que la arquitectura española cambió en el periodo comprendido entre 1920 y 1960 y el papel que los viajes tuvieron en dicho cambio. La investigación busca demostrar que, junto a otros factores como la llegada de revistas y libros y las conferencias de arquitectos de la talla de Le Corbusier, Gropius, Mendelsohn, Neutra o Aalto, los viajes tuvieron un papel clave en el proceso de apertura de miras y que provocó que, bien a traves de lo publicado en las revistas por los “arquitectos viajeros” o por el reflejo que tuvo lo conocido fuera de nuestras fronteras en proyectos y obras concretas, un buen numero de arquitectos, que no tuvieron la posibilidad de viajar, pudieron conocer que existía una realidad muy distinta a la que los profesores en la Escuela les habían enseñado o a la que estaban acostumbrados a ver en otros arquitectos de generaciones anteriores basada, en buena medida, en la recuperación de un estilo propio nacional centrandose en los historicismos. A lo largo de la investigación trataremos de ver que efecto produjo la apertura de fronteras y que papel tuvieron los viajes en dicho proceso. También nos centraremos en comprobar hasta qué punto cambió la manera de ver la arquitectura de los protagonistas del viaje y de aquellos que recibieron la información por ellos encontrada. Veremos cómo dicha información es cuantificable, clasificable y demostrable en propuestas concretas. Será importante ver que motivó su salida, que buscaban y que encontraron así como, entre las influencias recibidas, cuales tuvieron un mayor calado: las propuestas europeas o las americanas, y dentro de las primeras, las holandesas, las alemanas o las francesas. Los objetivos que se persigue conseguir son: contribuir a un mayor conocimiento de la arquitectura entre 1920 y 1960 a través de las conexiones internacionales y el ensanchamiento de horizontes, recopilar, clasificar y analizar todo el material obtenido relacionando los viajes con las biografías de los arquitectos protagonistas, estudiar qué interesa a los arquitectos españoles cuando van fuera y porqué (será importante ver quiénes de entre los arquitectos son más abiertos a las corrientes europeas y que motivó su salida en busca de nuevos lenguajes), ordenar las reflexiones que exponen los arquitectos a la vuelta de sus viajes y ver en que propuestas y de qué forma los arquitectos plasman lo encontrado en su búsqueda en el extranjero. Para conseguir estos objetivos estructuraremos la investigación en tres bloques: En el primero de ellos nos centraremos en profundizar como era la arquitectura española a principios del siglo XX. Para poder entender mejor las transformaciones que los viajes provocaron será necesario conocer cuál era la arquitectura predominante en estos años que, como veremos, consistía en la búsqueda de un estilo nacional propio dirigiendo su mirada al pasado. También veremos cómo un grupo de arquitectos (Palacios, Flórez, Torres Balbás o Anasagasti) fueron pioneros en el deseo de mirar fuera de nuestras fronteras así como dedicaremos especial atención a cómo era la formación en la Escuela. El segundo capítulo, que abarca desde principios de los años 20 hasta la Guerra Civil, tratará de demostrar la importancia que tuvo en el proceso de permeabilidad frente a las corrientes extranjeras los viajes que los arquitectos realizaron y que, sumados a la llegada de revistas y las visitas de los principales arquitectos modernos, provocaron una primera apertura como respuesta a los historicismos predominantes. Entre los arquitectos viajeros destacaremos las figuras de Fernando García Mercadal (incidiendo en su importancia como difusor de la arquitectura moderna), Rafael Bergamín, Ramón Sánchez Arcas y Luis Lacasa. También nos detendremos en ver la importancia que tuvieron las exposiciones (con especial atención a la de Artes Decorativas de París de 1925 y la de la Deutscher Werkbund en Stuttgart en 1927) que se realizaron estos años y como llegó la información a nuestro país. El tercer y último capítulo arranca con el periodo de posguerra, una época de transición pues los viajes que se realizaron fueron escasos y en la mayoría de las ocasiones no se llevaron a cabo en busca de nuevos caminos. Veremos cómo tras la Guerra y de la mano de la dictadura se produce, de la misma forma que en la Alemania nazi, una vuelta al interés por los historicismos de principios de siglo. Para entender mejor este periodo haremos un repaso a la obra de Luis Gutiérrez Soto por ser explicativa de lo cambiante de las corrientes arquitectónicas de estos años. Tras el análisis de los sucedido en posguerra nos dedicaremos a analizar, de la misma forma que en el primer periodo, la manera en que se produjo el rechazo al estilo nacional de nuevo gracias a la llegada de libros y revistas, lo publicado por las revistas españolas, las visitas de arquitectos de prestigio así como los viajes de un grupo de arquitectos que, de manera individual, salieron al extranjero en busca de apoyo, de referencias en los que cimentar su arquitectura. De este grupo, por la importancia que los propios protagonistas dieron al hecho de viajar como complemento a su formación y por la manera en la que reflejaron lo aprendido en proyectos concretos destacamos a Francisco de Asís Cabrero, Miguel Fisac, Ramón Vázquez Molezún y Francisco Javier Sáenz de Oiza. De nuevo, igual que en el primer capítulo finalizaremos la investigación dedicando un apartado a las exposiciones (fundamentalmente la Interbau de Berlín de 1957) celebradas en estos años. Para finalizar estableceremos las conclusiones que nos llevarán a comprobar hasta qué punto la arquitectura española en los periodos previo y posterior a la guerra cambió y en qué medida tuvieron importancia los viajes que los arquitectos españoles realizaron al extranjero en dicho cambio… ABSTRACT This thesis aims to look at the ways which Spanish architecture changed in the period between 1920 and 1960, and the way it was effected by travelling . The research will demonstrate that, together with other factors, such as the arrival of magazines, books, conferences and architects like Le Corbusier, Gropius, Mendelsohn, Neutra or Aalto, travelling played a key role in architecture. Also, it changed the way we look at architecture. Travelling, thanks to the published journals by "travelling architects” and the influence that they had - known beyond our borders in projects and concrete works, caused the arrival of a new type of architects. Even those who were not able to travel, knew that there was a very different reality than the reality the teachers at the school had taught them. Also, the “new reality” was different from the one that they were used to seeing in other architects of earlier generations, based mainly on the recovery of a national style focused on historicism. Throughout the investigation I will try to show the effect that the opening of borders and travelling had on this process. We will also focus on checking how it changed the way we see the architecture, from the point of view of the protagonists of the travels and those who received the information . We will see how that information is quantifiable and demonstrably classifiable into concrete proposals. It will be important to see which led to their departure. They sought and found among the influences, which had a major impact: the proposed European or American, and within the first, Dutch, German or French. The objectives to be achieved are: To contribute to a better understanding of architecture between 1920 to 1960 by the international connections, and widening the horizon. To collect, classify and analyze all obtained materials related to travelling with biographies of architects protagonists. To study what the interests of the Spanish architects were when they went abroad and why ( it will be important to see who among those architects were more open to European trends and prompted their departures for new languages). To order reflections exhibited by architects around his travels and to see what proposals and how architects reflected what they found in their search abroad. To achieve these objectives we will structure this research in three areas: In the first one, we will focus on how the Spanish architecture in the early twentieth century was. To better understand the changes that travelling caused it is necessary to understand that the predominant architecture in these years was in pursuit of its own national style, directing its gaze to the past, like we shall see. We will also see how a group of architects (Palacios, Flórez, Torres Balbás or Anasagasti) pioneered by looking beyond our borders and devote special attention to how the training was in the School. The second chapter, ranging from early 20s to the Civil War, will try to demonstrate the importance that travelling had in the process of diffusion currents. That, together with the arrival of magazines and visits by leading modern architects, led to a first opening in architecture, in response to the prevailing historicism. Among the travelers we highlight architects like Fernando García Mercadal (stressing his importance as a disseminator of modern architecture), Rafael Bergamín, Ramón Sánchez Arcas and Luis Lacasa. We will also stop to see the importance of exhibitions (with special attention to the Decorative Arts in Paris in 1925 and the Deutscher Werkbund in Stuttgart in 1927) that were held over the years and how the information came to our country . The third and final chapter starts with the post war period, a time of transition for the travels, which were scarce and in most cases were not conducted on new roads. We will see that after the war and with the dictatorship, a return to interest in historicism of the century occurred, just as in Nazi Germany. For better understanding of this period we will review the work of Luis Gutiérrez Soto. His work is explanatory of the changing of architectural trends over these years. After analyzing the case in post war, we turn to analyze, in the same way as in the first period, the manner in which rejection occurred in national style again with the arrival of books and magazines. Visits by prestigious architects and group travels of architects who, individually, went abroad in search of support, references on which to base their architecture. In this group of architects, due to the importance that the protagonists gave to the act of traveling to improve their training and the way in which they reflected what they learned in practical projects, I include Francisco de Asís Cabrero, Miguel Fisac, Ramon Vazquez Molezún and Francisco Javier Saenz de Oiza. Again, as in the first chapter, we will conclude the investigation dedicating a section to the exhibitions held in these years (mainly Interbau Berlin, 1957). Finally establishing conclusions lead us to see how far the Spanish architecture in the pre- and post -war periods changed and how much the trips were important to Spanish architects who performed abroad on the change...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El continuo crecimiento de la demanda del transporte aéreo, junto con los nuevos escenarios de intervención militar, están obligando a una optimización en el uso del espacio aéreo. De este modo, la UE y los EEUU (a través de SESAR y NextGen respectivamente) han asentado las bases para una nueva gestión del tráfico aéreo (ATM). Con ello, se pretende aumentar la capacidad de aeropuertos y rutas aéreas, otorgando mayor flexibilidad al uso del espacio aéreo sin comprometer la seguridad de los usuarios. Desde un punto de vista puramente técnico, la clave de este cambio de modelo está en el conocimiento de la posición de cada aeronave en cada instante. En este sentido, la tendencia en ATM es el uso de ADS-B como fuente principal de posicionamiento. Sin embargo, debido a que este sistema está basado en la difusión de la posición obtenida a través de GPS, es necesario un sistema de seguimiento independiente. Actualmente, la intención es migrar del radar secundario de vigilancia (SSR) a la multilateración de área extensa (WAM), con el fin de mejorar la integridad de la posición para aplicaciones en ruta. Aprovechando el rápido despliegue de ADS-B, se pretende reutilizar sus estaciones base para WAM. Cada estación base que recibe el mensaje ADS-B de la aeronave envía conjuntamente la medida del tiempo de llegada (TOA) de dicho mensaje al centro de tráfico aéreo. La posición de la aeronave se obtiene mediante multilateración, cuya técnica consiste en utilizar las medidas de TOA de un mismo mensaje ADS-B obtenidas en las distintas estaciones base. El objetivo es estimar la posición de cada aeronave con la mayor precisión posible. Para poder diseñar el sistema que permite alcanzar este objetivo, son dos los aspectos básicos a estudiar. Por una parte, la identificación y posterior caracterización de los errores (tanto sistemáticos como aleatorios) que afectan a la medida de TOA. Por otra parte, es necesario el estudio de los sistemas de seguimiento, basados en versiones sofisticadas del filtro de Kalman (IMM, UKF). Una vez establecidos estos dos pilares, la presente tesis doctoral propone un sistema que permite efectuar el seguimiento de las aeronaves, corrigiendo los efectos de las principales distorsiones que afectan a la medida de TOA: la refracción troposférica y el error de sincronismo. La mejora en la precisión de la localización ha sido evaluada mediante simulación de escenarios hipotéticos. ABSTRACT The ever-growing demand in the air transportation and the new military intervention scenarios, are generating a need to optimize the use of the airspace. This way, the EU and the USA (through SESAR and NextGen respectively) have set the ground to overhaul the current air traffic management. The intention is to enhance the capacity of airports and air routes, providing greater flexibility in the use of airspace without jeopardizing the security of the end-users. From a technical perspective, the key for this change lies in the knowledge of the aircraft position. The trend in Air Traffic Management (ATM) is to rely on ADS-B as the main source for aircraft positioning. However, this system is based on the aircraft’s self-declaration of its own (often GPS-based) navigation solution. It is therefore necessary to have an independent surveillance system. Nowadays, the intention is to gradually migrate from Secondary Surveillance Radar (SSR) towards Wide Area Multilateration (WAM) in order to enhance surveillance integrity for en-route applications. Given the fast deployment of ADS-B, the aim is to use its base stations for WAM. Each station sends the Time of Arrival (TOA) of the received ADS-B messages to the air traffic center (ATC). The aircraft position is obtained through multilateration, using the TOA of the same message measured by each station. The aim is to accurately estimate the position of each aircraft. Knowledge from two key areas has to be gathered prior to designing such a system. It is necessary to identify and then characterize the errors (both systematic and random) affecting the TOA measurements. The second element is the study of tracking systems based on sophisticated versions of the Kalman filtering (e.g. IMM, UKF). Based on this knowledge, the main contribution of this Ph.D. is an aircraft tracking system that corrects the effects of the main errors involved in the TOA measurement: tropospheric refraction and synchronization issues. Performance gains in positioning accuracy have been assessed by simulating hypothetical WAM scenarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El tratamiento de datos masivos es una tendencia cada día más extendida. Una parte fundamental del proceso de análisis de estos datos es su modelado y posterior visualización. El objetivo de este trabajo de fin de Grado, es trabajar con las últimas tecnologías en estos dos campos y lograr tratar una cantidad masiva de datos, que permita analizar la información de una forma interactiva, sencilla e intuitiva. Para el modelado de datos se usará Neo4j, una herramienta de código libre que permite montar una base de datos basada en grafos. Finalmente, la información resultante se visualizará mediante la librería D3 de Javascript, ofertando una visión clara de los datos existente y permitiendo interactuar con ellos para obtener la información que se requiera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El empleo de preparados comerciales de levaduras secas inactivas (LSI) se ha generalizado en la industria enológica con el fin de mejorar los procesos tecnológicos, así como las características sensoriales y la eliminación de compuestos indeseables en los vinos. Estos preparados se obtienen por crecimiento de la levadura vínica Saccharomyces cerevisiae en un medio rico en azúcares, y posterior inactivación y secado para obtener un producto en forma de polvo. Su composición puede incluir una fracción soluble procedente del citoplasma de la levadura (péptidos, aminoácidos, proteínas) y una fracción insoluble compuesta principalmente por las paredes celulares. Dependiendo de su composición, los preparados de LSI están indicados para distintas aplicaciones (activadores de la fermentación alcohólica y maloláctica, mejorar el color y el aroma de los vinos, etc). Sin embargo, a pesar de que el empleo de preparados de LSI está cada vez más extendido en la industria enológica, existen pocos estudios científicos encaminados a conocer sus efectos en el vino así como a discernir su modo de acción. Por ello, se ha planteado esta Tesis Doctoral con el principal objetivo de caracterizar la composición química de algunos de los preparados comerciales de LSI que actualmente más se están empleando en la elaboración de los vinos, así como determinar su modo de acción y su efecto tanto en la composición como en las características organolépticas de los vinos. Para la caracterización de preparados de LSI, en primer lugar se ha estudiado la cesión de compuestos nitrogenados y polisacáridos a medios vínicos, así como las diferencias entre preparados procedentes de diferentes casas comerciales e indicados para diferentes aplicaciones durante la vinificación. Los resultados de este estudio mostraron diferencias en la cesión de estos compuestos dependiendo del tipo de vino al que van dirigidos y de la casa comercial de la procedencia. Así, los preparados indicados para la elaboración de vinos tintos liberan una mayor concentración de polisacáridos, que están asociados a una modulación de la astringencia y de la protección del color de los vinos tintos, comparado con los indicados para vinos blancos. Sin embargo en estos últimos se determinó una mayor cesión de aminoácidos libres. Posteriormente, se estudió el efecto de componentes específicos presentes en preparados de LSI en el crecimiento de distintas especies de bacterias lácticas del vino. Se obtuvieron extractos de diferente composición empleando la extracción con fluidos presurizados, y se ensayó su actividad en el crecimiento de cepas bacterianas pertenecientes a las especies Lactobacillus hilgardii, Pediococcus pentosaceus y Oenococcus oeni. Los resultados de este trabajo mostraron que los distintos componentes presentes en los preparados de LSI pueden ejercer un efecto estimulante o inhibidor en el crecimiento de las bacterias lácticas, que depende del tipo de compuesto, de su concentración y de la especie bacteriana a ensayar. Entre los compuestos responsables del efecto estimulante se encuentran tanto aminoácidos esenciales como monosacáridos libres, mientras que los ácidos grasos de cadena corta y larga así como compuestos heterocíclicos volátiles originados por la reacción de Maillard parecen estar directamente implicados en el efecto inhibidor observado. En la tercera parte de este trabajo, se ha evaluado el papel de los preparados comerciales de LSI en el aroma y en las características organolépticas de los vinos. Para ello, empleando vinos sintéticos, se estudiaron por un lado, el efecto que los componentes cedidos por los preparados de LSI podrían tener en la volatilidad de compuestos del aroma ya presentes en el vino, y por otro lado, en la posible cesión al vino de compuestos odorantes presentes en los preparados y originados durante su fabricación. Los resultados de estos estudios pusieron de manifiesto que los preparados de LSI pueden modificar la volatilidad de compuestos del aroma del vino, dependiendo principalmente de las características físico-químicas del compuesto del aroma, del tiempo de permanencia del preparado en el vino y del tipo de preparado de LSI. Por otro lado, gracias al empleo de diferentes técnicas de extracción combinadas, la extracción con fluidos presurizados (PLE) y microextracción en fase sólida en el espacio de cabeza (HS-SPME) y posterior análisis por GO-MS, se caracterizó el perfil volátil de un preparado de LSI representativo del resto de los estudiados y se comprobó que estaba formado tanto por componentes procedentes de la levadura, como ácidos grasos de cadena corta y larga, así como por compuestos volátiles originados durante las etapas de fabricación de los preparados y resultantes de la reacción de Maillard. Se determinó a su vez, que algunos de estos compuestos volátiles, pueden ser cedidos tanto a medios vínicos, como a vinos reales. Concretamente, se comprobó que los preparados indicados para vinificación en blanco liberan una menor concentración de compuestos volátiles, y especialmente, de productos de la reacción de Maillard, que los indicados para vinificación en tinto. Estos compuestos, y principalmente los pertenecientes al grupo de las pirazinas, podrían modificar el perfil sensorial de los vinos, ya que son compuestos con, en general, bajos umbrales de percepción. Para intentar eliminar estos compuestos de los preparados, es decir, para su desodorización, en esta parte del trabajo, también se desarrolló una metodología basada en la extracción con CO2 supercrítico, que permitió la eliminación selectiva de este tipo de compuestos sin provocar modificaciones en su composición no volátil. Debido a la cantidad de preparados de LSI ricos en glutatión (GSH) disponibles en el mercado para mejorar las características sensoriales de los vinos, se estudió la cesión de este compuesto a medios vínicos. Para ello, se puso a punto una metodología que permitiera la cuantificación del GSH en sus diferentes formas (reducido y total), en vinos sintéticos y reales. El método se aplicó para cuantificar la cantidad de GSH aportada por los LSI a los vinos. Los resultados mostraron que los preparados de LSI indicados para vinificación en blanco y rosado liberaron, inmediatamente tras su adición a medios vínicos sintéticos, ♯y-glutamil-cisteína y GSH principalmente en su forma reducida a mayores concentraciones que los preparados indicados para otras aplicaciones. Por otro lado, se aislaron las fracciones de peso molecular <3000 Da de preparados de LSI y se emplearon para suplementar vinos sintéticos aromatizados con terpenos y sometidos a condiciones de envejecimiento acelerado. Los resultados revelaron una reducción en la oxidación por parte de las fracciones aisladas tanto de preparados de LSI ricos en glutatión como de preparados empleados como nutrientes de fermentación. Esta reducción era incluso mayor que cuando se empleaba el glutatión comercial, lo que indicaba la presencia de otros compuestos con propiedades antioxidantes. Finalmente, para conocer el efecto de los preparados de LSI a escala de bodega, se elaboraron a escala industrial dos tipos de vinos, con y sin la adición de un preparado de LSI rico en GSH, a escala industrial. En estos vinos, se determino el contenido en glutatión, y la evolución del color y de la composición fenólica y volátil durante la vinificación y a lo largo del envejecimiento en botella. Los resultados de este trabajo mostraron la capacidad del preparado de LSI de ceder glutatión en su forma reducida, aunque esté es rápidamente oxidado durante la fermentación alcohólica. Sin embargo, se comprobó que los vinos elaborados con el preparado presentaron mayor estabilidad de color y aroma a lo largo del envejecimiento en botella. De hecho, a los 9 meses de envejecimiento, se encontraron diferencias sensoriales entre los vinos con y sin el preparado. Sin embargo, estas diferencias sensoriales no fueron suficientes para que en el estudio de preferencia que se llevó a cabo con los mismos vinos, los consumidores mostraran preferencia hacia los vinos elaborados con el preparado de LSI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo de investigación se ha centrado en la escalera de caracol con ojo también denominado caracol de mallorca, en sus primeras apariciones a finales del s.XV y comienzos del s.XVI durante el llamado periodo tardogótico. Este elemento aparentemente sencillo presenta, sin embargo, una gran diversidad de esquemas geométricos. Todavía a día de hoy, no hay explicación del por qué de la mayor difusión de unos con respecto a otros. El objetivo de este trabajo ha sido valorar el papel que el confort/seguridad de uso así como la economía en el trabajo –sencillez de ejecución y coste económico– tuvieron en el contexto de la difusión de este elemento arquitectónico. Este estudio ha analizado en base a estos criterios objetivos, la geometría de cada uno de los esquemas tipo que resuelven la formación del hueco central característico este tipo de escaleras, con la intención de determinar las causas objetivas que pudieron motivar la desigual expansión de los mismos. Una vez determinado el marco teórico, se han establecido dos líneas para abordar el problema. Por un lado se ha planteado el análisis de los modelos teóricos recogidos en los distintos textos de cantería escritos por autores españoles desde finales del s.XVI. Si bien en la época en que se escribieron, la arquitectura gótica como sistema había desaparecido, alguno de sus elementos más característicos, como la escalera de caracol, continuaban empleándose. Las trazas del caracol con ojo recogidas en estos textos, describen habitualmente las soluciones geométricas más frecuentes e incluso los ejemplos construidos más conocidos, los cuales fueron levantados en su mayoría en el período en el cual se desarrolla esta investigación. Por otro lado, este estudio se plantea el análisis de modelos construidos existentes en la Ciudad y Tierra de Segovia. La razón que justifica dichos límites geográficos, la encontramos en que la mayor parte del patrimonio gótico existente en este área fue construido entre finales del s.XV y comienzos del s. XVI. Ambos grupos, modelos teóricos y modelos construidos, recogen la herencia gótica heredada en la construcción de este elemento arquitectónico. Cada una de estas dos líneas establecidas han seguido una metodología específica adaptada al objeto de análisis, si bien ambas se basan en un primer análisis individual y posterior análisis comparativo de los modelos seleccionados. Estos análisis han permitido identificar los distintos esquemas empleados para resolver el hueco central, lo que ha posibilitado establecer una clasificación general de los mismos en tres grupos: caracol con ojo de solución radial, el caracol con ojo de solución no radial y el caracol con ojo de solución tangencial. A partir de los datos y resultados obtenidos del análisis comparativo de los parámetros geométricos que afectan al confort/seguridad de uso y economía en el trabajo de dichos esquemas, podemos concluir que a pesar que los tres esquemas identificados resuelven el caracol con ojo de forma muy similar, el predominio de la solución radial y la caída en el olvido de las soluciones tangencial y no radial estuvieron justificados. ABSTRACT This work focused on the helical staircase, also known as mallorca staircase, in the late 15th and the early 16th centuries. This seemingly simple element, presents however a wide variety of geometrical designs. Still to date, there is no explanation of why some of them were limited use, while others had a wide impact. The aim of this study was to assess the influence which comfort, safety and work economy –ease of construction and financial cost– had on their widespread. This study analysed, following these objective criteria, the geometry of the different designs, which solve the characteristic inner aperture of this type of staircase. And thus, find the reasons, which motivated their uneven spread. Once the theoretical framework was developed, two research lines were set up to address the problem. On one hand, this study analysed the theoretical helical staircases described in the early Spanish texts, which were written since the end of the 16th century. Although these texts were written after the Gothic Architecture system had already disappeared, some of its more representative elements like the helical staircase were still in use. The traces of the helical stair, which are included in these texts, describe the most frequently-used designs and even the most famous real examples which were usually constructed in the Late Gothic period. On the other hand, this study analysed some real helical staircases, which were constructed in the Ciudad y Tierra de Segovia. The reason for choosing these geographical limits is that most of the Gothic buildings of this area were constructed between the end of the 15th and the early 16th centuries, during the Late Gothic period. Both groups, theoretical and constructed samples, collect the Gothic construction tradition of the helical stair. Each of these research lines followed a specific methodology, which was adapted to the research object. Nevertheless, both are based on a first individual analysis of each selected example and a later on comparative one. These analysis allowed the identification of the different layouts which solve the inner aperture of the helical staircase, what made possible to set up a broad classification in three groups, according to the geometrical design strategy that solves the central aperture: the helical staircase by radial solution, the helical staircase by non-radial solution and the helical staircase by tangent solution. The research findings of the comparative analysis of their geometrical parameters, which have an impact in the comfort, safety and work economy, have shown that although all of them solve the helical staircase in a really similar way, the fade into oblivion of the non-radial and tangent approaches was objectively motivated.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el complejo de plagas que atacan a los principales cultivos hortícolas protegidos, destacan principalmente los Hemípteros, y dentro de estos los pulgones, dada su importancia como vectores de virus que provocan considerables daños y pérdidas económicas. Debido a que la dispersión de la mayoría de los virus de plantas puede ser eficaz con densidades bajas de vectores y su control es muy complicado al no existir métodos curativos para su control, es necesario generar nuevos conocimientos sobre las interacciones virus-vector con el fin de desarrollar nuevas y eficaces estrategias de control. Por ello, el objetivo general de esta Tesis ha sido conocer el efecto de la infección viral (directo-mediado por la presencia del virus en el vector- e indirecto-mediado por las alteraciones físico-químicas que se originan en la planta como consecuencia de la infección viral-) sobre el comportamiento y eficacia biológica del vector Aphis gossypii Glover y sus posibles repercusiones en la epidemiología de virosis de transmisión no persistente (Cucumber mosaic virus, CMV, Cucumovirus) y persistente (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). El primer objetivo de esta Tesis Doctoral, se centró en el estudio del efecto indirecto del virus de transmisión no persistente CMV sobre el comportamiento alimenticio y la preferencia del pulgón A. gossypii en el cultivo de pepino. Los ensayos de despegue y aterrizaje mostraron que los pulgones que fueron liberados en las plantas de pepino infectadas con CMV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (60, 120 y 180 minutos después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CMV). El estudio de preferencia y asentamiento mostró que el vector A. gossypii prefiere asentarse en plantas infectadas con CMV en una etapa temprana de evaluación (30 minutos después de la liberación). Sin embargo, este comportamiento se revirtió en una etapa posterior (4 y 48 horas después de la liberación), donde los pulgones se asentaron más en las plantas no infectadas. A través de la técnica de Gráficos de Penetración Eléctrica (EPG) se observó un efecto indirecto del virus CMV, revelado por un cambio brusco en el comportamiento de prueba del pulgón a lo largo del tiempo, cuando éstos fueron expuestos a las plantas infectadas con CMV. Los primeros 15 minutos de registro EPG mostraron que los pulgones hicieron un número mayor de punciones intracelulares (potencial drops - pds) y pruebas en las plantas infectadas con CMV que en las plantas no infectadas. Por otra parte, la duración de la primera prueba fue más corta y la duración total de las pds por insecto fue mucho más larga en las plantas infectadas con CMV. Se observaron diferencias significativas en el tiempo transcurrido desde el final de la última pd hasta el final de la prueba, siendo ese tiempo más corto para los pulgones que estaban alimentándose en plantas infectadas con CMV. En la segunda hora de registro los pulgones rechazaron las plantas infectadas con CMV como fuente de alimento, permaneciendo menos tiempo en las fases de prueba en floema (fase de salivación – E1 y fase de ingestión del floema – E2). El comportamiento alimenticio observado sobre las plantas infectadas con CMV favorece la adquisición y posterior transmisión de los virus de transmisión no persistente, los cuales son adquiridos e inoculados durante la realización de pruebas intracelulares en las primeras pruebas de corta duración. En el segundo objetivo de la Tesis se evaluó el efecto directo e indirecto del virus de transmisión persistente CABYV en el comportamiento alimenticio y preferencia del pulgón A. gossypii en cultivo de pepino, especie susceptible al virus, y algodón, especie inmune al virus. No se observó un efecto directo del virus relevante en el comportamiento alimenticio del vector, ya que los resultados obtenidos a nivel floemático en plantas de pepino no se observaron en plantas de algodón, inmune al virus CABYV. Esto sugiere que los resultados obtenidos en pepino, pueden deberse a un “posible efecto indirecto” originado por la infección de las plantas susceptibles al virus durante la realización del ensayo, lo que indirectamente puede modificar el comportamiento del pulgón durante la fase de evaluación. Sin embargo, el virus CABYV modificó indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada. Los pulgones tardaron menos tiempo en llegar al floema, realizaron un mayor número de pruebas floemáticas y permanecieron durante más tiempo en actividades floemáticas en plantas infectadas con CABYV. El comportamiento observado sobre las plantas infectadas con CABYV favorece la adquisición de virus persistentes, los cuales son adquiridos durante la alimentación sostenida en floema. El estudio de preferencia y asentamiento de A. gossypii mostró que los pulgones virulíferos prefieren asentarse en plantas no infectadas a corto y largo plazo de evaluación (2, 4 y 48 horas después de la liberación). Los ensayos de despegue y aterrizaje mostraron que los pulgones virulíferos que fueron liberados en las plantas de pepino infectadas con CABYV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (3, 6, 24 y 48 horas después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CABYV). Sin embargo, los pulgones no virulíferos no mostraron preferencia por plantas de pepino no infectadas o infectadas con CABYV en ninguno de los ensayos (preferencia o despegue) o periodos evaluados (corto y largo plazo). Los resultados indican que el virus CABYV es capaz de modificar indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada, favoreciendo su adquisición por su principal vector, A. gossypii. Una vez que los pulgones tienen capacidad de transmitir el virus (virulíferos) se produce un cambio en su comportamiento prefiriendo asentarse sobre plantas no infectadas optimizándose así la dispersión viral. El tercer objetivo de la Tesis, fue evaluar los efectos directos e indirectos del virus CABYV así como los efectos indirectos del virus CMV en la eficacia biológica del vector A. gossypii. Los resultados obtenidos en los ensayos realizados con el virus persistente CABYV indican que el virus parece no modificar directamente ni indirectamente la eficacia biológica del vector en plantas de pepino o algodón, no observándose diferencias estadísticas en ninguno de los parámetros poblacionales evaluados (tiempo de desarrollo, tasa intrínseca de crecimiento, tiempo generacional medio, tasa media de crecimiento relativo y ninfas totales). En cuanto a los ensayos realizados con el virus no persistente, CMV, los resultados muestran un efecto indirecto del virus sobre la biología del vector. Así resultó que tanto la tasa intrínseca de crecimiento natural (rm) como la tasa media de crecimiento relativo (RGR) fueron más altas para pulgones crecidos sobre plantas infectadas con CMV que sobre plantas no infectadas, favoreciendo la reproducción y crecimiento poblacional del vector sobre plantas infectadas con CMV. Los resultados obtenidos en la presente Tesis, ofrecen un ejemplo de como los virus de plantas pueden manipular directa e indirectamente a su vector, maximizando así su dispersión entre las plantas. Esos nuevos conocimientos generados tienen implicaciones importantes en la transmisión, dispersión y en la epidemiología de los virus y deben ser considerados para diseñar o ajustar los modelos de simulación existentes y patrones de dispersión que describen las epidemias de estos virus. ABSTRACT The main objective of this Thesis has been to understand the effect of the viral infection (direct-mediated by the presence of the virus in the vector and indirect mediated by the chemical and physical changes originated in the plant as a consequence of the viral infection) on the behaviour and biological efficacy of the vector Aphis gossypii Glover and its consequences in the epidemiology of two viral diseases, one with non-persistent transmission (Cucumber mosaic virus, CMV, Cucumovirus) and another with persistent transmission (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). The first objective of this Thesis was the study of the indirect effect of the nonpersistent virus CMV on the feeding behaviour and preference of the aphid A. gossypii in cucumber plants. The results of the alighting and settling behaviour studies showed that aphids exhibited no preference to migrate from CMV-infected to mock-inoculated plants at short time intervals (1, 10 and 30 min after release), but showed a clear shift in preference to migrate from CMV-infected to mock-inoculated plants 60 min after release. Our free-choice preference assays showed that A. gossypii alates preferred CMV-infected over mockinoculated plants at an early stage (30 min), but this behaviour was reverted at a later stage and aphids preferred to settle and reproduce on mock-inoculated plants. The electrical penetration graph (EPG) technique revealed a sharp change in aphid probing behaviour over time when exposed to CMV-infected plants. At the beginning (first 15 min) aphid vectors dramatically increased the number of short superficial probes and intracellular punctures when exposed to CMV-infected plants. At a later stage (second hour of recording) aphids diminished their feeding on CMV-infected plants as indicated by much less time spent in phloem salivation and ingestion (E1 and E2). This particular probing behaviour including an early increase in the number of short superficial probes and intracellular punctures followed by a phloem feeding deterrence is known to enhance the transmission efficiency of viruses transmitted in a NP manner. We conclude that CMV induces specific changes in a plant host that modify the alighting, settling and probing behaviour of its main vector A. gossypii, leading to optimum transmission and spread of the virus. The second objective of this work was to evaluate the effects that the persistently aphid transmitted Cucurbit aphid-borne yellows virus (CABYV) can induce directly and indirectly on the alighting, settling and probing behaviour activities of the cotton aphid A. gossypii. Only minor direct changes on aphid feeding behaviour was observed due to CABYV when viruliferous aphids fed on mock-inoculated plants. However, the feeding behaviour of non-viruliferous aphids was very different on CABYV-infected than on mockinoculated plants. Non-viruliferous aphids spent longer time feeding from the phloem when plants were infected by CABYV than on mock-inoculated plants, suggesting that CABYV indirectly manipulates aphid feeding behaviour through its shared host plant in order to favour viral acquisition. The vector alighting and settling preference was compared between nonviruliferous and viruliferous aphids. Viruliferous aphids showed a clear preference for mockinoculated over CABYV-infected plants at short and long time, while such behaviour was not observed for non-viruliferous aphids. Overall, our results indicate that CABYV induces changes in its host plant that modifies aphid feeding behaviour in a way that virus acquisition from infected plants is enhanced. Once the aphids become viruliferous they prefer to settle on healthy plants, leading to optimize the transmission and spread of the virus. The third objective was to evaluate the direct and indirect effects of CABYV and indirect effects of the CMV on the A. gossypii fitness. Obtained results for the persistent virus CABYV showed that the virus did not modify the vector fitness in cucumber or cotton plants. None of the evaluated variables was statistically significant (development time (d), intrinsic growth rate (rm), mean relative growth rate (RGR) and total number of nymphs). On the other hand, data obtained for the non-persistent virus (CMV) showed an indirect effect of the virus on the vector fitness. Thus, the rm and RGR were higher for aphids grown on CMV-infected plants compared to aphids grown on mock-inoculated plants. Overall, the obtained results are clear examples of how plant viruses could manipulate directly and indirectly vector behaviour to optimize its own dispersion. These results are important for a better understanding of transmission, dispersion and epidemiology of plant viruses transmitted by vectors. This information could be also considered to design or adjust simulation models and dispersion patterns that describe plant virus epidemics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El control seguro y efectivo de las malas hierbas según los principios establecidos por la Agricultura de Precisión requiere una tecnología específica, avanzada y de coste asumible dentro de los márgenes de beneficio. El uso de plataformas móviles autónomas tanto terrestres como aéreas equipadas con sistemas de percepción innovadores, sistemas inteligentes de toma de decisión y herramientas que permitan la aplicación precisa de los tratamientos herbicidas, reduce el coste asociado a la operación así como los potenciales daños ambientales y el riesgo para los agricultores. Varios son los grupos internacionales de investigación dedicados al desarrollo de tecnologías basadas en sistemas robóticos capaces de optimizar las operaciones complejas implicadas en este tipo de tratamientos de precisión. El desarrollo de sistemas autónomos de ayuda al tratamiento preciso, tanto de cultivos extensivos (malas hierbas) como de leñosos, es el objetivo principal del proyecto RHEA (Robot Fleets for Highly Effective Agriculture and Forestry Management), financiado por el 7º Programa Marco de la CE y dirigido a minimizar los insumos (agroquímicos, combustible, etc.) a la vez que garantizar la calidad y seguridad del producto así como cubrir totalmente el campo independientemente del tamaño que éste tenga. RHEA propone utilizar una flota de robots pequeños/medianos tanto aéreos como terrestres para la inspección/monitorización y posterior aplicación de fitosanitarios, lo que presenta múltiples ventajas frente al tratamiento basado en la habitual máquina de mayores dimensiones y más tradicional. Entre otras, una flota de robots de tamaño pequeño/mediano reduce el impacto sobre la compactación del suelo e interactúa de un modo más seguro con los operarios, ya que la detección e interacción se puede distribuir en varios sistemas de detección y gestión de fallos como los propuestos en la presente tesis. El trabajo de investigación presentado en esta tesis se ha desarrollado dentro de este proyecto europeo y está relacionado con el diseño, desarrollo y evaluación del nivel más alto de la arquitectura RHEA, en otras palabras, con los tres aspectos fundamentales para conseguir que los robots de la flota ejecuten el trabajo eficientemente y sin intervención humana, es decir, con la planificación, la supervisión y la gestión completa e integrada de las tareas de inspección y tratamiento...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hoy día vivimos en la sociedad de la tecnología, en la que la mayoría de las cosas cuentan con uno o varios procesadores y es necesario realizar cómputos para hacer más agradable la vida del ser humano. Esta necesidad nos ha brindado la posibilidad de asistir en la historia a un acontecimiento sin precedentes, en el que la cantidad de transistores era duplicada cada dos años, y con ello, mejorada la velocidad de cómputo (Moore, 1965). Tal acontecimiento nos ha llevado a la situación actual, en la que encontramos placas con la capacidad de los computadores de hace años, consumiendo muchísima menos energía y ocupando muchísimo menos espacio, aunque tales prestaciones quedan un poco escasas para lo que se requiere hoy día. De ahí surge la idea de comunicar placas que se complementan en aspectos en las que ambas se ven limitadas. En nuestro proyecto desarrollaremos una interfaz s oftware/hardware para facilitar la comunicación entre dos placas con distintas prestaciones, a saber, una Raspberry Pi modelo A 2012 y una FPGA Spartan XSA3S1000 con placa extendida XStend Board V3.0. Dicha comunicación se basará en el envío y recepción de bits en serie, y será la Raspberry Pi quien marque las fases de la comunicación. El proyecto se divide en dos partes: La primera parte consiste en el desarrollo de un módulo para el kernel de Linux, que se encarga de gestionar las entradas y salidas de datos de la Raspberry Pi cuando se realizan las pertinentes llamadas de write o read. Mediante el control de los GPIO y la gestión de las distintas señales, se realiza la primera fase de la comunicación. La segunda parte consiste en el desarrollo de un diseño en VHDL para la FPGA, mediante el cual se pueda gestionar la recepción, cómputo y posterior envío de bits, de forma que la Raspberry Pi pueda disponer de los datos una vez hayan sido calculados. Ambas partes han sido desarrolladas bajo licencias libres (GPL) para que estén disponibles a cualquier persona interesada en el desarrollo y que deseen su reutilización.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudiamos las evidencias de la ocupación tardoantigua y altomedieval en el entorno de la ciudad de Eio-Iyyu (El Tolmo de Minateda, Hellín, Albacete). Mediante el reconocimiento superficial del terreno y la revisión de los materiales arqueológicos se propone la caracterización del poblamiento entre los ss. VII d.C. y IX d.C. El análisis ofrece una ocupación densa en la que empiezan a reconocerse espacios campesinos agregados que podría corresponder a aldeas campesinas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente artículo tiene como finalidad, valorar el impacto ambiental de las conducciones del Canal de Isabel II en el contexto del paisaje. Partimos de la idea según la cual, las infraestructuras del Canal de Isabel II, y más que formar parte del paisaje por el que se extienden, son el propio paisaje. Nuestra zona de estudio es el noroeste de la Comunidad de Madrid (síntesis de la interacción de los propios agentes naturales, de la ocupación humana y de los usos del suelo), área a la que nos aproximarnos a través de la investigación de la integración paisajística, entendida ésta como una estrategia de intervención en el territorio, que tiene como objetivo principal orientar las transformaciones del paisaje o corregir las ya realizadas, para conseguir su adaptación al propio paisaje. En definitiva, nos encontramos ante la necesidad de ajustar un objeto o actuación territorial a las características fisonómicas de un paisaje dado, o de algunos de sus componentes, así como a su carácter y a sus contenidos semánticos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El estudio de las disciplinas científicas resulta más atractivo si se acompaña de actividades de carácter práctico. En este trabajo se propone un taller cuya finalidad es introducir al alumnado en el trabajo científico que realizan los geólogos y paleontólogos a través de la información paleoambiental y bioestratigráfica que proporcionan los microfósiles y su aplicación a la Crisis de Salinidad del Messiniense. Este periodo es considerado como uno de los acontecimientos más relevantes de la historia geológica del Mediterráneo y se caracteriza por una acumulación masiva de evaporitas en el fondo de la cuenca, que se relaciona con la desecación y posterior reinundación del Mediterráneo hace aproximadamente cinco millones de años. El taller consta de tres sesiones: una teórica, de introducción de los contenidos necesarios para el desarrollo de la actividad, para la que se proponen una serie de recursos bibliográficos y audiovisuales de libre acceso en internet; una práctica, de obtención de datos; y una final, de interpretación de los cambios paleoambientales que conlleva la presentación de los resultados en forma de artículo científico y posterior debate en el aula. Todos los datos necesarios para el desarrollo de la actividad se proporcionan en el presente artículo, si bien esta propuesta de taller queda abierta a las posibles modificaciones y mejoras que el profesorado considere oportunas. Para vertebrar esta propuesta, en forma de ejemplo de aplicación, se ha incluido el taller en la programación de la asignatura Biología y Geología (4º ESO). La puesta a punto de este taller pone de manifiesto que resulta idóneo para el trabajo en grupo en el aula permitiendo que el alumnado se sienta partícipe de todas las fases que constituyen una investigación científica.