61 resultados para madurez


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A través del proyecto se pretende buscar diferentes alternativas de centralización de la función de tesorería y el continuum de madurez para un holding internacional de compañías, lo que implica desde modelos de cash pooling, a modelos de centros de servicios compartidos (factorías de cobros y pagos), a modelos avanzados de bancos internos, analizando en qué casos puede ser aplicable cada uno. En términos generales, el proyecto se divide en cuatro bloques: -Repaso a los roles, responsabilidades y evolución de la función de tesorería, a nivel general -Repaso a las alternativas de centralización de la función de tesorería -Caso sobre un diseño de un modelo de centralización para un grupo internacional -Conclusiones---ABSTRACT---Through the project aims to find different alternatives of centralized treasury function and the continuum of maturity for an international holding company, which means from models of cash pooling, models of shared service centers (factories collections and payments ), to advanced models of domestic banks, analyzing in which cases may be applicable each. Overall, the project is divided into four main parts: -Review of the roles, responsibilities and evolution of the treasury function, in general --Review of the alternatives of centralization of the treasury function -Case study on a design of a centralized model for an international group -Conclusions

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se encuadra dentro de los estudios de impacto que están produciendo en las empresas el desarrollo e incorporación de las nuevas tecnologías, y más concretamente la implantación de las aplicaciones provenientes de la denominada web 2.0. Se conoce con este nombre a las herramientas web que permiten una comunicación bidireccional, es decir, el usuario y la empresa pueden intercambiar opiniones, de manera que el usuario adquiere un nuevo papel más protagonista, presentando ideas, aclaraciones, gustos, críticas...que son tenidas en cuenta por la empresa para realizar su actividad. De esta manera se ha roto con el modelo anterior donde el usuario solo podía consultar la información de una página web, era simple receptor de la información. El objetivo de este estudio es conocer cómo las empresas están incorporando estas tecnologías 2.0 a su estrategia empresarial, y cómo términos como innovación abierta o co-creación están tomando mayor importancia en el entorno empresarial gracias a estas nuevas tecnologías. Si bien existen estudios a nivel de consultoría que generalmente aportan información sobre cuáles son las plataformas 2.0 más utilizadas en el mundo empresarial, no se han encontrado hasta ahora estudios que vinculen estas plataformas entre ellas y con la estructura empresarial, para poder definir un perfil de la organización que trabaja con ellas o el nivel de madurez de la incorporación de estas tecnologías en las organizaciones. Analizar cualitativamente estos aspectos, significa estudiar los nuevos conceptos incorporados a las tecnologías 2.0 en la empresa. Un análisis cuantitativo nos llevaría a estudiar de manera práctica que tipo de recursos y en qué cantidad se están utilizando y su vinculación con la estructura de la organización. Para ello: En una primera parte, nos centraremos en las diferentes formas en las que se puede acceder a Internet, y a continuación enfocaremos el estudio en los dispositivos móviles que nos permiten la conexión desde cualquier lugar y en cualquier instante. Con esto conseguiremos tener una situación actual del mercado de las TIC y veremos cómo las empresas han ido construyendo nuevas políticas para cambiar su estrategia con el fin de estar presentes en los nuevos dispositivos móviles y no perder cuota de mercado. Tras ello, veremos porqué conceptos como el de innovación abierta y proceso de co-creación han sido posibles gracias a la implantación de las tecnologías 2.0 en el ámbito empresarial, facilitando que la empresa y el usuario final cooperen y vayan de la mano en una misma dirección; la empresa se surte de las aportaciones que los usuarios ofrecen, y por otra parte el usuario se siente valorado por la empresa para conseguir la meta final. Es aquí donde comprobaremos la transformación que ha sufrido la empresa en sus distintos sectores departamentales (marketing, ventas, recursos humanos y atención al cliente) como consecuencia de la incorporación de las herramientas 2.0 al mundo laboral. Por todo ello, se enumerarán los distintos usos que realizan las empresas de las redes social más habituales, y además se describirán las principales herramientas y/o aplicaciones para monitorizar las redes sociales que servirán a la empresa para hacer un seguimiento de las mismas. La segunda parte del proyecto será un caso práctico y servirá para ofrecer una visión más real del estado actual de las empresas y su relación con las redes sociales. Para la recopilación de los datos se han escogido las empresas que pertenecen al sector de la “Fabricación de productos informáticos, electrónicos y ópticos”. En cuento a las redes sociales elegidas, han sido Facebook y Twitter. Este estudio práctico nos hará entender mejor el impacto directo que tienen las redes sociales en la actividad diaria de las empresas. Finalmente se realizarán una serie de consideraciones a modo de directrices que servirán para tratar de entender cómo se están utilizando las redes sociales en el entorno empresarial y cuál puede ser la manera más óptima de utilizarlas según el estudio presentado. ABSTRACT. This project is part of the impact studies arisen in companies by the development and incorporation of new technologies and, specifically, by the implementation of applications from the so-called web 2.0. That is how we call the web tools that allow bidirectional communication, this is, user and company can exchange opinions, in such a way that users acquire a leading role, submitting ideas, explanations, preferences, criticism... considered by the company when performing its activities. This way, we have broken with the previous model, where users could only check information from a web page and were simple information recipients. The objective of this study is to get to know how companies are incorporating these technologies 2.0 to their business strategy and how terms such as open innovation or co-creation are becoming more important in the business sphere thanks to these new technologies. Even if there are consulting studies that generally provide information about which are the platforms 2.0 more used in the business world, no studies have been found until now that link such platforms among them and with the business structure, in order to define a profile of the organization that works with them or the level of development of the incorporation of these technologies in the organizations. A qualitative analysis of these aspects involves studying the new concepts incorporated to technologies 2.0 by companies. A qualitative analysis would lead us to study in a practical manner what kind of resources and what amount are being used and their relation with the organization structure. Therefore: First, we will focus on the different ways to gain access to the Internet and, afterwards, we will focus the study on mobile devices that allow us to be connected everywhere any time. This way, we will manage to obtain a present situation of the ICT market and we will see how companies have constructed new policies to change their strategy in order to be present in the new mobile devices without losing their market share. Later, we will review why concepts such as open innovation and co-creation process have been possible thanks to the implementation of technologies 2.0 in the business environment, facilitating that companies and final users cooperate and walk hand in hand in the same direction; companies stock up on the contributions offered by users and, on the other hand, users feel appreciated by companies in the achievement of the final goal. Here we will confirm the transformation suffering by companies in different department sectors (marketing, sales, human resources and customer service) as a result of the incorporation of tools 2.0 to the work environment. Therefore, we will enumerate the different uses that companies make of the most common social networks, describing the main tools and/or applications to monitor social networks used by companies to follow them up. The second part of the project will be a case study to offer a more real vision of the present status of companies and their relation with social networks. To collect the data, we have selected companies from the “Manufacture of computer, electronic and optical products” industry. The social networks chosen are Facebook and Twitter. This case study will help us to get a better understanding of the direct impact of social networks in companies’ daily activity. Finally, we will offer a series of considerations and guidelines to try to understand how are social networks being used in the business environment and what can be the most suitable manner to use them according to this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Phaseolus vulgaris L. (frijol común o judía) es una leguminosa de gran demanda para la nutrición humana y un producto agrícola muy importante. Sin embargo, la producción de frijol se ve limitada por presiones ambientales como la sequía. En México, el 85% de la cosecha de frijol se produce en la temporada de primavera-verano, principalmente en las regiones del altiplano semiárido con una precipitación anual entre 250 y 400 mm. A pesar del implemento de tecnología en el campo, los factores naturales impiden al agricultor llegar a los rendimientos deseados. El Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias (INIFAP), como instituto de investigación gubernamental en México, tiene como objetivo la mejora de cultivos estratégicos, uno de ellos, P. vulgaris. Los estudios en relación a la sequía se enfocan especialmente en la selección de genotipos tolerantes, los cuales son sometidos en condiciones de estrés y monitoreando parámetros como el rendimiento y peso de semilla, además de algunos indicadores tales como índice de cosecha. El resultado de estos trabajos ha sido la obtención de variedades con mayor tolerancia a la sequía, tales como Pinto Villa y Pinto Saltillo. En los últimos años se ha avanzado notablemente en el conocimiento de las bases moleculares en las respuestas de las plantas al estrés. De acuerdo a diversos estudios se ha demostrado que las plantas bajo estrés por sequía experimentan cambios en la expresión de genes involucrados en la señalización, regulación de la transcripción y la traducción, transporte de agua y la función directa en la protección celular. También se ha observado que el déficit de agua es causado por las temperaturas extremas y la alta concentración de sales, por lo que al nivel molecular, las respuestas al estrés tienen puntos de especificidad y puntos de entrecruzamiento. La sequía puede generar estreses secundarios, tales como el nutricional, oxidativo y osmótico. Sin embargo, es necesario identificar y caracterizar muchos de los componentes involucrados en las respuestas al déficit hídrico, la caracterización de estos genes permitirá tener una mejor comprensión de los mecanismos bioquímicos y fisiológicos involucrados en la tolerancia al estrés. Actualmente, con el apoyo de la biología molecular se han identificado algunos genes que otorgan ventajas para la adaptación a ambientes desfavorables. Por lo que el objetivo del presente trabajo es identificar marcadores genéticos asociados a rasgos fenotípicos con énfasis a la tolerancia a estrés hídrico en P. vulgaris. Una vez establecidos los marcadores asociados al estrés hídrico, es factible considerar su uso para la selección asistida por marcadores en líneas o variedades de frijol de interés para los mejoradores. Se evaluaron 282 familias F3:5 derivadas de la cruza entre los cultivares Pinto Villa y Pinto Saltillo. Las familias se sembraron bajo un diseño simple de látice 17x17, el experimento se llevo acabo en el ciclo primavera-verano del 2010 y 2011, y otoñoinvierno de 2010 en el Campo Experimental Bajío del INIFAP con dos repeticiones para cada tratamiento de humedad (riego completo y sequía terminal). En todos los genotipos se realizó el fenotipado (variables fenotípicas) y el genotipado a través de marcadores moleculares. Los análisis estadísticos se basaron en el análisis de componentes principales (Eigen Analysis Selection Index Method, ESIM), la asociación entre marcadores SNP y el fenotipado (paquete SNPassoc para R) y el análisis de varianza (ANOVA). Los valores ESIM mostraron que las variables de Rendimiento, Días a floración, Días a madurez fisiológica e Índice de cosecha fueron sobresalientes en sequía terminal, por lo que se sugieren tomarse en consideración para los estudios de sequía en P. vulgaris como monitores de evaluación a la resistencia. Se identificaron nueve familias sobresalieron por sus valores ESIM (PV/PS6, 22, 131, 137, 149, 154, 201, 236 y 273), además de presentar valores superiores para el rendimiento en comparación con los parentales. Estos genotipos son candidatos interesantes para realizar estudios de identificación de loci asociados con la respuesta al estrés, y como potenciales parentales en el desarrollo de nuevas variedades de frijol. En los análisis de asociación SNPassoc se identificaron 83 SNPs significativos (p<0,0003) asociados a los rasgos fenotípicos, obteniendo un total de 222 asociaciones, de las cuales predomina el modelo genético de codominancia para las variables Días a floración, Periodo reproductivo y Biomasa total. Treinta y siete SNPs se identificaron a diferentes funciones biológicas a través del análisis de anotación funcional, de los cuales 12 SNPs (9, 18, 28, 39, 61, 69, 80, 106, 115, 128, 136 y 142) sobresalen por su asociación al fenotipado, y cuya anotación funcional indica que se encuentran en genes relacionados a la tolerancia a la sequía, tales como la actividad kinasa, actividad metabólica del almidón, carbohidratos y prolina, respuesta al estrés oxidativo, así como en los genes LEA y posibles factores de transcripción. En el caso de los análisis ANOVA, se identificaron 72 asociaciones entre los SNPs y las variables fenotípicas (F< 3,94E-04). Las 72 asociaciones corresponden a 30 SNPs y 7 variables fenotípicas, de las que predomina Peso de 100 semillas y Periodo reproductivo. Para los rasgos de Rendimiento, Índice de cosecha y Días a madurez fisiológica se presentaron asociaciones con seis SNPs (17, 34, 37, 50, 93 y 107), de los cuales, a los SNP37 y SNP107 fueron identificados a la anotación biológica de protein binding. Por otro lado, los SNP106 y SNP128 asociados al Periodo reproductivo, son genes con actividad kinasa y actividad metabólica del almidón, respectivamente. Para los marcadores tipo AFLP, se identificaron 271 asociaciones (F<2,34E-04). Las asociaciones corresponden a 86 AFLPs con todas las variables fenotípicas evaluadas, de las que predomina peso de 100 semillas, Días a floración y Periodo reproductivo. Debido a que los en los AFLPs no es posible determinar su anotación biológica, se proponen como marcadores potenciales relacionados a la resistencia a la sequía en frijol. Los AFLPs candidatos requieren más estudios tales como la secuenciación de los alelos respectivos, así como la identificación de éstas secuencias en el genoma de referencia y su anotación biológica, entre otros análisis, de esta manera podríamos establecer aquellos marcadores candidatos a la validación para la selección asistida. El presente trabajo propone tanto genotipos como marcadores genéticos, que deben ser validados para ser utilizados en el programa de mejoramiento de P. vulgaris, con el objetivo de desarrollar nuevas líneas o variedades tolerantes a la sequía. ABSTRACT Phaseolus vulgaris L. (common bean or judia) is a legume of great demand for human consumption and an important agricultural product. However, the common bean production is limited by environmental stresses, such as drought. In Mexico, 85% of the common bean crop is produced in the spring-summer season mainly in semiarid highland regions with a rainfall between 250 and 400 mm per year. In spite of the improvement of crop technology, the natural factors hamper getting an optimal yield. The National Institute for Forestry, Agriculture and Livestock (INIFAP) is a government research institute from Mexico, whose main objective is the genetic breeding of strategic crops, like P. vulgaris L. The drought tolerance studies particularly focus on the selection of bean tolerant genotypes, which are subjected to stress conditions, by means of monitoring parameters such as yield and seed weight, plus some agronomic indicators such as harvest index. The results of these works have led to obtain cultivars with higher drought tolerance such as Pinto Villa and Pinto Saltillo. Significant achievements have been recently made in understanding the molecular basis of stress plant responses. Several studies have shown that plants under drought stress present changes in gene expression related to cell signalling, transcriptional and translational regulation, water transport and cell protection. In addition, it has been observed that the extreme temperatures and high salt concentrations can cause a water deficiency so, at the molecular level, stress responses have specific and crossover points. The drought can cause secondary stresses, such as nutritional, oxidative and osmotic stress. It is required the identification of more components involved in the response to water deficit, the characterization of these genes will allow a better understanding of the biochemical and physiological mechanisms involved in stress tolerance. Currently, with the support of molecular biology techniques, some genes that confer an advantage for the crop adaptation to unfavourable environments have been identified. The objective of this study is to identify genetic markers associated with phenotypic traits with emphasis on water stress tolerance in P. vulgaris. The establishment of molecular markers linked to drought tolerance would make possible their use for marker-assisted selection in bean breeding programs. Two hundred and eighty two F3:5 families derived from a cross between the drought resistant cultivars Pinto Villa and Pinto Saltillo were evaluated. The families were sowed under a 17x17 simple lattice design. The experiment was conducted between spring-summer seasons in 2010 and 2011, and autumn-winter seasons in 2010 at the Bajio Experimental Station of INIFAP with two treatments (full irrigation and terminal drought). All families were phenotyped and genotyped using molecular markers. Statistical analysis was based on principal component analysis (Eigen Analysis Selection Index Method, ESIM), association analysis between SNP markers and phenotype (SNPassoc package R) and analysis of variance (ANOVA). The ESIM values showed that seed yield, days to flowering, days to physiological maturity and harvest index were outstanding traits in terminal drought treatment, so they could be considered as suitable parameters for drought-tolerance evaluation in P. vulgaris. Nine outstanding families for the ESIM values were identified (PV/PS6, 22, 131, 137, 149, 154, 201, 236 and 273), in addition, these families showed higher values for seed yield compared to the parental cultivars. These families are promising candidates for studies focused on the identification of loci associated to the stress response, and as potential parental cultivars for the development of new varieties of common bean. In the SNPassoc analysis, 83 SNPs were found significantly associated (p<0.0003) with phenotypic traits, obtaining a total of 222 associations, most of which involved the traits days to flowering, reproductive period and total biomass under a codominant genetic model. The functional annotation analysis showed 37 SNPs with different biological functions, 12 of them (9, 18, 28, 39, 61, 69, 80, 106, 115, 128, 136 and 142) stand out by their association to phenotype. The functional annotation suggested a connection with genes related to drought tolerance, such as kinase activity, starch, carbohydrates and proline metabolic processes, responses to oxidative stress, as well as LEA genes and putative transcription factors. In the ANOVA analysis, 72 associations between SNPs and phenotypic traits (F<3.94E- 04) were identified. All of these associations corresponded to 30 SNPs markers and seven phenotypic traits. Weight of 100 seeds and reproductive period were the traits with more associations. Seed yield, harvest index and days to physiological maturity were associated to six SNPs (17, 34, 37, 50, 93 and 107), the SNP37 and SNP107 were identified as located in protein binding genes. The SNP106 and SNP128 were associated with the reproductive period and belonged to genes with kinase activity and genes related to starch metabolic process, respectively. In the case of AFLP markers, 271 associations (F<2.34E-04) were identified. The associations involved 86 AFLPs and all phenotypic traits, being the most frequently associated weight of 100 seeds, days to flowering and reproductive period. Even though it is not possible to perform a functional annotation for AFLP markers, they are proposed as potential markers related to drought resistance in common bean. AFLPs candidates require additional studies such as the sequencing of the respective alleles, identification of these sequences in the reference genome and gene annotation, before their use in marker assisted selection. This work, although requires further validation, proposes both genotypes and genetic markers that could be used in breeding programs of P. vulgaris in order to develop new lines or cultivars with enhanced drought-tolerance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El arquitecto Pedro Muguruza (1893-1952) fue protagonista de la cultura arquitectónica española de la primera mitad del siglo XX. El estudio de su obra ha sido una carencia dentro de la historiografía de la materia, por lo que la tesis constituye una primera investigación en conjunto de su trayectoria profesional. Muguruza realizó una obra abundante y diversa, pero además fue catedrático de la Escuela de Arquitectura de Madrid, académico de San Fernando y primer director general de arquitectura; datos que corroboran la necesidad de haber desarrollado una monografía con un enfoque global. La tesis ha ordenado, clasificado y analizado sus trabajos, tanto desde un punto de vista histórico como desde el punto de vista arquitectónico. En la investigación se ha recurrido a fuentes primarias y secundarias; y una de las aportaciones de la tesis es el riguroso soporte documental sobre el que se asienta. El trabajo tiene un desarrollo cronológico, dividido en tres capítulos identificados como las etapas generales de su carrera: 1. Años de formación y trayectorias iniciales (1909- 1923), 2. Desarrollo profesional (1923-1938), 3. Las tareas en la administración estatal y último periodo (1938-1952). Asimismo, se ha llevado a cabo el catálogo de su obra —también ordenado cronológicamente—, herramienta que posibilita recorrer de principio a fin el listado y las referencias de su arquitectura. En este apartado se han reproducido más de 1.200 imágenes de 294 proyectos. La tesis ha revisado y descubierto la obra de un arquitecto de mayor recorrido y versatilidad del conocido hasta ahora; personaje complejo de abordar, asociado al franquismo, —cuando en realidad desarrolló una gran parte de sus proyectos en la década de los años veinte y treinta—, difícil de abarcar en todas sus dimensiones, arquitectónica, artística e institucional. La investigación ha permitido indagar y exponer sus proyectos iniciales hasta los de la etapa de madurez, gracias a lo que se han determinado los géneros y los procesos de su trabajo, las constantes de su trayectoria y las referencias e influencias que recibió, tanto de corrientes nacionales como de extranjeras. También se ha revisado su pensamiento arquitectónico a través de sus escritos. El trabajo ofrece un panorama más completo del que entonces se tenía del polifacético Muguruza; arquitecto que se puede presentar como un prototipo reflejo de nuestro pasado reciente, y que al conocer su obra se conoce una parte significativa y destacada de la historia de la arquitectura española contemporánea. ABSTRACT Architect Pedro Muguruza (1893-1952) was a pivotal figure in the Spanish architectural culture of the first half of the 20th century. However, his work as a whole has been insufficiently approached by architectural historiography. This thesis is indeed the first comprehensive research of his professional career. Muguruza’s work is abundant and diverse. He was also a professor at the School of Architecture in Madrid, a luminary scholar at the Royal Academy of Fine Arts of San Fernando and the first General Director of Architecture in Spain. All these facts compel a profound monographic exploration of his far-reaching working path. Muguruza’s projects have been organized, classified and analyzed in this thesis both from historical and architectural points of view. Primary and secondary sources have been scrutinized throughout this research and one of the assets of this project is the rigorous documentation on which it is firmly grounded. The results of this research have been chronologically organized and structured into three chapters identified with the general stages of his prolific career: 1. Training years and his initial paths (1909-1923). 2. Professional development (1923-1938). 3. His role in the state administration and his last period (1938-1952). A chronological catalogue of all his architectural work has also been carried out as part of this project. This catalogue offers the possibility to track his works and all references to them under a historical perspective. More than 1,200 images of his projects have been included in this catalogue. The thesis has gone through and shown up the work of an architect whose magnitude and versatility is much more than what previously known. Muguruza represents a complicated figure to approach ideologically speaking because of his later relationship to Franco’s regime – when in fact Muguruza developed a big part of his projects in the 20’s and 30’s before the dictatorship –. He is also a difficult figure to research on because of his exhaustive working activity in different dimensions: architectural, artistic and institutional. This research allows any incoming scholars to approach Muguruza’s projects under an accurate perspective. From his initial works to his maturity period, his projects have been analyzed and classified by establishing different stages. Additionally, some constant guidelines within his long career and the influences he received both in Spain and abroad have also been identified and properly considered. His architectural line of thought has been explored through his writings too. This thesis provides a complete overview of a multifaceted Muguruza, an architect who can be introduced as an archetype of our recent cultural heritage. By exploring his work a quintessential part of the Spanish contemporary architecture is definitively revealed and acknowledged.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rafael Moneo se enfrenta a la arquitectura religiosa en la madurez de su carrera profesional. Toma como punto de partida el tipo, y confía en la manipulación del mismo como herramienta proyectual, y recurre a su memoria del espacio sagrado, sus recuerdos de la mejor arquitectura religiosa. Con el primer proceso dispone el edificio en el lugar y organiza su funcionamiento. En el segundo, trata de dotar de carácter al espacio, muy importante en estos casos para que los fieles se puedan identificar con el edificio. Las arquitecturas del pasado, Bizancio, las catedrales góticas, el Barroco, y referentes más recientes, como Bryggman, Scarpa, y principalmente la capilla de Ronchamp. En la arquitectura religiosa de Rafael Moneo están presentes los temas que han sido importantes a lo largo de su trayectoria. Así la atención a los condicionantes específicos del lugar en el que se asienta la obra, la integración de la historia de la arquitectura con las nuevas disciplinas y los modos de construcción, la reflexión sobre el tipo y la simbiosis que establece entre el tratamiento de la luz y la materialidad del edificio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación de esta tesis se centra en el estudio de técnicas geoestadísticas y su contribución a una mayor caracterización del binomio factores climáticos-rendimiento de un cultivo agrícola. El inexorable vínculo entre la variabilidad climática y la producción agrícola cobra especial relevancia en estudios sobre el cambio climático o en la modelización de cultivos para dar respuesta a escenarios futuros de producción mundial. Es información especialmente valiosa en sistemas operacionales de monitoreo y predicción de rendimientos de cultivos Los cuales son actualmente uno de los pilares operacionales en los que se sustenta la agricultura y seguridad alimentaria mundial; ya que su objetivo final es el de proporcionar información imparcial y fiable para la regularización de mercados. Es en este contexto, donde se quiso dar un enfoque alternativo a estudios, que con distintos planteamientos, analizan la relación inter-anual clima vs producción. Así, se sustituyó la dimensión tiempo por la espacio, re-orientando el análisis estadístico de correlación interanual entre rendimiento y factores climáticos, por el estudio de la correlación inter-regional entre ambas variables. Se utilizó para ello una técnica estadística relativamente nueva y no muy aplicada en investigaciones similares, llamada regresión ponderada geográficamente (GWR, siglas en inglés de “Geographically weighted regression”). Se obtuvieron superficies continuas de las variables climáticas acumuladas en determinados periodos fenológicos, que fueron seleccionados por ser factores clave en el desarrollo vegetativo de un cultivo. Por ello, la primera parte de la tesis, consistió en un análisis exploratorio sobre comparación de Métodos de Interpolación Espacial (MIE). Partiendo de la hipótesis de que existe la variabilidad espacial de la relación entre factores climáticos y rendimiento, el objetivo principal de esta tesis, fue el de establecer en qué medida los MIE y otros métodos geoestadísticos de regresión local, pueden ayudar por un lado, a alcanzar un mayor entendimiento del binomio clima-rendimiento del trigo blando (Triticum aestivum L.) al incorporar en dicha relación el componente espacial; y por otro, a caracterizar la variación de los principales factores climáticos limitantes en el crecimiento del trigo blando, acumulados éstos en cuatro periodos fenológicos. Para lleva a cabo esto, una gran carga operacional en la investigación de la tesis consistió en homogeneizar y hacer los datos fenológicos, climáticos y estadísticas agrícolas comparables tanto a escala espacial como a escala temporal. Para España y los Bálticos se recolectaron y calcularon datos diarios de precipitación, temperatura máxima y mínima, evapotranspiración y radiación solar en las estaciones meteorológicas disponibles. Se dispuso de una serie temporal que coincidía con los mismos años recolectados en las estadísticas agrícolas, es decir, 14 años contados desde 2000 a 2013 (hasta 2011 en los Bálticos). Se superpuso la malla de información fenológica de cuadrícula 25 km con la ubicación de las estaciones meteorológicas con el fin de conocer los valores fenológicos en cada una de las estaciones disponibles. Hecho esto, para cada año de la serie temporal disponible se calcularon los valores climáticos diarios acumulados en cada uno de los cuatro periodos fenológicos seleccionados P1 (ciclo completo), P2 (emergencia-madurez), P3 (floración) y P4 (floraciónmadurez). Se calculó la superficie interpolada por el conjunto de métodos seleccionados en la comparación: técnicas deterministas convencionales, kriging ordinario y cokriging ordinario ponderado por la altitud. Seleccionados los métodos más eficaces, se calculó a nivel de provincias las variables climatológicas interpoladas. Y se realizaron las regresiones locales GWR para cuantificar, explorar y modelar las relaciones espaciales entre el rendimiento del trigo y las variables climáticas acumuladas en los cuatro periodos fenológicos. Al comparar la eficiencia de los MIE no destaca una técnica por encima del resto como la que proporcione el menor error en su predicción. Ahora bien, considerando los tres indicadores de calidad de los MIE estudiados se han identificado los métodos más efectivos. En el caso de la precipitación, es la técnica geoestadística cokriging la más idónea en la mayoría de los casos. De manera unánime, la interpolación determinista en función radial (spline regularizado) fue la técnica que mejor describía la superficie de precipitación acumulada en los cuatro periodos fenológicos. Los resultados son más heterogéneos para la evapotranspiración y radiación. Los métodos idóneos para estas se reparten entre el Inverse Distance Weighting (IDW), IDW ponderado por la altitud y el Ordinary Kriging (OK). También, se identificó que para la mayoría de los casos en que el error del Ordinary CoKriging (COK) era mayor que el del OK su eficacia es comparable a la del OK en términos de error y el requerimiento computacional de este último es mucho menor. Se pudo confirmar que existe la variabilidad espacial inter-regional entre factores climáticos y el rendimiento del trigo blando tanto en España como en los Bálticos. La herramienta estadística GWR fue capaz de reproducir esta variabilidad con un rendimiento lo suficientemente significativo como para considerarla una herramienta válida en futuros estudios. No obstante, se identificaron ciertas limitaciones en la misma respecto a la información que devuelve el programa a nivel local y que no permite desgranar todo el detalle sobre la ejecución del mismo. Los indicadores y periodos fenológicos que mejor pudieron reproducir la variabilidad espacial del rendimiento en España y Bálticos, arrojaron aún, una mayor credibilidad a los resultados obtenidos y a la eficacia del GWR, ya que estaban en línea con el conocimiento agronómico sobre el cultivo del trigo blando en sistemas agrícolas mediterráneos y norteuropeos. Así, en España, el indicador más robusto fue el balance climático hídrico Climatic Water Balance) acumulado éste, durante el periodo de crecimiento (entre la emergencia y madurez). Aunque se identificó la etapa clave de la floración como el periodo en el que las variables climáticas acumuladas proporcionaban un mayor poder explicativo del modelo GWR. Sin embargo, en los Bálticos, países donde el principal factor limitante en su agricultura es el bajo número de días de crecimiento efectivo, el indicador más efectivo fue la radiación acumulada a lo largo de todo el ciclo de crecimiento (entre la emergencia y madurez). Para el trigo en regadío no existe ninguna combinación que pueda explicar más allá del 30% de la variación del rendimiento en España. Poder demostrar que existe un comportamiento heterogéneo en la relación inter-regional entre el rendimiento y principales variables climáticas, podría contribuir a uno de los mayores desafíos a los que se enfrentan, a día de hoy, los sistemas operacionales de monitoreo y predicción de rendimientos de cultivos, y éste es el de poder reducir la escala espacial de predicción, de un nivel nacional a otro regional. ABSTRACT This thesis explores geostatistical techniques and their contribution to a better characterization of the relationship between climate factors and agricultural crop yields. The crucial link between climate variability and crop production plays a key role in climate change research as well as in crops modelling towards the future global production scenarios. This information is particularly important for monitoring and forecasting operational crop systems. These geostatistical techniques are currently one of the most fundamental operational systems on which global agriculture and food security rely on; with the final aim of providing neutral and reliable information for food market controls, thus avoiding financial speculation of nourishments of primary necessity. Within this context the present thesis aims to provide an alternative approach to the existing body of research examining the relationship between inter-annual climate and production. Therefore, the temporal dimension was replaced for the spatial dimension, re-orienting the statistical analysis of the inter-annual relationship between crops yields and climate factors to an inter-regional correlation between these two variables. Geographically weighted regression, which is a relatively new statistical technique and which has rarely been used in previous research on this topic was used in the current study. Continuous surface values of the climate accumulated variables in specific phenological periods were obtained. These specific periods were selected because they are key factors in the development of vegetative crop. Therefore, the first part of this thesis presents an exploratory analysis regarding the comparability of spatial interpolation methods (SIM) among diverse SIMs and alternative geostatistical methodologies. Given the premise that spatial variability of the relationship between climate factors and crop production exists, the primary aim of this thesis was to examine the extent to which the SIM and other geostatistical methods of local regression (which are integrated tools of the GIS software) are useful in relating crop production and climate variables. The usefulness of these methods was examined in two ways; on one hand the way this information could help to achieve higher production of the white wheat binomial (Triticum aestivum L.) by incorporating the spatial component in the examination of the above-mentioned relationship. On the other hand, the way it helps with the characterization of the key limiting climate factors of soft wheat growth which were analysed in four phenological periods. To achieve this aim, an important operational workload of this thesis consisted in the homogenization and obtention of comparable phenological and climate data, as well as agricultural statistics, which made heavy operational demands. For Spain and the Baltic countries, data on precipitation, maximum and minimum temperature, evapotranspiration and solar radiation from the available meteorological stations were gathered and calculated. A temporal serial approach was taken. These temporal series aligned with the years that agriculture statistics had previously gathered, these being 14 years from 2000 to 2013 (until 2011 for the Baltic countries). This temporal series was mapped with a phenological 25 km grid that had the location of the meteorological stations with the objective of obtaining the phenological values in each of the available stations. Following this procedure, the daily accumulated climate values for each of the four selected phenological periods were calculated; namely P1 (complete cycle), P2 (emergency-maturity), P3 (flowering) and P4 (flowering- maturity). The interpolated surface was then calculated using the set of selected methodologies for the comparison: deterministic conventional techniques, ordinary kriging and ordinary cokriging weighted by height. Once the most effective methods had been selected, the level of the interpolated climate variables was calculated. Local GWR regressions were calculated to quantify, examine and model the spatial relationships between soft wheat production and the accumulated variables in each of the four selected phenological periods. Results from the comparison among the SIMs revealed that no particular technique seems more favourable in terms of accuracy of prediction. However, when the three quality indicators of the compared SIMs are considered, some methodologies appeared to be more efficient than others. Regarding precipitation results, cokriging was the most accurate geostatistical technique for the majority of the cases. Deterministic interpolation in its radial function (controlled spline) was the most accurate technique for describing the accumulated precipitation surface in all phenological periods. However, results are more heterogeneous for the evapotranspiration and radiation methodologies. The most appropriate technique for these forecasts are the Inverse Distance Weighting (IDW), weighted IDW by height and the Ordinary Kriging (OK). Furthermore, it was found that for the majority of the cases where the Ordinary CoKriging (COK) error was larger than that of the OK, its efficacy was comparable to that of the OK in terms of error while the computational demands of the latter was much lower. The existing spatial inter-regional variability between climate factors and soft wheat production was confirmed for both Spain and the Baltic countries. The GWR statistic tool reproduced this variability with an outcome significative enough as to be considered a valid tool for future studies. Nevertheless, this tool also had some limitations with regards to the information delivered by the programme because it did not allow for a detailed break-down of its procedure. The indicators and phenological periods that best reproduced the spatial variability of yields in Spain and the Baltic countries made the results and the efficiency of the GWR statistical tool even more reliable, despite the fact that these were already aligned with the agricultural knowledge about soft wheat crop under mediterranean and northeuropean agricultural systems. Thus, for Spain, the most robust indicator was the Climatic Water Balance outcome accumulated throughout the growing period (between emergency and maturity). Although the flowering period was the phase that best explained the accumulated climate variables in the GWR model. For the Baltic countries where the main limiting agricultural factor is the number of days of effective growth, the most effective indicator was the accumulated radiation throughout the entire growing cycle (between emergency and maturity). For the irrigated soft wheat there was no combination capable of explaining above the 30% of variation of the production in Spain. The fact that the pattern of the inter-regional relationship between the crop production and key climate variables is heterogeneous within a country could contribute to one is one of the greatest challenges that the monitoring and forecasting operational systems for crop production face nowadays. The present findings suggest that the solution may lay in downscaling the spatial target scale from a national to a regional level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se estudia la vivienda “Tempe à pailla” (1932-1934) construida por Eileen Gray para uso propio, en la localidad francesa de Castellar. La expresión “cuarto propio” en el título del trabajo identifica este proyecto con la búsqueda de un lugar para la autoexperimentación. “Tempe à pailla” es el resultado de una enseñanza autodidacta adquirida por Eileen Gray gracias a la convivencia con los protagonistas del movimiento moderno, en el marco de la Francia de entreguerras. Las experiencias artesanales de E. Gray previas a la arquitectura y los instrumentos de aprendizaje permiten comprender el desarrollo de una mente crítica que cuestiona continuamente lo observado. Por ello, para demostrar la influencia de los postulados de los movimientos contemporáneos en la evolución de sus creaciones, y como preámbulo al análisis de “Tempe à pailla” se realiza un recorrido por las técnicas experimentadas y se analizan dos de sus primeros ejercicios de proyecto: “Vivienda de tres plantas” (1923) y “Maison pour un ingénieur” (1926). La enseñanza adquirida en torno a la herramienta del dibujo analítico y técnico, junto a su investigación en el campo de lo pictórico trasladada al mobiliario realizado en laca, o al diseño y tejido de tapices, constituyen un conjunto de prácticas que desembocan, primero en el acondicionamiento de interiores, para ensayar novedosas composiciones espaciales entre sus objetos y, por último, en el proyecto de arquitectura como disciplina capaz de conjugar todo lo experimentado anteriormente. El binomio Intuición más Método, en todos estos itinerarios prácticos de Eileen Gray, combinado con una mirada atenta hacia las obras, exposiciones, lecturas y revistas especializadas de su tiempo, amalgaman una personalidad compleja que investigó progresivamente, primero en el ámbito de la domesticidad, y en su etapa de madurez en torno a los mínimos de habitar y a los espacios colectivos. El propósito de esta tesis es descubrir cómo los aspectos sociales, artísticos y arquitectónicos del contexto, entrelazados con la propia subjetividad crítica de la arquitecto conforman los fundamentos de esta vivienda y condicionan las decisiones de una mente que proyecta copiando, reelaborando y descartando entre lo conocido y lo aprendido. La elección de esta casa como protagonista de la investigación persigue, en primer lugar, descubrir su relación con los discursos del momento, constituyéndose en objeto arquitectónico paradigmático de un diálogo continuado y abierto. Y en segundo lugar, establecer una síntesis valorativa de la coherencia o la falta de ella en las decisiones objetivas del proyecto, confrontándolas con otros ejemplos. Para alcanzar estos dos objetivos se ha diseccionado la casa desde cinco perspectivas: su vínculo con la preexistencia del lugar, su organización en planta alejada de cualquier tipo normalizado, su vocabulario como reflejo de la modernidad, las relaciones espacio-temporales conseguidas y la sinergia establecida entre el equipamiento doméstico y la arquitectura. Este desarrollo ha hecho posible situar “Tempe á pailla” como un punto de inflexión en la arquitectura de Eileen Gray, y un ejemplo donde fue capaz de anticipar las futuras revisiones del movimiento moderno en aspectos como: la adecuación y empatía de lo construido con el lugar de emplazamiento, el rechazo a las connotaciones del concepto de “machine d’habiter” y la búsqueda de un confort enfatizado por la percepción, la experiencia e incluso los efectos psicológicos del interior doméstico. La relectura de esta casa, enmarcada dentro de la trayectoria práctica de su autora, invita a fijar la mirada en un inexcusable aprendizaje, previo a lo arquitectónico, que aúne la TEORÍA y la PLÁSTICA del momento con ensayos materializados en la PRÁCTICA, demostrando que, para madurar el conocimiento y proyectar con criterio crítico, es imprescindible el factor TIEMPO. ABSTRACT This thesis examines the housing “Tempe à pailla” (1932-1934) built by Eileen Gray for her own use, in the French village of Castellar. The expression “own room” in the title of the work identifies this project as the searching for a place for self experimentation. “Tempe à pailla” is the result of a self-directed learning acquired by the authoress due to coexistence with the protagonists of the modern movement, within the framework of the interwar France. Gray’s craft experiences previous to the architecture along the learning tools allow us to understand the development of a critical mind that questions continuously what she observes. Therefore to demonstrate the influence of the postulates of the contemporary movements in the evolution of her creations, and as a preamble to analysis of “Tempe à pailla”, this thesis makes a tour, along the techniques that she experienced, and studies two of her first exercises of project: “Three-storey housing”(1923) and “Maison pour an ingénieur” (1926). Lesson learned around the analytical tool of architectural drawing, together her research in the field of painting transferred to furniture made in lacquer, or to the design and fabric of tapestries, they constitute a set of craft experiences that lead, first in the conditioning of interiors, rehearsing novel spatial compositions among her objects and finally in the architectural project as a discipline capable of combining everything she learnt previously The binomial Intuition plus Method in all of these practicals Eileen Gray’s itineraries, combined with her look toward the works, exhibitions, readings and journals of her time, become together a complex personality that progressively innovates firstly in the context of domesticity and, in her stage of maturity, on the minimum living and collective spaces. The purpose of this thesis is to discover how the social, artistic and architectural aspects of the context, interlaced with the own critical subjectivity of the architect shape the foundations of this housing and determine the decisions of a mind that projects copying, re-elaborating and rejecting among the aspects known and learned. The choice of this house as the protagonist of the thesis aims, first to discover the relationship with the speeches of her time, becoming a paradigmatic architectural object of a continued and open dialogue. And secondly, to establish a evaluative synthesis of the consistency or lack of it in the project decisions, confronting them with others appropriate examples. To achieve these two objectives the house has been dissected from five perspectives: Its link with the preexistence of the place, its organization on floor away any standard type, its vocabulary as a reflection of modernity reached spatial-temporal relations and the synergy established between the domestic equipment and architecture. The development has made possible to place “Tempe à pailla” as a turning point in the architecture of Eileen Gray, and an example where she was able to anticipate future revisions of the modern movement in aspects such as: adaptation and empathy of the architecture with the site, the rejection of the connotations of the concept of “machine d’habiter” and the pursuit of comfort emphasized by the perception, the experience and even the psychological effects of the domestic interior. The re-reading of this singular and reduced House, framed within the practical trajectory of her authoress, invites to gaze inexcusable learning prior to the architecture, which combines the THEORY and the PLASTIC with trials materialized in PRACTICE, demonstrating that the essential factor to mature knowledge and planning with critical criteria, is the TIME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta es la búsqueda de respuestas a esa duda constante: De dónde venimos y que hemos ido dejando por el camino. ¿Está todo claro en este recorrido o hemos actuado por acumulación de errores heredados de procesos anteriores? Es la investigación a través del descubrimiento de nuestro pasado, de nuestros orígenes en materia de seguridad de protección contra incendios, y sobre todo de ejecución de una arquitectura pensada para ser recorrida con mayor seguridad y ser evacuada en un tiempo razonable. El trabajo investiga, a nivel nacional, la evolución de la sociedad y sus efectos sobre la manera de interpretar el problema de la seguridad contra incendios en los edificios. El interés fundamentalmente es poner en claro todos aquellos aspectos que afectan a la evacuación de las personas. Para ello se han estudiado los principales hitos de actuación, las preocupaciones principales surgidas en cada momento y las soluciones adoptadas. Se ha comprobado su aplicación o su demora hasta que se ha producido el siguiente gran suceso que ha motivado una nueva revisión de los procedimientos de diseño y control. En primer lugar, tratando de relacionar los incendios fundamentales que han influido en nuestra forma de abordar el problema en distintos momentos de la historia de España. En segundo lugar, haciendo un recorrido sobre la figura del arquitecto y su participación en los medios de control y legislación sobre la manera de intervenir en el servicio de incendios o de resolver los edificios en materia de protección contra incendios o evacuación de sus ocupantes. En definitiva, descubriendo los escritos de algunos especialistas, fundamentales para entender nuestra manera de abordar el problema de la protección en los edificios, a lo largo de la historia. Se ha revisado como se han producido los siniestros más importantes en teatros y otros locales públicos .Analizando la forma en que los arquitectos implicados han tratado de resolver las posibles deficiencias ante el riesgo. Se trata de la tipología edificatoria donde, por primera vez, surge la preocupación por adoptar medidas y procedimientos de seguridad en caso de incendio. Resultan locales con una importante siniestralidad, donde se desarrolla la principal actividad lúdica del momento, y que por el importante número de personas que albergan, son fuente de preocupación entre el público y las autoridades. Otras cuestiones en un tema tan amplio, que quedan simplemente esbozadas en este trabajo de investigación, son los procedimientos de los sistemas de extinción, la estructura organizativa de la ciudad, las primeras sociedades de seguros de incendios, la aparición de patentes a partir del desarrollo industrial del siglo XIX. Todo ello, con el hilo conductor de la reglamentación que se ha ido elaborando al respecto. Al principio, sobre espectáculos públicos, acotando el punto de partida en la materia de nuestra reglamentación. Anticipando sistemas constructivos y datos dimensionales de la evacuación. Llegados a mediados del siglo XX, abordando otros usos. Haciendo seguimiento de la modernización de los procesos edificatorios y la reglamentación sectorial. Recabando información de las organizaciones profesionales que comienzan a reclamar una coordinación nacional de los sistemas preventivos y que desemboca en el Proyecto de Reglamento de prevención contra el fuego que nunca será publicado. Toda esta etapa, plagada de documentos de carácter voluntario u obligatorio, local y nacional, van definiendo los criterios dimensionales con los que debe resolverse los elementos arquitectónicos susceptibles de servir para la evacuación. Se trata de una etapa intensa en documentación, cambiante, sujeta a los criterios que establecen los países del entorno más avanzados en la materia. Las dos últimas décadas del siglo, acotadas por la transición política y varios siniestros de graves consecuencias, definen el proceso normativo que culmina con el código técnico de la edificación que hoy conocemos. Es un periodo de aprendizaje y asimilación del capítulo de la seguridad, donde los métodos son variados. Donde la intencionalidad última es trasladar un sistema prescriptivo a un modelo prestacional propio de la madurez en el análisis del tema y en las corrientes de los países del entorno. ABSTRACT This is the search for answers to that constant question: Where do we come from and what have left along the way? Has everything been clear on this journey, or have we acted as a result of a collection of errors learned from prior processes? This has been research through exploration of our past, of our origins regarding fire protection safety, and, above all, of the endeavour to utilize architecture aimed at offering the highest level of safety and evacuation in a reasonable time. This project has researched society’s change nationwide and its effects on how to interpret the difficulty of fire protection safety in buildings. Its focus has fundamentally been to clarify those aspects that affect the evacuation of people. To this end, the main milestones of action, the principal concerns that have arisen at each step, and the solutions taken have all been studied. A check was performed on their application; or their delay until a significant event occurred that prompted a new revision of design and control procedures. Firstly, this was done by attempting to connect the main fires that have influenced how we handle the problem at different times in Spain’s history. Secondly, an examination was done on the figure of the architect and his participation in the means of control and legislation on how to intercede in fire services, or how the architect finds solutions for buildings in terms of fire protection, or the evacuation of their occupants. In short, the written works of certain specialists, who are essential to our understanding of how to deal with the problem of protection in buildings, were explored throughout history. A study was done on the most significant disasters in theatres and other public establishments. This was done by analysing the way the architects involved have aimed to solve possible points liable to risk. It is a classification of building where, for the first time, the concern arose to adopt safety measures and procedures in the event of fires. Public establishments with considerable accident rates emerged. Here the main entertainment activities of the time took place. These spaces were a source of worry among the public and authorities due to the high number of persons they accommodated. Other issues in such an extensive subject, which are only outlined in this research study, are procedures in extinguishing systems, the organizational structure of cities, the first fire insurance companies, and the appearance of patents after the industrial development of the 19th century. All of these aspects are joined by the common thread of regulations that have been created in this matter. At the beginning, these regulations were for public shows, thus defining the starting point for our regulations. This was done in anticipation of structural systems and size data of evacuations. With the arrival of the mid-20th century, different uses were addressed. A modernization of construction processes and the industry regulations were tracked. Information was gathered from professional organizations that began to demand a national coordination of prevention systems which led to the Regulation Project on fire prevention which will never be published. Throughout this stage, replete with voluntary and compulsory documents, both on the local and national level, the dimensional criteria to be used in the resolution of architectural elements open to use in evacuation were defined. This was a period that was filled with documentation, change, and subject to the criteria that the most advanced countries in the field established in this regard. The final two decades of the century, marked by political transition and several accidents with grave consequences, defined the regulation process that culminated with the building technical code known today. This was a period of learning and understanding in the chapter of safety, where the methods are varied. In this chapter, the ultimate goal is to insert a prescriptive-based standard into a performance-based code suitable for cultivated experience in analysis of the subject and the tendencies in countries dealing with this field.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El arquitecto Víctor Eusa (Pamplona, 1894-1990) es la figura central de la arquitectura en Navarra durante la mayor parte del siglo XX. Desde 1920, año en que termina sus estudios en Madrid, hasta 1973, año de su jubilación, produjo centenares de obras y proyectos en esta región española, con esporádicas intervenciones en otras zonas, como las provincias vecinas de Guipúzcoa, Vizcaya y Zaragoza. Su periodo activo coincide con el de la construcción del II Ensanche de Pamplona. La cantidad y calidad de su producción hacen posible establecer una identificación entre la obra de Eusa y la ciudad entonces existente. Sus obras principales son auténticos hitos urbanos que caracterizan el Ensanche. El archivo personal del arquitecto se perdió desgraciadamente en los años setenta del pasado siglo. Este trabajo de investigación ha partido de la recopilación de la documentación gráfica existente en archivos públicos y privados, que ha dado como fruto la catalogación de las obras y proyectos de Víctor Eusa, que constituye el tomo II de la tesis. En el tomo I se analiza la trayectoria del arquitecto y la evolución formal de su lenguaje, a partir de su formación académica y las sucesivas influencias que jalonan sus primeros años de profesión: sus viajes por Europa y Oriente, Otto Wagner y la Sezession vienesa, Perret y el hormigón armado, el Art-Déco y la Exposición de París de 1925, Dudok y la arquitectura holandesa, etc. Todo ello fructifica en una arquitectura expresionista muy personal, basada en la geometría de líneas rectas y quebradas, que combina el ladrillo y el hormigón como sus materiales preferidos. Su madurez se alcanza a finales de los años veinte y se prolonga hasta la guerra civil española. En este periodo se concentran sus obras más conocidas: Casa de Misericordia, Iglesia de los Paúles, Colegio de Escolapios, edificios de viviendas en plaza Príncipe de Viana y calle García Castañón, Seminario, Casino Eslava,… Después del 36, sus responsabilidades públicas sucesivas como arquitecto municipal de Pamplona y como arquitecto provincial de la Diputación Foral de Navarra introducen en su obra una nueva dimensión urbana. ABSTRACT The architect Víctor Eusa (Pamplona, 1894-1990) was the central figure in architecture in Navarra for most of the 20th century. From 1920, when he finished his studies in Madrid, to his retirement in 1973, he was responsible for hundreds of buildings in Navarra, as well as occasional projects in the neighbouring provinces of Guipúzcoa, Vizcaya and Zaragoza. His career as an architect developed in parallel with the second phase of urban expansion in Pamplona. In terms of both quantity and quality, this new district can be seen as an embodiment of Eusa's work, and his most outstanding buildings form the landmarks which give character to this area. Unfortunately, Eusa's personal archive was lost in the 1970s. By collecting and analyzing the graphic information available in public archives, the author of this dissertation was able to compile a catalogue of Eusa's work and projects, which is provided in volume II. Volume I focuses on Eusa's career and the formal development of his language, starting from his academic training and tracing the successive influences that were at work during his early years as an architect: his journeys through Europe and the East, Otto Wagner and the Vienna Secession, Perret and reinforced concrete, Art-Déco and the Paris Exhibition of 1925, Dudok and the Dutch architecture represented in the magazines Wendingen and De Stijl, and many others. All of this came together in Eusa's highly personal expressionist style, based on a geometry of straight and zigzag lines, combining his favourite materials, brick and concrete. His mature period consolidated by end of the 1920s and lasted until the Spanish Civil War. After 1936, Eusa's responsibilities as municipal architect for Pamplona and later as head of architecture for Navarra enabled him to develop his talents in the area of urban design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis ≪Peter Celsing en el complejo de Sergels torg. La Casa de la Cultura de Estocolmo ≫ intenta profundizar en la obra de este autor, en sus conexiones con otras arquitecturas y arquitectos de su entorno físico y temporal, que constituye uno de los episodios más interesantes y menos conocidos de la arquitectura nórdica. El objeto particular de estudio es la Casa de la Cultura dentro del complejo de Sergels torg como pieza clave que marca un antes y un después en su trayectoria. Se observa un proceso de desarrollo constante, que se fue gestando paulatinamente, y que en este ejercicio alcanza su punto álgido. Además, los proyectos que coexistieron con su evolución, y los posteriores, filtraron las inquietudes latentes del mayor reto al que se había enfrentado, dando pie a resultados novedosos en su producción. La investigación se estructura en tres capítulos. El primero, ≪Aprendizaje≫, examina sus experiencias de juventud, viajes de estudios y lecciones de sus maestros; así como sus inicios profesionales en el proyecto de restauración de la Catedral de Uppsala y en sus iglesias junto a Lewerentz. En ese periodo prima lo formal y escultórico, el hormigón y el ladrillo artesanal, y como referencia Le Corbusier y la capilla de Ronchamp. El segundo capítulo, ≪Obra≫, estudia el concurso que da origen a la Casa de la Cultura, su proceso de gestación y diseño, y las modificaciones posteriores durante su construcción. De repente emergen las cualidades espaciales y los sistemas estructurales aprendidos de Mies en el Crown Hall de Chicago, la gran escala de la metrópoli y las soluciones industriales ligeras. El tercer capítulo, ≪Madurez≫, sirve de cierre, y revisa su trayectoria posterior con relación a la obra referida. Tras este edificio, el diseño de las propuestas coetáneas se vuelve más abstracto y sencillo, gana en autonomía, rotundidad, atrevimiento y carácter. Las conclusiones verifican el cambio de actitud y de paradigmas. Hay elementos como las distorsiones, los contrastes y las manipulaciones, aprendidas en sus primeros años de formación y junto a Lewerentz, si bien es cierto que ahora han aumentado proporcionalmente a la escala de sus intervenciones e incluso se observan en el detalle, como sucede en el encuentro de los materiales y su montaje. Su visión, su punto de vista se eleva, y la pieza adopta una volumetría compacta y unitaria. Cada nuevo trabajo sintetiza un enfoque más universal y abierto en conceptos y metodología operativa. Sus preocupaciones nos hablan de un arquitecto consciente de su tiempo y cuya arquitectura final mira ya al siglo XXI. ABSTRACT The thesis ≪Peter Celsing in the complex of Sergels torg. The House of Culture in Stockholm ≫ delves deeper into the work of this author, in his connections with other architectures and architects of his physical and temporal surroundings, which is one of the most interesting and least known episodes of Nordic architecture. The particular focus of this study is how the House of Culture, a key point within the complex of Sergels torg, marks a before and after in his career. There is an observable process of constant development, which was growing steadily, and reaches its critical point in this exercise. In addition, the projects that coexisted during his evolution and those that came before, reveal latent concerns leading up to the biggest challenge he would face, ultimately giving way to new developments in his work. The study is divided into three chapters. The first, ≪Learning≫, examines his experiences as a youth, academic trips and lessons from his masters; as well as his professional beginnings alongside Lewerentz in the restoration project of Uppsala Cathedral and his churches. In that period the formal and sculptural were given preference, also concrete and handmade brick. And as reference, there is Le Corbusier and the chapel at Ronchamp. The second chapter, ≪Work≫, studies the competition that gives rise to the House of Culture, the gestation process and design and subsequent amendments during its construction. Suddenly the spatial qualities and structural systems learned from Mies in Crown Hall of Chicago emerge, the large scale of the metropolis and light industrial solutions. The third chapter, ≪Maturity≫, serves as the closure and examines his subsequent career in relation to said work. After this building, the design of coetaneous proposals become more abstract and simple, gaining autonomy, firmness, boldness and character. The conclusions verify the change in attitudes and paradigms. There are elements such as distortions, contrasts and manipulations, learned in his early years of training and with Lewerentz, that have now undeniably increased in proportion to the scale of their involvement and can even be observed in detail, as so happens in the joining of materials and assembly. His vision, his point of view is heightened, and the piece adopts a single and compact volume. Each new work synthesizes a more universal and open focus in concepts and operational methodology. His concerns speak of an architect aware of his time and whose final architecture now looks toward the 21st century.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España se incorporó a la técnica del hormigón armado con más de dos décadas de retraso respecto a Francia o Alemania. En 1890, en Europa se construían ya estructuras de hormigón armado de cierta envergadura y complejidad. En España hubo que esperar hasta 1893 para la primera obra en hormigón armado, que fue un sencillo depósito descubierto en Puigverd (Lérida), ejecutado por el ingeniero militar Francesc Macià con patente Monier. En 1898, de la mano de Hennebique, se empezó la construcción de los dos primeros edificios con estructura de hormigón armado en España. Fueron dos obras puntuales, con proyectos importados de Francia, pero necesarias para introducir de manera definitiva el material. En paralelo, en París, se estaban edificando en hormigón armado la mayoría de los pabellones de la Exposición Universal de 1900. En el cambio de siglo, las construcciones de hormigón armado habían alcanzado ya la madurez proyectual y técnica en Europa. A pesar de la incorporación tardía, se puede constatar por las obras ejecutadas que en un periodo corto de tiempo, entre 1901 y 1906, se alcanzó en España prácticamente el mismo nivel técnico y constructivo que tenían el resto de los países que fueron pioneros en el empleo del hormigón armado. El desarrollo e implantación de una técnica constructiva no es un proceso lineal, y son muchos los factores que intervienen. Las patentes tuvieron una gran importancia en el desarrollo inicial del hormigón armado. Estas ofrecían un producto que funcionaba. Las primeras estructuras de hormigón armado no se calculaban y se construían siguiendo una reglamentación, se compraban. Y el resultado de esa “compra” solía ser, en la mayoría de los casos, satisfactorio. Las patentes vendían sistemas estructurales cuyo funcionamiento estaba corroborado por la experiencia y la pericia de su inventor. Esta investigación parte de la hipótesis de que las patentes sobre cemento y hormigón armado depositadas en España entre 1884 y 1906 fueron uno de los factores que proporcionaron a los técnicos y a las empresas españolas una pericia constructiva sólida en el empleo del hormigón armado. En este trabajo se aborda el estudio del proceso de introducción del hormigón armado en España desde una perspectiva fundamentalmente técnica, incorporando las patentes como una de las razones constructivas que explican su rápida evolución y generalización en un periodo de tiempo breve: 1901-1906. En este proceso se contextualiza y analiza una de las figuras que se considera fundamental en los primeros años del hormigón armado en España, la del ingeniero Juan Manuel de Zafra y Estevan. Esta tesis analiza las patentes de hormigón armado desde el punto de vista estadístico y constructivo. Desde ambas perspectivas se verifica la hipótesis de partida de esta investigación, concluyendo que las patentes fueron una de las razones constructivas de la evolución del hormigón armado en España y de su rápida implantación. ABSTRACT Spain incorporated the reinforced concrete technique more than two decades after France and Germany. In central Europe reinforced concrete structures of considerable size and complexity were being built in 1890, while in Spain it was not until 1893 that the first work, a simple open air water tank, was implemented in Puigverd (Lleida) by the military engineer Francesc Macià with a Monier patent. In 1898 the construction of the first two buildings with reinforced concrete structure in Spain started, with the guidance by Hennebique. They were two isolated cases with projects imported from France, but playing a key role to definitively introduce the material in Spain. In parallel, in Paris, most of the pavilions of the 1900 World Expo were being built in reinforced concrete. At the turn of the century reinforced concrete buildings had reached maturity both as a technology and as a design practice. Despite the late assumption of the material, the works carried out in the very short period between 1901 and 1906 clearly show that Spain reached practically the same technical and constructive level as the other pioneering countries in the use of reinforced concrete. The development and implementation of a constructive technique is never a linear process, there are many factors involved. The patents offered a successful product. Initial reinforced concrete structures were not calculated and built according to regulations, they were bought. And this purchase in most cases was satisfactory for the required use. Patents sold structural systems whose performance was supported by the experience and expertise of its inventor. The hypothesis of this research is based upon the assumption that the cement and concrete patents registered in Spain between 1884 and 1906 were one of the factors that provided Spanish technicians and companies with a solid constructive expertise in the use of reinforced concrete. This investigation studies the introduction of reinforced concrete to Spain from a predominantly technical perspective, incorporating patents as the constructive reason for the rapid evolution and spread in such a short period of time: 1901-1906. Along the way, the role of engineer J. M. de Zafra, generally considered a key agent in the initial years of reinforced concrete in Spain, is contextualized and analyzed. This dissertation analyzes the patents of reinforced concrete from a statistical and constructive point of view. From both perspectives the hypothesis of this research is verified, concluding that patents were one of the constructive reasons for the development of reinforced concrete in Spain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Until a few years ago, most of the network communications were based in the wire as the physical media, but due to the advances and the maturity of the wireless communications, this is changing. Nowadays wireless communications offers fast, secure, efficient and reliable connections. Mobile communications are in expansion, clearly driven by the use of smart phones and other mobile devices, the use of laptops, etc… Besides that point, the inversion in the installation and maintenance of the physical medium is much lower than in wired communications, not only because the air has no cost, but because the installation and maintenance of the wire require a high economic cost. Besides the economic cost we find that wire is a more vulnerable medium to external threats such as noise, sabotages, etc… There are two different types of wireless networks: those which the structure is part of the network itself and those which have a lack of structure or any centralization, in a way that the devices that form part of the network can connect themselves in a dynamic and random way, handling also the routing of every control and information messages, this kind of networks is known as Ad-hoc. In the present work we will proceed to study one of the multiple wireless protocols that allows mobile communications, it is Optimized Link State Routing, from now on, OLSR, it is an pro-active routing, standard mechanism that works in a distributed in order to stablish the connections among the different nodes that belong to a wireless network. Thanks to this protocol it is possible to get all the routing tables in all the devices correctly updated every moment through the periodical transmission of control messages and on this way allow a complete connectivity among the devices that are part of the network and also, allow access to other external networks such as virtual private networks o Internet. This protocol could be perfectly used in environments such as airports, malls, etc… The update of the routing tables in all the devices is got thanks to the periodical transmission of control messages and finally it will offer connectivity among all the devices and the corresponding external networks. For the study of OLSR protocol we will have the help of the network simulator “Network Simulator 2”, a freeware network simulator programmed in C++ based in discrete events. This simulator is used mainly in educational and research environments and allows a very extensive range of protocols, both, wired networks protocols and wireless network protocols, what is going to be really useful to proceed to the simulation of different configurations of networks and protocols. In the present work we will also study different simulations with Network Simulator 2, in different scenarios with different configurations, wired networks, and Ad-hoc networks, where we will study OLSR Protocol. RESUMEN. Hasta hace pocos años, la mayoría de las comunicaciones de red estaban basadas en el cable como medio físico pero debido al avance y madurez alcanzados en el campo de las comunicaciones inalámbricas esto está cambiando. Hoy día las comunicaciones inalámbricas nos ofrecen conexiones veloces, seguras, eficientes y fiables. Las comunicaciones móviles se encuentran en su momento de máxima expansión, claramente impulsadas por el uso de teléfonos y demás dispositivos móviles, el uso de portátiles, etc… Además la inversión a realizar en la instalación y el mantenimiento del medio físico en las comunicaciones móviles es muchísimo menor que en comunicaciones por cable, ya no sólo porque el aire no tenga coste alguno, sino porque la instalación y mantenimiento del cable precisan de un elevado coste económico por norma. Además del coste económico nos encontramos con que es un medio más vulnerable a amenazas externas tales como el ruido, escuchas no autorizadas, sabotajes, etc… Existen dos tipos de redes inalámbricas: las constituidas por una infraestructura que forma parte más o menos de la misma y las que carecen de estructura o centralización alguna, de modo que los dispositivos que forman parte de ella pueden conectarse de manera dinámica y arbitraria entre ellos, encargándose además del encaminamiento de todos los mensajes de control e información, a este tipo de redes se las conoce como redes Ad-hoc. En el presente Proyecto de Fin de Carrera se procederá al estudio de uno de los múltiples protocolos inalámbricos que permiten comunicaciones móviles, se trata del protocolo inalámbrico Optimized Link State Routing, de ahora en adelante OLSR, un mecanismo estándar de enrutamiento pro-activo, que trabaja de manera distribuida para establecer las conexiones entre los nodos que formen parte de las redes inalámbricas Ad-hoc, las cuales carecen de un nodo central y de una infraestructura pre-existente. Gracias a este protocolo es posible conseguir que todos los equipos mantengan en todo momento las tablas de ruta actualizadas correctamente mediante la transmisión periódica de mensajes de control y así permitir una completa conectividad entre todos los equipos que formen parte de la red y, a su vez, también permitir el acceso a otras redes externas tales como redes privadas virtuales o Internet. Este protocolo sería usado en entornos tales como aeropuertos La actualización de las tablas de enrutamiento de todos los equipos se conseguirá mediante la transmisión periódica de mensajes de control y así finalmente se podrá permitir conectividad entre todos los equipos y con las correspondientes redes externas. Para el estudio del protocolo OLSR contaremos con el simulador de redes Network Simulator 2, un simulador de redes freeware programado en C++ basado en eventos discretos. Este simulador es usado principalmente en ambientes educativos y de investigación y permite la simulación tanto de protocolos unicast como multicast. El campo donde más se utiliza es precisamente en el de la investigación de redes móviles Ad-hoc. El simulador Network Simulator 2 no sólo implementa el protocolo OLSR, sino que éste implementa una amplia gama de protocolos, tanto de redes cableadas como de redes inalámbricas, lo cual va a sernos de gran utilidad para proceder a la simulación de distintas configuraciones de redes y protocolos. En el presente Proyecto de Fin de Carrera se estudiarán también diversas simulaciones con el simulador NS2 en diferentes escenarios con diversas configuraciones; redes cableadas, redes inalámbricas Ad-hoc, donde se estudiará el protocolo antes mencionado: OLSR. Este Proyecto de Fin de Carrera consta de cuatro apartados distintos: Primeramente se realizará el estudio completo del protocolo OLSR, se verán los beneficios y contrapartidas que ofrece este protocolo inalámbrico. También se verán los distintos tipos de mensajes existentes en este protocolo y unos pequeños ejemplos del funcionamiento del protocolo OLSR. Seguidamente se hará una pequeña introducción al simulador de redes Network Simulator 2, veremos la historia de este simulador, y también se hará referencia a la herramienta extra NAM, la cual nos permitirá visualizar el intercambio de paquetes que se produce entre los diferentes dispositivos de nuestras simulaciones de forma intuitiva y amigable. Se hará mención a la plataforma MASIMUM, encargada de facilitar en un entorno académico software y documentación a sus alumnos con el fin de facilitarles la investigación y la simulación de redes y sensores Ad-hoc. Finalmente se verán dos ejemplos, uno en el que se realizará una simulación entre dos PCs en un entorno Ethernet y otro ejemplo en el que se realizará una simulación inalámbrica entre cinco dispositivos móviles mediante el protocolo a estudiar, OLSR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El “shale gas” es un gas no convencional que actualmente se está considerando como una fuente de energía primaria en el momento en que las reservas del petróleo y gas natural convencionales se agoten, razón por la que muchos países están interesados. No obstante, el procedimiento de extracción es complejo y conlleva muchos riesgos de contaminación. En este Proyecto Fin de Carrera se hace un estudio de las posibilidades de extracción en el futuro de “shale gas” o “shale oil” en la Cuenca del Guadiato. Para ello se evaluó el contenido de materia orgánica, el tipo y la madurez en muestras de la serie estratigráfica tipo del Carbonífero. Únicamente 3 niveles presentaban materia orgánica madura, que tendrían escaso potencial para extraer gas, descartándose la extracción de “shale oil”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto de una tienda concentra un poco de todo aquello que interesa al arquitecto: conforma una suerte de encrucijada en la que se dan cita, junto a cuestiones disciplinares que la hacen muy atractiva y ponen a prueba su habilidad como proyectista, la necesidad de aunar recursos compositivos procedentes de otros terrenos periféricos a la arquitectura para dar una respuesta adecuada a los requerimientos específicos de imagen y persuasión que la actividad comercial comporta. Las difíciles condiciones de partida, habitualmente configuraciones espaciales no excesivamente favorables, donde las preexistencias y los contornos coartan y encierran un espacio al que hay que dotar de un nuevo orden; el tamaño reducido y las posibilidades de control total de la obra que de éste se derivan; el corto plazo de tiempo y la rapidez de respuesta que la estrategia comercial impone; su posición estratégica, en relación directa con la calle, y la mayor evidencia que, por tanto, se le asigna a la fachada y al escaparate como ‘primeros anuncios’ de la actividad; la integración y el comentario recíproco entre arquitectura y objeto que tiene lugar en su seno…, son algunas de las razones que explican este interés y justifican que la tienda −ese espacio acotado tan apto para el invento y la innovación−, constituya un banco de pruebas donde poder ensayar nuevos conceptos de la arquitectura al reunir espacial y temporalmente los condicionantes ideales requeridos para la experimentación y la comprobación de hallazgos. Aunque escasas, existen en la arquitectura contemporánea tiendas que han logrado ocupar por méritos propios un lugar destacado dentro de la obra de sus autores. Entre las merecedoras de ese reconocimiento habría que citar la ‘mítica’ sastrería Kniže proyectada por Adolf Loos a comienzos del siglo XX en Viena, el Negozio Vitrum que Giuseppe Terragni diseñara en Como en los años treinta, o la sucursal londinense de las líneas aéreas de Iraq construida en los sesenta por Alison y Peter Smithson. La elección, lejos de ser gratuita, obedece a razones fundadas. Dentro de las circunstancias temporales en las que se gestaron −las tres fueron proyectadas y construidas a lo largo del pasado siglo en un arco que abarca algo más de cincuenta años (1907-1961)−, los ejemplos seleccionados aúnan toda una serie de ‘coincidencias’ entre las que no resulta difícil establecer ciertos paralelismos: las tres marcan la talla de unos creadores que fueron capaces de dedicar la misma intensidad creativa a estos temas ‘menores’, corroborando que el carácter de la arquitectura también puede hacerse grande en lo pequeño; las tres, debido al momento de madurez en el que se abordó su diseño, reflejan su condición de laboratorio experimental al servicio de los intereses proyectuales que en ese momento ocupaban la mente de los arquitectos; las tres corroboran hipótesis ya apuntadas en arquitecturas anteriores, prueban líneas de trabajo no materializadas por falta de oportunidad y testan de manera menos comprometida soluciones que luego se trasladarán a obras con mayor vocación de permanencia; obras −y esto es algo especialmente sorprendente− con las que mantuvieron una estrecha relación en el espacio y en el tiempo, convirtiéndose incluso en plataformas de experimentación paralelas: baste en este sentido con apuntar la cercanía física −a ‘metros’ de distancia− y temporal −realizadas en los mismos años− entre la sastrería Kniže (1907- 1913;1928) y la Casa en la Michaelerplatz (1910-11); la tienda Vitrum (1930) y la Casa del Fascio (1929; 1932-36) o las oficinas de venta de las Iraqi Airways (1960-61) y la sede del The Economist (1959-64). Esta potencialidad que la tienda encierra para erigirse en laboratorio de experimentación y ensayo de la arquitectura, constituye la clave de la investigación que la tesis propone. ABSTRACT A little of everything that interests the architect is concentrated in the designing of a shop: it forms a kind of crossroads bringing together, apart from certain disciplinary questions rendering it particularly attractive and testing one’s ability as a designer, the need to coordinate compositional resources from fields peripheral to architecture in order to devise an adequate response to the specific requirements of image and persuasion that are part and parcel of business activity. The difficult start-up conditions, the generally not overly favourable spatial configurations ‒where the pre-existing conditions and shape of the site encroach on and enclose a space which has to be given a new order‒, the reduced size and possibilities afforded in terms of controlling the work, the short time frame and the rapid response imposed by the business tactics and its strategic position and direct frontal relationship with the street, make the shopfront and the display window are the ‘first advertisements” of the activity, or the integration and the reciprocal commentary between architecture and what takes place within: these are but some of the reasons explaining this interest and justifying the claim that the shop –a dimensional space so well suited to invention and innovation− constitutes a test-bed for trying out new concepts of architecture, combining in space and time the ideal conditions for experiment and the examination of its findings. Albeit not numerous, there are shops in contemporary architecture which have managed on their own merit to obtain a special place among the works of their authors. Among those earning such recognition, one should mention the ‘mythical’ Kniže tailoring establishment designed by Adolf Loos at the beginning of the 20th century in Vienna, the Negozio Vitrum designed by Giuseppe Terragni in Como in the thirties, or the London offices of Iraqi Airways built in the sixties by Alison and Peter Smithson. This selection, far from gratuitous, is based on well-founded reasons. Within the circumstances of the time-frame in which they were developed −the three were designed and built during the 20th century in a period that spans just over fifty years (1907-1961)− the chosen examples bring together a whole series of ‘coincidences’ where it is not difficult to draw certain parallels: the three bear witness to the stature of creators who were capable of devoting the same creative intensity to these ‘minor’ themes, thus corroborating the fact that the nature of the architecture can also be great in less important works; the three, thanks to the moment of maturity in which their design was carried out, reflect their condition as an experimental laboratory at the service of the particular designing interests which at the time occupied the minds of these architects; the three confirm hypotheses already displayed in previous architectures, they test lines of work which had not materialised through lack of opportunity, and in a less comprised manner check solutions that were later transferred to works with a greater vocation for permanence; works −and this is something especially surprising – with which they maintained a close relationship in time and space, even becoming parallel experimental platforms: in this sense, we need only to mention the physical proximity –just metres away− and proximity in time –built within the same years− between the Kniže shop (1907-1913; 1928) and the House of Michaelerplatz (1910-11); the Vitrum shop (1930) and the Casa del Fascio (1929;1932-36); and the Iraqi Airways sales offices (1960-61) and the headquarters of The Economist (1959-64). The potential of the shop to set itself up as an experimental laboratory and architectural rehearsal constitutes the main focus of the research put forward by this thesis.