14 resultados para new in ILL units

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La relación entre la estructura urbana y la movilidad ha sido estudiada desde hace más de 70 años. El entorno urbano incluye múltiples dimensiones como por ejemplo: la estructura urbana, los usos de suelo, la distribución de instalaciones diversas (comercios, escuelas y zonas de restauración, parking, etc.). Al realizar una revisión de la literatura existente en este contexto, se encuentran distintos análisis, metodologías, escalas geográficas y dimensiones, tanto de la movilidad como de la estructura urbana. En este sentido, se trata de una relación muy estudiada pero muy compleja, sobre la que no existe hasta el momento un consenso sobre qué dimensión del entorno urbano influye sobre qué dimensión de la movilidad, y cuál es la manera apropiada de representar esta relación. Con el propósito de contestar estas preguntas investigación, la presente tesis tiene los siguientes objetivos generales: (1) Contribuir al mejor entendimiento de la compleja relación estructura urbana y movilidad. y (2) Entender el rol de los atributos latentes en la relación entorno urbano y movilidad. El objetivo específico de la tesis es analizar la influencia del entorno urbano sobre dos dimensiones de la movilidad: número de viajes y tipo de tour. Vista la complejidad de la relación entorno urbano y movilidad, se pretende contribuir al mejor entendimiento de la relación a través de la utilización de 3 escalas geográficas de las variables y del análisis de la influencia de efectos inobservados en la movilidad. Para el análisis se utiliza una base de datos conformada por tres tipos de datos: (1) Una encuesta de movilidad realizada durante los años 2006 y 2007. Se obtuvo un total de 943 encuestas, en 3 barrios de Madrid: Chamberí, Pozuelo y Algete. (2) Información municipal del Instituto Nacional de Estadística: dicha información se encuentra enlazada con los orígenes y destinos de los viajes recogidos en la encuesta. Y (3) Información georeferenciada en Arc-GIS de los hogares participantes en la encuesta: la base de datos contiene información respecto a la estructura de las calles, localización de escuelas, parking, centros médicos y lugares de restauración. Se analizó la correlación entre e intra-grupos y se modelizaron 4 casos de atributos bajo la estructura ordinal logit. Posteriormente se evalúa la auto-selección a través de la estimación conjunta de las elecciones de tipo de barrio y número de viajes. La elección del tipo de barrio consta de 3 alternativas: CBD, Urban y Suburban, según la zona de residencia recogida en las encuestas. Mientras que la elección del número de viajes consta de 4 categorías ordinales: 0 viajes, 1-2 viajes, 3-4 viajes y 5 o más viajes. A partir de la mejor especificación del modelo ordinal logit. Se desarrolló un modelo joint mixed-ordinal conjunto. Los resultados indican que las variables exógenas requieren un análisis exhaustivo de correlaciones con el fin de evitar resultados sesgados. ha determinado que es importante medir los atributos del BE donde se realiza el viaje, pero también la información municipal es muy explicativa de la movilidad individual. Por tanto, la percepción de las zonas de destino a nivel municipal es considerada importante. En el contexto de la Auto-selección (self-selection) es importante modelizar conjuntamente las decisiones. La Auto-selección existe, puesto que los parámetros estimados conjuntamente son significativos. Sin embargo, sólo ciertos atributos del entorno urbano son igualmente importantes sobre la elección de la zona de residencia y frecuencia de viajes. Para analizar la Propensión al Viaje, se desarrolló un modelo híbrido, formado por: una variable latente, un indicador y un modelo de elección discreta. La variable latente se denomina “Propensión al Viaje”, cuyo indicador en ecuación de medida es el número de viajes; la elección discreta es el tipo de tour. El modelo de elección consiste en 5 alternativas, según la jerarquía de actividades establecida en la tesis: HOME, no realiza viajes durante el día de estudio, HWH tour cuya actividad principal es el trabajo o estudios, y no se realizan paradas intermedias; HWHs tour si el individuo reaiza paradas intermedias; HOH tour cuya actividad principal es distinta a trabajo y estudios, y no se realizan paradas intermedias; HOHs donde se realizan paradas intermedias. Para llegar a la mejor especificación del modelo, se realizó un trabajo importante considerando diferentes estructuras de modelos y tres tipos de estimaciones. De tal manera, se obtuvieron parámetros consistentes y eficientes. Los resultados muestran que la modelización de los tours, representa una ventaja sobre la modelización de los viajes, puesto que supera las limitaciones de espacio y tiempo, enlazando los viajes realizados por la misma persona en el día de estudio. La propensión al viaje (PT) existe y es específica para cada tipo de tour. Los parámetros estimados en el modelo híbrido resultaron significativos y distintos para cada alternativa de tipo de tour. Por último, en la tesis se verifica que los modelos híbridos representan una mejora sobre los modelos tradicionales de elección discreta, dando como resultado parámetros consistentes y más robustos. En cuanto a políticas de transporte, se ha demostrado que los atributos del entorno urbano son más importantes que los LOS (Level of Service) en la generación de tours multi-etapas. la presente tesis representa el primer análisis empírico de la relación entre los tipos de tours y la propensión al viaje. El concepto Propensity to Travel ha sido desarrollado exclusivamente para la tesis. Igualmente, el desarrollo de un modelo conjunto RC-Number of trips basado en tres escalas de medida representa innovación en cuanto a la comparación de las escalas geográficas, que no había sido hecha en la modelización de la self-selection. The relationship between built environment (BE) and travel behaviour (TB) has been studied in a number of cases, using several methods - aggregate and disaggregate approaches - and different focuses – trip frequency, automobile use, and vehicle miles travelled and so on. Definitely, travel is generated by the need to undertake activities and obtain services, and there is a general consensus that urban components affect TB. However researches are still needed to better understand which components of the travel behaviour are affected most and by which of the urban components. In order to fill the gap in the research, the present dissertation faced two main objectives: (1) To contribute to the better understanding of the relationship between travel demand and urban environment. And (2) To develop an econometric model for estimating travel demand with urban environment attributes. With this purpose, the present thesis faced an exhaustive research and computation of land-use variables in order to find the best representation of BE for modelling trip frequency. In particular two empirical analyses are carried out: 1. Estimation of three dimensions of travel demand using dimensions of urban environment. We compare different travel dimensions and geographical scales, and we measure self-selection contribution following the joint models. 2. Develop a hybrid model, integrated latent variable and discrete choice model. The implementation of hybrid models is new in the analysis of land-use and travel behaviour. BE and TB explicitly interact and allow richness information about a specific individual decision process For all empirical analysis is used a data-base from a survey conducted in 2006 and 2007 in Madrid. Spatial attributes describing neighbourhood environment are derived from different data sources: National Institute of Statistics-INE (Administrative: municipality and district) and GIS (circular units). INE provides raw data for such spatial units as: municipality and district. The construction of census units is trivial as the census bureau provides tables that readily define districts and municipalities. The construction of circular units requires us to determine the radius and associate the spatial information to our households. The first empirical part analyzes trip frequency by applying an ordered logit model. In this part is studied the effect of socio-economic, transport and land use characteristics on two travel dimensions: trip frequency and type of tour. In particular the land use is defined in terms of type of neighbourhoods and types of dwellers. Three neighbourhood representations are explored, and described three for constructing neighbourhood attributes. In particular administrative units are examined to represent neighbourhood and circular – unit representation. Ordered logit models are applied, while ordinal logit models are well-known, an intensive work for constructing a spatial attributes was carried out. On the other hand, the second empirical analysis consists of the development of an innovative econometric model that considers a latent variable called “propensity to travel”, and choice model is the choice of type of tour. The first two specifications of ordinal models help to estimate this latent variable. The latent variable is unobserved but the manifestation is called “indicators”, then the probability of choosing an alternative of tour is conditional to the probability of latent variable and type of tour. Since latent variable is unknown we fit the integral over its distribution. Four “sets of best variables” are specified, following the specification obtained from the correlation analysis. The results evidence that the relative importance of SE variables versus BE variables depends on how BE variables are measured. We found that each of these three spatial scales has its intangible qualities and drawbacks. Spatial scales play an important role on predicting travel demand due to the variability in measures at trip origin/destinations within the same administrative unit (municipality, district and so on). Larger units will produce less variation in data; but it does not affect certain variables, such as public transport supply, that are more significant at municipality level. By contrast, land-use measures are more efficient at district level. Self-selection in this context, is weak. Thus, the influence of BE attributes is true. The results of the hybrid model show that unobserved factors affect the choice of tour complexity. The latent variable used in this model is propensity to travel that is explained by socioeconomic aspects and neighbourhood attributes. The results show that neighbourhood attributes have indeed a significant impact on the choice of the type of tours either directly and through the propensity to travel. The propensity to travel has a different impact depending on the structure of each tour and increases the probability of choosing more complex tours, such as tours with many intermediate stops. The integration of choice and latent variable model shows that omitting important perception and attitudes leads to inconsistent estimates. The results also indicate that goodness of fit improves by adding the latent variable in both sequential and simultaneous estimation. There are significant differences in the sensitivity to the latent variable across alternatives. In general, as expected, the hybrid models show a major improvement into the goodness of fit of the model, compared to a classical discrete choice model that does not incorporate latent effects. The integrated model leads to a more detailed analysis of the behavioural process. Summarizing, the effect that built environment characteristics on trip frequency studied is deeply analyzed. In particular we tried to better understand how land use characteristics can be defined and measured and which of these measures do have really an impact on trip frequency. We also tried to test the superiority of HCM on this field. We can concluded that HCM shows a major improvement into the goodness of fit of the model, compared to classical discrete choice model that does not incorporate latent effects. And consequently, the application of HCM shows the importance of LV on the decision of tour complexity. People are more elastic to built environment attributes than level of services. Thus, policy implications must take place to develop more mixed areas, work-places in combination with commercial retails.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Phase changing flows are being considered for thermal management in space platforms. The resulting flow patterns are very complicated and extremely sensitive to gravity action. Concerning fluid flow in ducts, the available evidence indicates that although the pressure loss does not depend too much on the fluid flow pattern,the heat transfer (and resulting phase change) does. A simple exercise to illustrate this point is presented in this paper. It deals with condensing flow in straight circular cross-sectional ducts. Two extreme configurations are considered here, one corresponds to a stratified flow and the other to an annular flow. Both types of flow patterns have been extensively considered in the past and from this point of view almost nothing is new in the paper, but past results look conflictive and this could be due to the limitations and computational intricacies of the models used. Thus the problem has been reformulated from the onset and the results are presented as the evolution of the vapor quality (vapor to total mass flow rate) along the duct, in typical cases. The results presented here indicate that within the validity of the present models and the assumed ranges of mass flow rate, duct diameter, thermal conditions and fluid characteristics,the length of the ducts required to achieve complete condensation under zero gravity are an order of magnitude larger than in horizontal tubes under normal terrestrial conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mealiness is a textural attribute related to an internal fruit disorder that involves quality loss. It is characterised by the combination of abnormal softness of the fruit and absence of free juiciness in the mouth when eaten by the consumer. Recent research concluded with the development of precise instrumental procedure to measure a scale of mealiness based on the combination of several rheological properties and empirical magnitudes. In this line, time-domain laser reflectance spectroscopy (TDRS) is a medical technology, new in agrofood research, which is capable of obtaining physical and chemical information independently and simultaneously, and this can be of interest to characterise mealiness. Using VIS & NIR lasers as light sources, TDRS was applied in this work to Golden Delicious and Cox apples (n=90), conforming several batches of untreated samples and storage-treated (20°C & 95%RH) to promote the development of mealiness. The collected database was clustered into different groups according to their instrumental test values (Barreiro et al, 1998). The optical coefficients were used as explanatory variables when building discriminant analysis functions for mealiness, achieving a classification score above 80% of correctly identified mealy versus fresh apples.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis estudia las similitudes y diferencias entre los flujos turbulentos de pared de tipo externo e interno, en régimen incompresible, y a números de Reynolds moderada¬mente altos. Para ello consideramos tanto simulaciones numéricas como experimentos de capas límites con gradiente de presiones nulo y de flujos de canal, ambos a números de Reynolds en el rango δ+ ~ 500 - 2000. Estos flujos de cortadura son objeto de numerosas investigaciones debido a la gran importancia que tienen tanto a nivel tecnológico como a nivel de física fundamental. No obstante, todavía existen muchos interrogantes sobre aspectos básicos tales como la universalidad de los perfiles medios y de fluctuación de las velocidades o de la presión, tanto en la zona cercana a la pared como en la zona logarítmica, el escalado y el efecto del número de Reynolds, o las diferencias entre los flujos internos y externos en la zona exterior. En éste estudio hemos utilizado simulaciones numéricas ya existentes de canales y capas límites a números de Reynolds δ+ ~ 2000 y δ+ ~ 700, respectivamente. Para poder comparar ambos flujos a igual número de Reynolds hemos realizado una nueva simulación directa de capa límite en el rango δ+ ~ 1000-2000. Los resultados de la misma son presentados y analizados en detalle. Los datos sin postprocesar y las estadísticas ya postprocesadas están públicamente disponibles en nuestro sitio web.162 El análisis de las estadísticas usando un único punto confirma la existencia de perfiles logarítmicos para las fluctuaciones de la velocidad transversal w'2+ y de la presión p'2+ en ambos tipos de flujos, pero no para la velocidad normal v'2+ o la velocidad longitudinal u'2+. Para aceptar o rechazar la existencia de un rango logarítmico en u'2+ se requieren números de Reynolds más altos que los considerados en éste trabajo. Una de las conse¬cuencias más importantes de poseer tales perfiles es que el valor máximo de la intensidad, que se alcanza cerca de la pared, depende explícitamente del número de Reynolds. Esto ha sido confirmado tras analizar un gran número de datos experimentales y numéricos, cor¬roborando que el máximo de u'2+, p/2+, y w'2+ aumenta proporcionalmente con el log(δ+). Por otro lado, éste máximo es más intenso en los flujos externos que en los internos. La máxima diferencia ocurre en torno a y/δ ~ 0.3-0.5, siendo esta altura prácticamente independiente del número de Reynolds considerado. Estas diferencias se originan como consecuencia del carácter intermitente de las capas límites, que es inexistente en los flujos internos. La estructura de las fluctuaciones de velocidad y de presión, junto con la de los esfuer¬zos de Reynolds, se han investigado por medio de correlaciones espaciales tridimensionales considerando dos puntos de medida. Hemos obtenido que el tamaño de las mismas es gen¬eralmente mayor en canales que en capas límites, especialmente en el caso de la correlación longitudinal Cuu en la dirección del flujo. Para esta correlación se demuestra que las es¬tructuras débilmente correladas presentan longitudes de hasta 0(75), en el caso de capas límites, y de hasta 0(185) en el caso de canales. Estas longitudes se obtienen respecti-vamente en la zona logarítmica y en la zona exterior. Las longitudes correspondientes en la dirección transversal son significativamente menores en ambos flujos, 0(5 — 25). La organización espacial de las correlaciones es compatible con la de una pareja de rollos casi paralelos con dimensiones que escalan en unidades exteriores. Esta organización se mantiene al menos hasta y ~ 0.65, altura a la cual las capas límites comienzan a organi¬zarse en rollos transversales. Este comportamiento es sin embargo más débil en canales, pudiéndose observar parcialmente a partir de y ~ 0.85. Para estudiar si estas estructuras están onduladas a lo largo de la dirección transver¬sal, hemos calculado las correlaciones condicionadas a eventos intensos de la velocidad transversal w'. Estas correlaciones revelan que la ondulación de la velocidad longitudinal aumenta conforme nos alejamos de la pared, sugiriendo que las estructuras están más alineadas en la zona cercana a la pared que en la zona lejana a ella. El por qué de esta ondulación se encuentra posiblemente en la configuración a lo largo de diagonales que presenta w'. Estas estructuras no sólo están onduladas, sino que también están inclinadas respecto a la pared con ángulos que dependen de la variable considerada, de la altura, y de el contorno de correlación seleccionado. Por encima de la zona tampón e independien¬temente del número de Reynolds y tipo de flujo, Cuu presenta una inclinación máxima de unos 10°, las correlaciones Cvv y Cm son esencialmente verticales, y Cww está inclinada a unos 35°. Summary This thesis studies the similitudes and differences between external and internal in¬compressible wall-bounded turbulent flows at moderately-high Reynolds numbers. We consider numerical and experimental zero-pressure-gradient boundary layers and chan¬nels in the range of δ+ ~ 500 — 2000. These shear flows are subjects of intensive research because of their technological importance and fundamental physical interest. However, there are still open questions regarding basic aspects such as the universality of the mean and fluctuating velocity and pressure profiles at the near-wall and logarithmic regions, their scaling and the effect of the Reynolds numbers, or the differences between internal and external flows at the outer layer, to name but a few. For this study, we made use of available direct numerical simulations of channel and boundary layers reaching δ+ ~ 2000 and δ+ ~ 700, respectively. To fill the gap in the Reynolds number, a new boundary layer simulation in the range δ+ ~ 1000-2000 is presented and discussed. The original raw data and the post-processed statistics are publicly available on our website.162 The analysis of the one-point statistic confirms the existence of logarithmic profiles for the spanwise w'2+ and pressure p'2+ fluctuations for both type of flows, but not for the wall-normal v'2+ or the streamwise u'2+ velocities. To accept or reject the existence of a logarithmic range in u'2+ requires higher Reynolds numbers than the ones considered in this work. An important consequence of having such profiles is that the maximum value of the intensities, reached near the wall, depends on the Reynolds number. This was confirmed after surveying a wide number of experimental and numerical datasets, corrob¬orating that the maximum of ul2+, p'2+, and w'2+ increases proportionally to log(δ+). On the other hand, that maximum is more intense in external flows than in internal ones, differing the most around y/δ ~ 0.3-0.5, and essentially independent of the Reynolds number. We discuss that those differences are originated as a consequence of the inter¬mittent character of boundary layers that is absent in internal flows. The structure of the velocity and pressure fluctuations, together with those of the Reynolds shear stress, were investigated using three-dimensional two-point spatial correlations. We find that the correlations extend over longer distances in channels than in boundary layers, especially in the case of the streamwise correlation Cuu in the flow direc-tion. For weakly correlated structures, the maximum streamwise length of Cuu is O(78) for boundary layers and O(188) for channels, attained at the logarithmic and outer regions respectively. The corresponding lengths for the transverse velocities and for the pressure are shorter, 0(8 — 28), and of the same order for both flows. The spatial organization of the velocity correlations is shown to be consistent with a pair of quasi-streamwise rollers that scales in outer units. That organization is observed until y ~ 0.68, from which boundary layers start to organize into spanwise rollers. This effect is weaker in channels, and it appears at y ~ 0.88. We present correlations conditioned to intense events of the transversal velocity, w', to study if these structures meander along the spanwise direction. The results indicate that the streamwise velocity streaks increase their meandering proportionally to the distance to the wall, suggesting that the structures are more aligned close to the wall than far from it. The reason behind this meandering is probably due to the characteristic organization along diagonals of w'. These structures not only meander along the spanwise direction, but they are also inclined to the wall at angles that depend on the distance from the wall, on the variable being considered, and on the correlation level used to define them. Above the buffer layer and independent of the Reynolds numbers and type of flow, the maximum inclination of Cuu is about 10°, Cvv and Cpp are roughly vertical, and Cww is inclined by 35°.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A new method is presented to generate reduced order models (ROMs) in Fluid Dynamics problems of industrial interest. The method is based on the expansion of the flow variables in a Proper Orthogonal Decomposition (POD) basis, calculated from a limited number of snapshots, which are obtained via Computational Fluid Dynamics (CFD). Then, the POD-mode amplitudes are calculated as minimizers of a properly defined overall residual of the equations and boundary conditions. The method includes various ingredients that are new in this field. The residual can be calculated using only a limited number of points in the flow field, which can be scattered either all over the whole computational domain or over a smaller projection window. The resulting ROM is both computationally efficient(reconstructed flow fields require, in cases that do not present shock waves, less than 1 % of the time needed to compute a full CFD solution) and flexible(the projection window can avoid regions of large localized CFD errors).Also, for problems related with aerodynamics, POD modes are obtained from a set of snapshots calculated by a CFD method based on the compressible Navier Stokes equations and a turbulence model (which further more includes some unphysical stabilizing terms that are included for purely numerical reasons), but projection onto the POD manifold is made using the inviscid Euler equations, which makes the method independent of the CFD scheme. In addition, shock waves are treated specifically in the POD description, to avoid the need of using a too large number of snapshots. Various definitions of the residual are also discussed, along with the number and distribution of snapshots, the number of retained modes, and the effect of CFD errors. The method is checked and discussed on several test problems that describe (i) heat transfer in the recirculation region downstream of a backwards facing step, (ii) the flow past a two-dimensional airfoil in both the subsonic and transonic regimes, and (iii) the flow past a three-dimensional horizontal tail plane. The method is both efficient and numerically robust in the sense that the computational effort is quite small compared to CFD and results are both reasonably accurate and largely insensitive to the definition of the residual, to CFD errors, and to the CFD method itself, which may contain artificial stabilizing terms. Thus, the method is amenable for practical engineering applications. Resumen Se presenta un nuevo método para generar modelos de orden reducido (ROMs) aplicado a problemas fluidodinámicos de interés industrial. El nuevo método se basa en la expansión de las variables fluidas en una base POD, calculada a partir de un cierto número de snapshots, los cuales se han obtenido gracias a simulaciones numéricas (CFD). A continuación, las amplitudes de los modos POD se calculan minimizando un residual global adecuadamente definido que combina las ecuaciones y las condiciones de contorno. El método incluye varios ingredientes que son nuevos en este campo de estudio. El residual puede calcularse utilizando únicamente un número limitado de puntos del campo fluido. Estos puntos puede encontrarse dispersos a lo largo del dominio computacional completo o sobre una ventana de proyección. El modelo ROM obtenido es tanto computacionalmente eficiente (en aquellos casos que no presentan ondas de choque reconstruir los campos fluidos requiere menos del 1% del tiempo necesario para calcular una solución CFD) como flexible (la ventana de proyección puede escogerse de forma que evite contener regiones con errores en la solución CFD localizados y grandes). Además, en problemas aerodinámicos, los modos POD se obtienen de un conjunto de snapshots calculados utilizando un código CFD basado en la versión compresible de las ecuaciones de Navier Stokes y un modelo de turbulencia (el cual puede incluir algunos términos estabilizadores sin sentido físico que se añaden por razones puramente numéricas), aunque la proyección en la variedad POD se hace utilizando las ecuaciones de Euler, lo que hace al método independiente del esquema utilizado en el código CFD. Además, las ondas de choque se tratan específicamente en la descripción POD para evitar la necesidad de utilizar un número demasiado grande de snapshots. Varias definiciones del residual se discuten, así como el número y distribución de los snapshots,el número de modos retenidos y el efecto de los errores debidos al CFD. El método se comprueba y discute para varios problemas de evaluación que describen (i) la transferencia de calor en la región de recirculación aguas abajo de un escalón, (ii) el flujo alrededor de un perfil bidimensional en regímenes subsónico y transónico y (iii) el flujo alrededor de un estabilizador horizontal tridimensional. El método es tanto eficiente como numéricamente robusto en el sentido de que el esfuerzo computacional es muy pequeño comparado con el requerido por el CFD y los resultados son razonablemente precisos y muy insensibles a la definición del residual, los errores debidos al CFD y al método CFD en sí mismo, el cual puede contener términos estabilizadores artificiales. Por lo tanto, el método puede utilizarse en aplicaciones prácticas de ingeniería.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Predictions about electric energy needs, based on current electric energy models, forecast that the global energy consumption on Earth for 2050 will double present rates. Using distributed procedures for control and integration, the expected needs can be halved. Therefore implementation of Smart Grids is necessary. Interaction between final consumers and utilities is a key factor of future Smart Grids. This interaction is aimed to reach efficient and responsible energy consumption. Energy Residential Gateways (ERG) are new in-building devices that will govern the communication between user and utility and will control electric loads. Utilities will offer new services empowering residential customers to lower their electric bill. Some of these services are Smart Metering, Demand Response and Dynamic Pricing. This paper presents a practical development of an ERG for residential buildings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente ensayo pretende aportar una reflexión sobre el amplio territorio de la imagen en la arquitectura hoy. Para ello un buen ejemplo es el proyecto del Rascacielos de la Friedrichstrasse, realizado por Mies van der Rohe en el periodo de entre guerras de 1921/22. Muchas son las razones que han hecho de esta obra la elegida, pero una más actual sobresale del resto: que de los cientos de ensayos vertidos sobre esta obra solo se haya comentado -salvo alguna excepción- las características objetuales de lo directamente descrito por las vistas -como si fuera un fiel reflejo de la realidad- sin entrar a analizar la verdadera naturaleza física y simbólica de lo representado como expresión subjetiva –espacial- de una arquitectura. Si su importancia como punto de inflexión en el desarrollo inicial de una obra plenamente moderna es un motivo más que suficiente para dedicarle un estudio pormenorizado, ya que puede resultar crucial para comprender los inicios del autor en el Movimiento Moderno. Su presencia como un reducido conjunto de cuatro vistas perspectivas, mezcla de una fotografía del lugar y de un dibujo realizado sobre la misma, acarrea en nuestra opinión significaciones igual de importantes para la comprensión de esta arquitectura que todas aquellas ideas descritas sobre las mismas. Creadas en una época seminal, cuando el lenguaje de la fotografía y el cine están en pleno desarrollo, se puede afirmar que el conjunto de representaciones del Rascacielos de la Friedrichstrasse forman parte como referente histórico de una de las primeras arquitecturas virtuales que pertenecen de pleno derecho al Movimiento Moderno. Paradigma de las más absoluta actualidad, por encontrarse en esa frontera de lo nunca realizado, pero sí asumible espacialmente como realidad fotográfica, las imágenes del rascacielos se pueden considerar así como una de las primeras reflexiones sobre la naturaleza virtual del proyecto arquitectónico postindustrial. No siendo novedoso que la descripción fotográfica de una obra absorba y comunique por sí misma las múltiples propiedades que esta posee, como tampoco lo es que la mayoría de arquitecturas se den por conocidas actualmente a través de los medios. Sorprende que hasta hoy no se hayan analizado con la misma intensidad las múltiples razones que dieron lugar a unas imágenes cuya poética da forma por igual a la arquitectura que representan. Si la intención es reflexionar así sobre este hecho contemporáneo mediante un ejemplo paradigmático, certificado por la historia, nos veremos obligados a emplear una metodología acorde a la condición dual que toda imagen mediatizada produce en su lectura como mezcla fluctuante entre lo que se interpreta de manera autónoma a través de lo representado y de los significados que la imagen adquiere a lo largo de su recorrido como referente histórico. Esta ambivalencia interpretativa llevará a organizar este ensayo mediante dos bloques claramente diferenciados que, complementarios entre sí, siguen el orden de lectura que toda imagen de una arquitectura ofrece a través de los medios. Así, una primera parte, titulada La imagen de una arquitectura, analiza la interpretación que la historia y el autor han dado al rascacielos por medio de su uso en las diferentes exposiciones, revistas, tratados de estilos y monografías de las que ha formado parte. Este recorrido, que es el verdadero espacio donde estas arquitecturas residen, limitado -por una cuestión de poner orden- al estudio a los países que acogieron en vida al autor, servirá para establecer una primera narrativa que expone las diferentes posiciones que la crítica ha producido a lo largo del tiempo. La presencia del primer rascacielos junto al segundo, en la publicación que el arquitecto realiza de manera temprana en Frühlicht, obligará a incorporar esta segunda solución como una parte más del estudio. Cargada de las citas obligadas, de las diferentes personalidades que se han enfrentado a dichos proyectos, este primer análisis historiográfico establece un primer estado de la cuestión donde se revela una lectura ambivalente de los rascacielos. Si la interpretación directa de sus imágenes ha permitido profundizar en las características del vidrio y sus reflejos y en la desnudez de una estructura metálica como claros ejemplos de una expresión moderna y tecnológica de vidrio y el acero. Las particulares formas triangulares del primero y las formas sinuosas del segundo han dado lugar a una multitud de calificaciones, de ser ejemplo tanto de un Expresionismo como de un dadaísmo o constructivismo, que con el tiempo han ido creciendo hacia una admiración artística con una fuerte carga poética. Este lectura histórica, que remata con un breve periodo más actual donde se inicia el cuestionamiento de su carácter utópico y se recupera puntualmente su naturaleza como proyecto, servirá para plantear finalmente una serie de dudas que, sin respuesta aparente, exigen revisar la lectura de sus imágenes como parte de lo que realmente son: expresión de una nueva arquitectura que a partir de ese preciso momento entra de pleno derecho en el Movimiento Moderno. Por otro lado, la existencia en el discurso posterior del arquitecto de un proceso de formalizacion altamente valorado por su autor y la presencia de igual a igual de un lugar en las representaciones y planos de los rascacielos, que la historia parece haber obviado, servirán como razón más que suficiente para la revisión de unas relaciones iniciales con la vanguardia -todavía hoy poco definidas- así como para proponer la lectura renovada de dichas propuestas en altura por lo que también son: proyectos que responden a unas necesidades espaciales de un lugar y tiempo muy determinados. Esta segunda parte, denominada La arquitectura de una imagen, se plantea así más como una inmersión total en el mundo del proyecto que una simple descripción nominal del mismo. Conscientemente simétrica y opuesta a un primer bloque histórico, esta segunda parte -mucho más extensa y parte central de esta tesis- se concentra en el análisis de las imágenes como: aquel conjunto de eventos históricos que aplicados sobre la ciudad, el lugar, el rascacielos, y los procesos técnicos de la imagen dieron lugar a estas arquitecturas como razón de ser. Consecuentemente se tratará pues de bucear en las razones que, ocultas como proceso de formalización, llevaron a Mies a dar un paso más allá hacia a una nueva manera de hacer, ver y pensar su arquitectura, de expresar un espacio. La aproximación a estas imágenes radicará por tanto en resaltar al mismo tiempo la naturaleza de unas representaciones cuyas características fotográficas son el fiel reflejo de una época donde los nuevos medios visuales –cine y fotografía- empiezan a ser cuestionados por su excesiva utilización. La complejidad de unos hechos coincidentes en el tiempo obligará a dividir este estudio en un primer acercamiento general, a la respuesta dada por una mayoría de participantes al concurso, para así cotejar la importancia de una actitud proyectual y contextual común de Mies y sus compañeros. Mezcla de requerimientos y necesidades de la propia historia de la parcela, de las peculiaridades de un lugar y las exigencias programáticas del concurso; el siguiente paso consistirá en reconstruir el proceso de formalización del conjunto de dibujos que caracterizan ambos proyectos para así comprender los mecanismo que, suspendidos como traslaciones entre las diferentes representaciones, operan en la realización física de dichas imágenes y complementan como pensamiento la idea arquitectónica de los mismos. Con lo que se pretende ofrecer dos cosas: una interpretación que tenga en cuenta la novedosa naturaleza de la manera de pensar lo fotográfico en el arquitecto, así como la particular idiosincrasia del momento en que estas concurren. Dicho de otro modo, se realizará una aproximación de las vistas del primer rascacielos que tenga en cuenta la historia tecnológica y visual que rodea al evento y las características de una ejecución física todavía hoy sin aclarar del todo. El descubrimiento de una serie de incoherencias geométricas en las plantas, alzado y vistas del primer proyecto llevará a argumentar la presencia de un trampantojo que, nunca antes revelado, se entiende lleno de unas intenciones espaciales plenamente vanguardistas. Interpretación arquitectónica de las imágenes donde la presencia de una serie de elementos directamente ligados al lenguaje fotográfico y cinematográfico se traduce en una nueva lectura espacial plenamente dinámica llena de dislocación, ritmo y simultaneidad alejada de la idea de ver la forma como un elemento permanentemente fijo. Sugerencia que nos lleva directamente a la lectura del segundo proyecto de rascacielos como una clara continuación de lo imaginado en el primero. Para finalizar, tras una revisión biográfica -previa al proyecto- que desvela unas preocupaciones urbanas y un deseo de cambio anterior al concurso de la Friedrichstrasse, se comparan estas nuevas significaciones espaciales con una práctica de vanguardia que, coetánea a la convocatoria de 1921, demuestran unas investigaciones muy similares con unos mismos intereses cinematográficos. La lectura de las propuestas de tres artistas próximos en ese momento al arquitecto -como son Hans Richter, Moholy-Nagy y El Lissitzky- permiten demostrar unas preocupaciones muy similares a lo conseguido por Mies con los rascacielos que parecen haber servido de ejemplo y motivación mutua para el surgimiento de una nueva espacialidad -más fluida-. Esta lectura permitirá recuperar la importancia de estos dos proyectos como la expresión directa de una nueva manera de pensar y hacer su arquitectura que ya no tendrá vuelta atrás en la obra de Mies. A la vez que recuperar la potencialidad poética de unas vistas que, así definidas reiteradamente por la crítica, se revelan ahora como directas transmisoras de ese deseo de cambio arquitectónico evidenciado en los proyectos posteriores. Racionalización de una poética que al ir más allá de la forma directamente transcrita permite establecer una última reflexión general sobre como opera la imagen en la arquitectura, así como la pertinencia crítica de este proyecto para con el mundo virtual de hoy. En definitiva, más allá del poder evocador de estas representaciones, este será un estudio que pretende cuestionar las características que la imagen de la arquitectura puede proponer más allá de su literalidad por medio de la fascinante interacción que se produce entre la imagen y lo espacialmente imaginado. Encuentros, recursos e intereses de una respuesta plenamente arquitectónica que, además de dar luz a un cambio tan inclasificable como moderno, abre el camino a la interpretación de un proceso de formalizacion que, reiteradamente defendido por su autor justifican una intensidad poética dada por la historia y reafirman una preocupación artística a menudo desmentida por su autor. Dicho de otro modo, si profundizar en las razones arquitectónicas, históricas y técnicas que llevan a Mies a realizar sus rascacielos, por medio de su relación con la vanguardia y el cine, arrojan luz y explican el cambio que se está gestando en el arquitecto cara una nueva espacialidad fluida. Reflexionar sobre su naturaleza espacial -de estas imágenes ya icónicas- equivale a aportar una reflexión crítica sobre la naturaleza simbólica de la imagen de la arquitectura hoy. “Aunque el puesto clave que ocupa el Rascacielos de la Friedrichstrasse dentro de la historia de la arquitectura moderna nunca ha sido seriamente cuestionado, la opinion critica al respecto siempre ha estado dividida. Desde la publicacion de la monografia de Philip Johnson sobre Mies en 1947, el muro cortina como una piel transparente que reviste el esqueleto estructural has ido aclamado como un gran avance pionero. Otros puntos de vista sobre el edificio, subrayando su supuesta planta expresionista, lo han visto como un esfuerzo un poco menos aventurado. Asi calibrada, la propuesta de Mies para la Friedrichstrasse es radicalmente moderna en mas de un sentido enfatizado por Johnson.” 1 W.Tegethoff ABSTRACT This essay reflects on the broad territory of the image in today’s architecture. One good example is the Friedrichstrasse Skyscraper design by Mies van der Rohe in 1921/22, during the period between World Wars I and II. There are many reasons why this work has been chosen, but one of the most recent stands out above the rest: of the hundreds of essays written on this work, comments have been made only (with the odd exception) on the objectual characteristics of what has been directly described by the views (as if it were a genuine reflection of reality), without analysing the real physical and symbolic nature of the representation a subjective (spatial) expression of architecture. If its importance as a point of inflection in the initial development of a completely modern work is more than enough reason to make a detailed study, since it may be crucial for understanding the author’s beginnings in the Modern Movement. Its presence as a reduced set of four views, the combination of a photograph of the place and a drawing made of it, in our opinion, carry meanings that are as important for understanding this architecture as all the ideas described about them. Created during an early period, when the languages of photography and cinema were in full swing, it can be said that the perspectives of the Friedrichstrasse Skyscraper form a historical reference of one of the first virtual architectures that belong entirely to the Modern Movement. A paradigm of the most absolute modernity owing to the fact that it is on that frontier of the never-accomplished, but spatially assumable as photographic reality, the images of the skyscraper can be considered as one of the first reflections on the virtual nature of post-industrial architectural design. There is nothing new in the fact that the photographic description of work absorbs and communicates on its own the multiple properties it involves and there is nothing new in the fact that most architectures become known today through the media. It is surprising that no analysis has been made to date, with the same intensity, of the many reasons that led to a number of images whose poetry add form to the architecture they represent. If the intention is to reflect on this contemporary fact using a paradigmatic example certified by history, we will be forced to use a methodology that corresponds to the dual condition produced by the interpretation of all media images as a fluctuating combination of what is interpreted independently through the representation and meanings the image acquires as a historical reference. This ambivalent interpretation will lead this essay to be structured in two clearly different and complementary blocks that follow the reading order offered by any image of architecture in the media. Thus, a first part, titled The image of an architecture, analyses the interpretation history and the author have given to the skyscraper through its use in the various exhibitions, magazines, style agreements and monographs in which it has been included. This examination, which is the real space in which these architectures reside, is (to delimit and organise the study) restricted to countries in which the author lived during his lifetime and it will help establish a first narrative that considers the different interpretations made by critics over time. The presence of the first skyscraper next to the second one in the publication the architect makes early on in Frühlicht will require the second solution to be incorporated as another part of the study. Laden with necessary quotes by the various personalities who have examined said designs, this first historiographical analysis establishes an initial state of the question that reveals an ambivalent interpretation of skyscrapers. If the direct interpretation of the images has made it possible to closely examine the characteristics of the glass and its reflections and the nudity of a metal structure as clear examples of a modern and technological expression of glass and steel. The particular triangular shapes of the former and the sinuous shapes of the latter have generated many classifications that suggest it is an example of Expressionism, Dadaism or Constructivism, which have grown over time into artistic admiration laden with poetry. This historical reading, which concludes with a more recent short period that begins to question the utopian character and recovers its nature as a project, will finally consider a number of doubts that have no apparent answer and require a revision of the reading of the images as part of what they actually are: expression of a new architecture that becomes part of the Modern Movement as from that precise moment. In addition, the existence in the architect’s subsequent discourse of a formalisation process highly valued by the author and the equal presence of a place in the representations and plans of a skyscraper history seems to have forgotten, will stand as more than sufficient reason for a revision of initial relations with the avantgarde -not particularly well defined today- together with a renewed reading of said vertical proposals for what they also are: projects that respond to the special needs of a very specific place and time. This second part, titled The architecture of an image, is presented more as a total immersion in the project world than a mere nominal description of it. Deliberately symmetrical and opposite to a historic first bloc, this second part (much longer and central part of the thesis) it will focus on analysing images as: the set of historical events that affected the skyscraper, city, place and technical processes image to provide these architectures with their raison d’être. Consequently, the aim is to delve in the reasons which, hidden as a formalisation process, led Mies to move on to a new form of doing, seeing and thinking his architecture, of expressing a space. The approach to these images will therefore lie in highlighting the nature of a number of representations whose photographic features are the true reflection of a period in which the new visual media (cinema and photography) begin to be questioned due to excessive use. The complexity of facts that coincide in time will require this study to be divided into a first general approach, with a response given by most of the participants in the competition, to compare the importance of a common approach in terms of project and context of the response given by Mies and his colleagues. A combination of requirements and needs of the very history of the plot of land, the peculiarities of a place and the programmatic requirements of the competition; the next step will reconstruct the formalisation process of the set of drawings that characterise both to understand the mechanism which, suspended like translations between the different representations, operates in the realisation of said images and complements as thought their architectural idea. The aim is thus to offer two things: an interpretation that takes into account the new way in which the architect works with photography, together with the particular idiosyncrasy of the moment at which they occur. In other words, the approach will focus on the views of the first skyscraper, which takes into account the technological and visual history that surrounds the event and the characteristics of a physical execution that still remains unexplained in full. The subsequent discovery of a number of geometrical incoherences in the floor plans, elevations and views of the first project will lead to an argument for the presence of trompe l’oeil which, never before revealed, is seen as laden with completely avant-garde spatial intentions. Architectural interpretation of the images where the presence of a number of elements directly linked to the languages of photography and cinema is translated into a new spatial reading that is completely dynamic and full of dislocation, rhythm and simultaneity far-removed from the idea of seeing shape as a permanently fixed element. This suggestion takes us to directly to the second skyscraper design as a clear continuation of what he imagined in the first. To end, after a preliminary biographical revision (previous to the project) that reveals urban concerns and a desire for change before the Friedrichstrasse competition, a comparison is made of these new spatial meanings with avant-garde practice which, contemporary with the 1921 competition, show very similar investigations with the same cinematographic interest. The reading of the proposals of three artists close to the architect at that time -i.e. Hans Richter, Moholy-Nagy and El Lissitzky- reveals concerns that are very similar to what Mies achieved with the skyscrapers that seem to have been used as an example and mutual motivation for the creation of a new (more fluent) spatiality. This interpretation will make it possible to recover the importance of these two projects as the direct expression of a new way of thinking and doing his architecture that was to remain fixed in Mies’ work. This also gives rise to the possibility of recovering the poetic potential of views which, as defined repeatedly by the critics, now stand as the direct transmitters of the desire for architectural change shown in later projects. A rationalisation of poetry which, by going beyond the directly transcribed form, gives rise to the establishment of one general final reflection on how the image works in architecture, together with the critical relevance of this design for today’s virtual world. In short, beyond the evocative power of images this will be a study which questions the characteristics the image of architecture can propose beyond its literality through the fascinating interaction between the image and spatially imagined. Encounters, resources and interests of a completely architectural response that, besides sheds light to a change that is as non-classifiable as it is modern, shows the way to the interpretation of a formalisation process which, repeatedly defined by the author, justifies a poetic intensity and confirms an artistic concern often denied by the author. In other words, examining the architectural, historical and technical reasons that led Mies to create his skyscrapers, thanks to its relationship with the avant-garde and cinema, sheds light on and explains the change taking place in the architect with regard to a new fluent spatiality. Reflecting on the spatial nature -of these iconic images- is tantamount to a critical reflection on the symbolic nature of architecture today. “Although the key position of the Friedrichstrasse Office Building within the early history of modern architecture has never been seriously challenged, critical opinion on it has always been divided. Ever since the publication of Philip Johnson’s monograph on Mies in 1947, the curtain wall as a transparent skin sheathing the skeleton structure has frequently been hailed as a pioneering breakthrough. Other views of the building, stressing its supposedly Expressionist plan, have seen it as a somewhat less adventurous effort. In fact, the project has never been regarded in abroad context. Thus measured, Mies’s proposal fro Friedrichstrasse is radically modern in more than the one respect emphasized by Johnson.” 1 W.Tegethoff

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las últimas dos décadas, se ha puesto de relieve la importancia de los procesos de adquisición y difusión del conocimiento dentro de las empresas, y por consiguiente el estudio de estos procesos y la implementación de tecnologías que los faciliten ha sido un tema que ha despertado un creciente interés en la comunidad científica. Con el fin de facilitar y optimizar la adquisición y la difusión del conocimiento, las organizaciones jerárquicas han evolucionado hacia una configuración más plana, con estructuras en red que resulten más ágiles, disminuyendo la dependencia de una autoridad centralizada, y constituyendo organizaciones orientadas a trabajar en equipo. Al mismo tiempo, se ha producido un rápido desarrollo de las herramientas de colaboración Web 2.0, tales como blogs y wikis. Estas herramientas de colaboración se caracterizan por una importante componente social, y pueden alcanzar todo su potencial cuando se despliegan en las estructuras organizacionales planas. La Web 2.0 aparece como un concepto enfrentado al conjunto de tecnologías que existían a finales de los 90s basadas en sitios web, y se basa en la participación de los propios usuarios. Empresas del Fortune 500 –HP, IBM, Xerox, Cisco– las adoptan de inmediato, aunque no hay unanimidad sobre su utilidad real ni sobre cómo medirla. Esto se debe en parte a que no se entienden bien los factores que llevan a los empleados a adoptarlas, lo que ha llevado a fracasos en la implantación debido a la existencia de algunas barreras. Dada esta situación, y ante las ventajas teóricas que tienen estas herramientas de colaboración Web 2.0 para las empresas, los directivos de éstas y la comunidad científica muestran un interés creciente en conocer la respuesta a la pregunta: ¿cuáles son los factores que contribuyen a que los empleados de las empresas adopten estas herramientas Web 2.0 para colaborar? La respuesta a esta pregunta es compleja ya que se trata de herramientas relativamente nuevas en el contexto empresarial mediante las cuales se puede llevar a cabo la gestión del conocimiento en lugar del manejo de la información. El planteamiento que se ha llevado a cabo en este trabajo para dar respuesta a esta pregunta es la aplicación de los modelos de adopción tecnológica, que se basan en las percepciones de los individuos sobre diferentes aspectos relacionados con el uso de la tecnología. Bajo este enfoque, este trabajo tiene como objetivo principal el estudio de los factores que influyen en la adopción de blogs y wikis en empresas, mediante un modelo predictivo, teórico y unificado, de adopción tecnológica, con un planteamiento holístico a partir de la literatura de los modelos de adopción tecnológica y de las particularidades que presentan las herramientas bajo estudio y en el contexto especifico. Este modelo teórico permitirá determinar aquellos factores que predicen la intención de uso de las herramientas y el uso real de las mismas. El trabajo de investigación científica se estructura en cinco partes: introducción al tema de investigación, desarrollo del marco teórico, diseño del trabajo de investigación, análisis empírico, y elaboración de conclusiones. Desde el punto de vista de la estructura de la memoria de la tesis, las cinco partes mencionadas se desarrollan de forma secuencial a lo largo de siete capítulos, correspondiendo la primera parte al capítulo 1, la segunda a los capítulos 2 y 3, la tercera parte a los capítulos 4 y 5, la cuarta parte al capítulo 6, y la quinta y última parte al capítulo 7. El contenido del capítulo 1 se centra en el planteamiento del problema de investigación así como en los objetivos, principal y secundarios, que se pretenden cumplir a lo largo del trabajo. Así mismo, se expondrá el concepto de colaboración y su encaje con las herramientas colaborativas Web 2.0 que se plantean en la investigación y una introducción a los modelos de adopción tecnológica. A continuación se expone la justificación de la investigación, los objetivos de la misma y el plan de trabajo para su elaboración. Una vez introducido el tema de investigación, en el capítulo 2 se lleva a cabo una revisión de la evolución de los principales modelos de adopción tecnológica existentes (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), dando cuenta de sus fundamentos y factores empleados. Sobre la base de los modelos de adopción tecnológica expuestos en el capítulo 2, en el capítulo 3 se estudian los factores que se han expuesto en el capítulo 2 pero adaptados al contexto de las herramientas colaborativas Web 2.0. Con el fin de facilitar la comprensión del modelo final, los factores se agrupan en cuatro tipos: tecnológicos, de control, socio-normativos y otros específicos de las herramientas colaborativas. En el capítulo 4 se lleva a cabo la relación de los factores que son más apropiados para estudiar la adopción de las herramientas colaborativas y se define un modelo que especifica las relaciones entre los diferentes factores. Estas relaciones finalmente se convertirán en hipótesis de trabajo, y que habrá que contrastar mediante el estudio empírico. A lo largo del capítulo 5 se especifican las características del trabajo empírico que se lleva a cabo para contrastar las hipótesis que se habían enunciado en el capítulo 4. La naturaleza de la investigación es de carácter social, de tipo exploratorio, y se basa en un estudio empírico cuantitativo cuyo análisis se llevará a cabo mediante técnicas de análisis multivariante. En este capítulo se describe la construcción de las escalas del instrumento de medida, la metodología de recogida de datos, y posteriormente se presenta un análisis detallado de la población muestral, así como la comprobación de la existencia o no del sesgo atribuible al método de medida, lo que se denomina sesgo de método común (en inglés, Common Method Bias). El contenido del capítulo 6 corresponde al análisis de resultados, aunque previamente se expone la técnica estadística empleada, PLS-SEM, como herramienta de análisis multivariante con capacidad de análisis predictivo, así como la metodología empleada para validar el modelo de medida y el modelo estructural, los requisitos que debe cumplir la muestra, y los umbrales de los parámetros considerados. En la segunda parte del capítulo 6 se lleva a cabo el análisis empírico de los datos correspondientes a las dos muestras, una para blogs y otra para wikis, con el fin de validar las hipótesis de investigación planteadas en el capítulo 4. Finalmente, en el capítulo 7 se revisa el grado de cumplimiento de los objetivos planteados en el capítulo 1 y se presentan las contribuciones teóricas, metodológicas y prácticas derivadas del trabajo realizado. A continuación se exponen las conclusiones generales y detalladas por cada grupo de factores, así como las recomendaciones prácticas que se pueden extraer para orientar la implantación de estas herramientas en situaciones reales. Como parte final del capítulo se incluyen las limitaciones del estudio y se sugiere una serie de posibles líneas de trabajo futuras de interés, junto con los resultados de investigación parciales que se han obtenido durante el tiempo que ha durado la investigación. ABSTRACT In the last two decades, the relevance of knowledge acquisition and dissemination processes has been highlighted and consequently, the study of these processes and the implementation of the technologies that make them possible has generated growing interest in the scientific community. In order to ease and optimize knowledge acquisition and dissemination, hierarchical organizations have evolved to a more horizontal configuration with more agile net structures, decreasing the dependence of a centralized authority, and building team-working oriented organizations. At the same time, Web 2.0 collaboration tools such as blogs and wikis have quickly developed. These collaboration tools are characterized by a strong social component and can reach their full potential when they are deployed in horizontal organization structures. Web 2.0, based on user participation, arises as a concept to challenge the existing technologies of the 90’s which were based on websites. Fortune 500 companies – HP, IBM, Xerox, Cisco- adopted the concept immediately even though there was no unanimity about its real usefulness or how it could be measured. This is partly due to the fact that the factors that make the drivers for employees to adopt these tools are not properly understood, consequently leading to implementation failure due to the existence of certain barriers. Given this situation, and faced with theoretical advantages that these Web 2.0 collaboration tools seem to have for companies, managers and the scientific community are showing an increasing interest in answering the following question: Which factors contribute to the decision of the employees of a company to adopt the Web 2.0 tools for collaborative purposes? The answer is complex since these tools are relatively new in business environments. These tools allow us to move from an information Management approach to Knowledge Management. In order to answer this question, the chosen approach involves the application of technology adoption models, all of them based on the individual’s perception of the different aspects related to technology usage. From this perspective, this thesis’ main objective is to study the factors influencing the adoption of blogs and wikis in a company. This is done by using a unified and theoretical predictive model of technological adoption with a holistic approach that is based on literature of technological adoption models and the particularities that these tools presented under study and in a specific context. This theoretical model will allow us to determine the factors that predict the intended use of these tools and their real usage. The scientific research is structured in five parts: Introduction to the research subject, development of the theoretical framework, research work design, empirical analysis and drawing the final conclusions. This thesis develops the five aforementioned parts sequentially thorough seven chapters; part one (chapter one), part two (chapters two and three), part three (chapters four and five), parte four (chapters six) and finally part five (chapter seven). The first chapter is focused on the research problem statement and the objectives of the thesis, intended to be reached during the project. Likewise, the concept of collaboration and its link with the Web 2.0 collaborative tools is discussed as well as an introduction to the technology adoption models. Finally we explain the planning to carry out the research and get the proposed results. After introducing the research topic, the second chapter carries out a review of the evolution of the main existing technology adoption models (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), highlighting its foundations and factors used. Based on technology adoption models set out in chapter 2, the third chapter deals with the factors which have been discussed previously in chapter 2, but adapted to the context of Web 2.0 collaborative tools under study, blogs and wikis. In order to better understand the final model, the factors are grouped into four types: technological factors, control factors, social-normative factors and other specific factors related to the collaborative tools. The first part of chapter 4 covers the analysis of the factors which are more relevant to study the adoption of collaborative tools, and the second part proceeds with the theoretical model which specifies the relationship between the different factors taken into consideration. These relationships will become specific hypotheses that will be tested by the empirical study. Throughout chapter 5 we cover the characteristics of the empirical study used to test the research hypotheses which were set out in chapter 4. The nature of research is social, exploratory, and it is based on a quantitative empirical study whose analysis is carried out using multivariate analysis techniques. The second part of this chapter includes the description of the scales of the measuring instrument; the methodology for data gathering, the detailed analysis of the sample, and finally the existence of bias attributable to the measurement method, the "Bias Common Method" is checked. The first part of chapter 6 corresponds to the analysis of results. The statistical technique employed (PLS-SEM) is previously explained as a tool of multivariate analysis, capable of carrying out predictive analysis, and as the appropriate methodology used to validate the model in a two-stages analysis, the measurement model and the structural model. Futhermore, it is necessary to check the requirements to be met by the sample and the thresholds of the parameters taken into account. In the second part of chapter 6 an empirical analysis of the data is performed for the two samples, one for blogs and the other for wikis, in order to validate the research hypothesis proposed in chapter 4. Finally, in chapter 7 the fulfillment level of the objectives raised in chapter 1 is reviewed and the theoretical, methodological and practical conclusions derived from the results of the study are presented. Next, we cover the general conclusions, detailing for each group of factors including practical recommendations that can be drawn to guide implementation of these tools in real situations in companies. As a final part of the chapter the limitations of the study are included and a number of potential future researches suggested, along with research partial results which have been obtained thorough the research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente TFG está enmarcado en el contexto de la biología sintética (más concretamente en la automatización de protocolos) y representa una parte de los avances en este sector. Se trata de una plataforma de gestión de laboratorios autónomos. El resultado tecnológico servirá para ayudar al operador a coordinar las máquinas disponibles en un laboratorio a la hora de ejecutar un experimento basado en un protocolo de biología sintética. En la actualidad los experimentos biológicos tienen una tasa de éxito muy baja en laboratorios convencionales debido a la cantidad de factores externos que intervienen durante el protocolo. Además estos experimentos son caros y requieren de un operador pendiente de la ejecución en cada fase del protocolo. La automatización de laboratorios puede suponer un aumento de la tasa de éxito, además de una reducción de costes y de riesgos para los trabajadores en el entorno del laboratorio. En la presente propuesta se pretende que se dividan las distintas entidades de un laboratorio en unidades funcionales que serán los elementos a ser coordinados por la herramienta resultado del TFG. Para aportar flexibilidad a la herramienta se utilizará una arquitectura orientada a servicios (SOA). Cada unidad funcional desplegará un servicio web proporcionando su funcionalidad al resto del laboratorio. SOA es esencial para la comunicación entre máquinas ya que permite la abstracción del tipo de máquina que se trate y como esté implementada su funcionalidad. La principal dificultad del TFG consiste en lidiar con las dificultades de integración y coordinación de las distintas unidades funcionales para poder gestionar adecuadamente el ciclo de vida de un experimento. Para ello se ha realizado un análisis de herramientas disponibles de software libre. Finalmente se ha escogido la plataforma Apache Camel como marco sobre el que crear la herramienta específica planteada en el TFG. Apache Camel juega un papel importantísimo en este proyecto, ya que establece las capas de conexión a los distintos servicios y encamina los mensajes oportunos a cada servicio basándose en el contenido del fichero de entrada. Para la preparación del prototipo se han desarrollado una serie de servicios web que permitirán realizar pruebas y demostraciones de concepto de la herramienta en sí. Además se ha desarrollado una versión preliminar de la aplicación web que utilizará el operador del laboratorio para gestionar las peticiones, decidiendo que protocolo se ejecuta a continuación y siguiendo el flujo de tareas del experimento.---ABSTRACT---The current TFG is bound by synthetic biology context (more specifically in the protocol automation) and represents an element of progression in this sector. It consists of a management platform for automated laboratories. The technological result will help the operator to coordinate the available machines in a lab, this way an experiment based on a synthetic biological protocol, could be executed. Nowadays, the biological experiments have a low success rate in conventional laboratories, due to the amount of external factors that intrude during the protocol. On top of it, these experiments are usually expensive and require of an operator monitoring at every phase of the protocol. The laboratories’ automation might mean an increase in the success rate, and also a reduction of costs and risks for the lab workers. The current approach is hoped to divide the different entities in a laboratory in functional units. Those will be the elements to be coordinated by the tool that results from this TFG. In order to provide flexibility to the system, a service-oriented architecture will be used (SOA). Every functional unit will deploy a web service, publishing its functionality to the rest of the lab. SOA is essential to facilitate the communication between machines, due to the fact that it provides an abstraction on the type of the machine and how its functionality is implemented. The main difficulty of this TFG consists on grappling with the integration and coordination problems, being able to manage successfully the lifecycle of an experiment. For that, a benchmark has been made on the available open source tools. Finally Apache Camel has been chosen as a framework over which the tool defined in the TFG will be created. Apache Camel plays a fundamental role in this project, given that it establishes the connection layers to the different services and routes the suitable messages to each service, based on the received file’s content. For the prototype development a number of services that will allow it to perform demonstrations and concept tests have been deployed. Furthermore a preliminary version of the webapp has been developed. It will allow the laboratory operator managing petitions, to decide what protocol goes next as it executes the flow of the experiment’s tasks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La hipótesis de partida de esta tesis es que existe una influencia directa entre la técnica que se desarrolla durante el segundo período del s. XIX y el cambio sustancial de los conceptos y de la teoría arquitectónica que se da en esos mismos años. Dicha influencia genera nuevos modelos constructivos que serán la base de la arquitectura moderna. Para llegar a la confirmación de la hipótesis, se han planteado tres objetivos principales que responden a los tres capítulos principales de la misma. En primera instancia, se establecen las condiciones teóricas del debate arquitectónico entre las fechas estudiadas. Se analiza el concepto de modelo y «estilo» para evaluar si, efectivamente, hubo cambio o no. También se analizará si los arquitectos eran conscientes de la necesidad de una nueva arquitectura que respondiese a la funcionalidad que el progreso requería. Para comprobar que dicho cambio se ha producido a todos los niveles hasta el punto de redefinir el modelo constructivo se escoge un ejemplo práctico que cumpla las condiciones necesarias para sustentar o no la tesis y se investiga sobre si sucede o no el cambio. A continuación, se analizará la situación de la técnica y de los avances tecnológicos en el período estudiado. Es importante contrastar que realmente hay un conocimiento y una conciencia verdadera de cambio entre los teóricos y los arquitectos que están construyendo en ese momento. Confirmar que dicha conexión existe es vital para la investigación; para eso, se analizará y se profundizará en las conexiones entre la arquitectura y la ingeniería (o los avances tecnológicos) para entender la implicación de uno con el otro. Con este fin, se han estudiado las distintas publicaciones periódicas de la época; sobre todo la más relevante y la que primero se editó, que fue La revue générale de l’architecture; me he apoyado en ella. Es un documento que mensualmente recoge cambios, avances y debates. Tuvo una grandísima divulgación; todo docente, arquitecto e ingeniero de la época tenía un acceso fácil y directo a dicha publicación. Por último, a raíz de una construcción ideal proyectada por uno de los grandes arquitectos teóricos de la época, se reflexiona sobre si esa arquitectura supone realmente una comprensión y una conciencia de los nuevos modelos arquitectónicos, definidos por una técnica en progreso, o si responde exclusivamente a una utopía arquitectónica como tantas otras se habían esbozado con anterioridad por grandes teóricos. Para poder definir la geometría de este elemento estructural, se ha realizado un modelado tridimensional que permite calcular la estructura a través de un proceso de elementos finitos. El propósito de este cálculo no es exclusivamente saber si la estructura era viable o no en aquella época, sino también comprender si la definición de estos originales elementos estructurales implicaba una concepción nueva de las estructuras tridimensionales y eso significa que empezaba a germinar un cambio sustancial en la teoría de la arquitectura, con la búsqueda de un nuevo modelo constructivo derivado de los avances técnicos. De este modo queda demostrado que el modelo constructivo ha cambiado definitivamente por un modelo mucho más versátil y sobre todo con una gran capacidad de adaptación, esto combinado a su vez con una proliferación de patentes que intentan y buscan una estandarización del modelo constructivo y que no son, en ningún caso, un modelo en sí. Como última conclusión, queda argumentado que en aquella época ya se tenía una gran intuición estructural; a pesar de que el cálculo matemático era todavía algo relativamente nuevo, se manejaban de forma instintiva líneas de cargas, combinación de materiales y nuevas formas, que ayudarán a crear los modelos de los próximos años y que serán la base del cálculo numérico posterior. ABSTRACT The hypothesis of this thesis is that there is a direct influence between the technique developed during the second period of the XIX century and the substantial change in the concepts and in the architectural theory that occurs in those years. This influence develops new building models that will be the basis of modern architecture. To confirm this hypothesis, we present three principal objectives that corresponds to the three principals chapsters of the text. First, we establish the theoretical conditions of the architectural debate between the dates studied. We analyze the concepts of model and “style” to assess whether there was a change or not. We consider as well if architects were aware of the need for a new architecture to respond to the functionality needs that progress demanded. To verify that the change occurred at all levels to the extent of redefining the building model we choose a practical example that fulfills the necessary conditions to support or not the thesis and we investigate whether or not the change happens. Next, we analyze the status of technical and technological advances in the study period of study. It is important to contrast that there is a real knowledge and awareness of change between the theorists and architects who are building at the time. Confirming that that connection exists is vital for the research; for that, we will analyze and deepen into the connections between architecture and engineering (or technological progress) to understand the implication of one into the other. To this end, we have studied various publications of the time; especially the most relevant and the first published, La Revue générale de l’architecture; I have relied on it. This is a monthly document that includes changes, developments and debates. It had a very great disclosure; every teacher, architect and engineer of the time had a direct and easy access to this publication. Finally, following theoretical ideal construction projected by one of the great architects of the time, we reflect on whether that architecture really represents an understanding and awareness of the new architectural models defined by a technique in progress, or if it only responds to an architectural utopia as the ones outlined earlier by the great theorists. To be able to define the geometry of this structural item, we have carried out a three-dimensional modeling that enables us to calculate the structure through a process of finite elements. The purpose of this calculation is not exclusively understanding whether the structure was viable or not at the time, but also understanding if the definition of these original structural elements involved a new concept of three-dimensional structures and if that involved the beginning of a substantial change in theory of architecture, with the search for a new construction model derived from technical advances. In this way it is demonstrated that the building model has definitely changed for a much more versatile one and above all with a high adaptation capacity, this combined in turn with a proliferation of patents that try and seek a standardization of the building model and are not, in any case, a model in itself. As a final conclusion, it is argued that at the time a major structural intuition was present; even though the math calculation was still relatively new, in an instinctively way load lines, combination of materials and new forms were taken into account, that will help to create models in the coming years and which will form the basis of subsequent numerical calculation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexto: La presente tesis doctoral se enmarca en la actividad de educción de los requisitos. La educción de requisitos es generalmente aceptada como una de las actividades más importantes dentro del proceso de Ingeniería de Requisitos, y tiene un impacto directo en la calidad del software. Es una actividad donde la comunicación entre los involucrados (analistas, clientes, usuarios) es primordial. La efectividad y eficacia del analista en la compresión de las necesidades de clientes y usuarios es un factor crítico para el éxito del desarrollo de software. La literatura se ha centrado principalmente en estudiar y comprender un conjunto específico de capacidades o habilidades personales que debe poseer el analista para realizar de forma efectiva la actividad de educción. Sin embargo, existen muy pocos trabajos que han estudiado dichas capacidades o habilidades empíricamente. Objetivo: La presente investigación tiene por objetivo estudiar el efecto de la experiencia, el conocimiento acerca del dominio y la titulación académica que poseen los analistas en la efectividad del proceso de educción de los requisitos, durante los primeros contactos del analista con el cliente. Método de Investigación: Hemos ejecutado 8 estudios empíricos entre cuasi-experimentos (4) y experimentos controlados (4). Un total de 110 sujetos experimentales han participado en los estudios, entre estudiantes de post-grado de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid y profesionales. La tarea experimental consistió en realizar sesiones de educción de requisitos sobre uno o más dominios de problemas (de carácter conocido y desconocido para los sujetos). Las sesiones de educción se realizaron empleando la entrevista abierta. Finalizada la entrevista, los sujetos reportaron por escrito toda la información adquirida. Resultados: Para dominios desconocidos, la experiencia (entrevistas, requisitos, desarrollo y profesional) del analista no influye en su efectividad. En dominios conocidos, la experiencia en entrevistas (r = 0.34, p-valor = 0.080) y la experiencia en requisitos (r = 0.22, p-valor = 0.279), ejercen un efecto positivo. Esto es, los analistas con más años de experiencia en entrevistas y/o requisitos tienden a alcanzar mejores efectividades. Por el contrario, la experiencia en desarrollo (r = -0.06, p-valor = 0.765) y la experiencia profesional (r = -0.35, p-valor = 0.077), tienden a ejercer un efecto nulo y negativo, respectivamente. En lo que respecta al conocimiento acerca del dominio del problema que poseen los analistas, ejerce un moderado efecto positivo (r=0.31), estadísticamente significativo (p-valor = 0.029) en la efectividad de la actividad de educción. Esto es, los analistas con conocimiento tienden a ser más efectivos en los dominios de problema conocidos. En lo que respecta a la titulación académica, por falta de diversidad en las titulaciones académicas de los sujetos experimentales no es posible alcanzar una conclusión. Hemos podido explorar el efecto de la titulación académica en sólo dos cuasi-experimentos, sin embargo, nuestros resultados arrojan efectos contradictorios (r = 0.694, p-valor = 0.51 y r = -0.266, p-valor = 0.383). Además de las variables estudiadas indicadas anteriormente, hemos confirmado la existencia de variables moderadoras que afectan a la actividad de educción, tales como el entrevistado o la formación. Nuestros datos experimentales confirman que el entrevistado es un factor clave en la actividad de educción. Estadísticamente ejerce una influencia significativa en la efectividad de los analistas (p-valor= 0.000). La diferencia entre entrevistar a uno u otro entrevistado, en unidades naturales, varía entre un 18% - 23% en efectividad. Por otro lado, la formación en requisitos aumenta considerablemente la efectividad de los analistas. Los sujetos que realizaron la educción de requisitos después de recibir una formación específica en requisitos tienden a ser entre un 12% y 20% más efectivos que aquellos que no la recibieron. El efecto es significativo (p-valor = 0.000). Finalmente, hemos observado tres hechos que podrían influir en los resultados de esta investigación. En primer lugar, la efectividad de los analistas es diferencial dependiendo del tipo de elemento del dominio. En dominios conocidos, los analistas con experiencia tienden a adquirir más conceptos que los analistas noveles. En los dominios desconocidos, son los procesos los que se adquieren de forma prominente. En segundo lugar, los analistas llegan a una especie de “techo de cristal” que no les permite adquirir más información. Es decir, el analista sólo reconoce (parte de) los elementos del dominio del problema mencionado. Este hecho se observa tanto en el dominio de problema desconocido como en el conocido, y parece estar relacionado con el modo en que los analistas exploran el dominio del problema. En tercer lugar, aunque los años de experiencia no parecen predecir cuán efectivo será un analista, sí parecen asegurar que un analista con cierta experiencia, en general, tendrá una efectividad mínima que será superior a la efectividad mínima de los analistas con menos experiencia. Conclusiones: Los resultados obtenidos muestran que en dominios desconocidos, la experiencia por sí misma no determina la efectividad de los analistas de requisitos. En dominios conocidos, la efectividad de los analistas se ve influenciada por su experiencia en entrevistas y requisitos, aunque sólo parcialmente. Otras variables influyen en la efectividad de los analistas, como podrían ser las habilidades débiles. El conocimiento del dominio del problema por parte del analista ejerce un efecto positivo en la efectividad de los analistas, e interacciona positivamente con la experiencia incrementando aún más la efectividad de los analistas. Si bien no fue posible obtener conclusiones sólidas respecto al efecto de la titulación académica, si parece claro que la formación específica en requisitos ejerce una importante influencia positiva en la efectividad de los analistas. Finalmente, el analista no es el único factor relevante en la actividad de educción. Los clientes/usuarios (entrevistados) también juegan un rol importante en el proceso de generación de información. ABSTRACT Context: This PhD dissertation addresses requirements elicitation activity. Requirements elicitation is generally acknowledged as one of the most important activities of the requirements process, having a direct impact in the software quality. It is an activity where the communication among stakeholders (analysts, customers, users) is paramount. The analyst’s ability to effectively understand customers/users’ needs represents a critical factor for the success of software development. The literature has focused on studying and comprehending a specific set of personal skills that the analyst must have to perform requirements elicitation effectively. However, few studies have explored those skills from an empirical viewpoint. Goal: This research aims to study the effects of experience, domain knowledge and academic qualifications on the analysts’ effectiveness when performing requirements elicitation, during the first stages of analyst-customer interaction. Research method: We have conducted eight empirical studies, quasi-experiments (four) and controlled experiments (four). 110 experimental subjects participated, including: graduate students with the Escuela Técnica Superior de Ingenieros Informáticos of the Universidad Politécnica de Madrid, as well as researchers and professionals. The experimental tasks consisted in elicitation sessions about one or several problem domains (ignorant and/or aware for the subjects). Elicitation sessions were conducted using unstructured interviews. After each interview, the subjects reported in written all collected information. Results: In ignorant domains, the analyst’s experience (interviews, requirements, development and professional) does not influence her effectiveness. In aware domains, interviewing experience (r = 0.34, p-value = 0.080) and requirements experience (r = 0.22, p-value = 0.279), make a positive effect, i.e.: the analysts with more years of interviewing/requirements experience tend to achieve higher effectiveness. On the other hand, development experience (r = -0.06, p-value = 0.765) and professional experience (r = -0.35, p-value = 0.077) tend to make a null and negative effect, respectively. On what regards the analyst’s problem domain knowledge, it makes a modest positive effect (r=0.31), statistically significant (p-value = 0.029) on the effectiveness of the elicitation activity, i.e.: the analysts with tend to be more effective in problem domains they are aware of. On what regards academic qualification, due to the lack of diversity in the subjects’ academic degrees, we cannot come to a conclusion. We have been able to explore the effect of academic qualifications in two experiments; however, our results show opposed effects (r = 0.694, p-value = 0.51 y r = -0.266, p-value = 0.383). Besides the variables mentioned above, we have confirmed the existence of moderator variables influencing the elicitation activity, such as the interviewee and the training. Our data confirm that the interviewee is a key factor in the elicitation activity; it makes statistically significant effect on analysts’ effectiveness (p-value = 0.000). Interviewing one or another interviewee represents a difference in effectiveness of 18% - 23%, in natural units. On the other hand, requirements training increases to a large extent the analysts’ effectiveness. Those subjects who performed requirements elicitation after specific training tend to be 12% - 20% more effective than those who did not receive training. The effect is statistically significant (p-value = 0.000). Finally, we have observed three phenomena that could have an influence on the results of this research. First, the analysts’ effectiveness differs depending on domain element types. In aware domains, experienced analysts tend to capture more concepts than novices. In ignorant domains, processes are identified more frequently. Second, analysts get to a “glass ceiling” that prevents them to acquire more information, i.e.: analysts only identify (part of) the elements of the problem domain. This fact can be observed in both the ignorant and aware domains. Third, experience years do not look like a good predictor of how effective an analyst will be; however, they seem to guarantee that an analyst with some experience years will have a higher minimum effectiveness than the minimum effectiveness of analysts with fewer experience years. Conclusions: Our results point out that experience alone does not explain analysts’ effectiveness in ignorant domains. In aware domains, analysts’ effectiveness is influenced the experience in interviews and requirements, albeit partially. Other variables influence analysts’ effectiveness, e.g.: soft skills. The analysts’ problem domain knowledge makes a positive effect in analysts’ effectiveness; it positively interacts with the experience, increasing even further analysts’ effectiveness. Although we could not obtain solid conclusions on the effect of the academic qualifications, it is plain clear that specific requirements training makes a rather positive effect on analysts’ effectiveness. Finally, the analyst is not the only relevant factor in the elicitation activity. The customers/users (interviewees) play also an important role in the information generation process.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

A new method to analyze the influence of possible hysteresis cycles in devices employed for optical computing architectures is reported. A simple full adder structure is taken as the basis for this method. Single units, called optical programmable logic cells, previously reported by the authors, compose this structure. These cells employ, as basic devices, on-off and SEED-like components. Their hysteresis cycles have been modeled by numerical analysis. The influence of the different characteristic cycles is studied with respect to the obtained possible errors at the output. Two different approaches have been adopted. The first one shows the change in the arithmetic result output with respect to the different values and positions of the hysteresis cycle. The second one offers a similar result, but in a polar diagram where the total behavior of the system is better analyzed.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La construcción en la actualidad de nuevas fuentes para el uso de haces de neutrones así como los programas de renovación en curso en algunas de las instalaciones experimentales existentes han evidenciado la necesidad urgente de desarrollar la tecnología empleada para la construcción de guías de neutrones con objeto de hacerlas mas eficientes y duraderas. Esto viene motivado por el hecho de que varias instalaciones de experimentación con haces de neutrones han reportado un número de incidentes mecánicos con tales guías, lo que hace urgente el progresar en nuestro conocimiento de los susbtratos vítreos sobre los cuales se depositan los espejos que permiten la reflexión total de los neutrones y como aquellos se degradan con la radiación. La presente tesis se inscribe en un acuerdo de colaboración establecido entre el Institut Max von Laue - Paul Langevin (ILL) de Grenoble y el Consorcio ESS-Bilbao con objeto de mejorar el rendimiento y sostenibilidad de los sistemas futuros de guiado de neutrones. El caso de la Fuente Europea de Espalación en construcción en Lund sirve como ejemplo ya que se contempla la instalación de guías de neutrones de más de 100 metros en algunos de los instrumentos. Por otro lado, instalaciones como el ILL prevén también dentro del programa Endurance de rejuvenecimiento la reconstrucción de varias líneas de transporte de haz. Para el presente estudio se seleccionaron cuatro tipos de vidrios borosilicatados que fueron el Borofloat, N-ZK7, N-BK7 y SBSL7. Los tres primeros son bien conocidos por los especialistas en instrumentación neutrónica ya que se han empleado en la construcción de varias instalaciones mientras que el último es un candidato potencial en la fabricación de substratos para espejos neutrónicos en un futuro. Los cuatro vidrios tiene un contenido en óxido de Boro muy similar, approximadamente un 10 mol.%. Tal hecho que obedece a las regulaciones para la fabricación de estos dispositivos hace que tales substratos operen como protección radiológica absorbiendo los neutrones transmitidos a través del espejo de neutrones. Como contrapartida a tal beneficio, la reacción de captura 10B(n,_)7Li puede degradar el substrato vítreo debido a los 2.5 MeV de energía cinética depositados por la partícula _ y los núcleos en retroceso y de hecho la fragilidad de tales vidrios bajo radiación ha sido atribuida desde hace ya tiempo a los efectos de esta reacción. La metodología empleada en esta tesis se ha centrado en el estudio de la estructura de estos vidrios borosilicatados y como esta se comporta bajo condiciones de radiación. Los materiales en cuestión presentan estructuras que dependen de su composición química y en particular del ratio entre formadores y modificadores de la red iono-covalente. Para ello se han empleado un conjunto de técnicas de caracterización tanto macro- como microscópicas tales como estudios de dureza, TEM, Raman, SANS etc. que se han empleado también para determinar el comportamiento de estos materiales bajo radiación. En particular, algunas propiedades macroscópicas relacionadas con la resistencia de estos vidrios como elementos estructurales de las guías de neutrones han sido estudiadas así como también los cambios en la estructura vítrea consecuencia de la radiación. Para este propósito se ha diseñado y fabricado por el ILL un aparato para irradiación de muestras con neutrones térmicos en el reactor del ILL que permite controlar la temperatura alcanzada por la muestra a menos de 100 °C. Tal equipo en comparación con otros ya existences permite en cuestión de dias acumular las dosis recibidas por una guía en operación a lo largo de varios años. El uso conjunto de varias técnicas de caracterización ha llevado a revelar que los vidrios aqui estudiados son significativamente diferentes en cuanto a su estructura y que tales diferencias afectan a sus propiedades macroscópicas asi como a su comportamiento bajo radiación. Tal resultado ha sido sorprendente ya que, como se ha mencionado antes, algunos de estos vidrios eran bien conocidos por los fabricantes de guías de neutrones y hasta el momento eran considerados prácticamente similares debido a su contenido comparable en óxido de Boro. Sin embargo, los materiales N-BK7 and S-BSL7 muetran gran homogeneidad a todas las escalas de longitud, y más específicamente, a escalas nanométricas las subredes de Sílice y óxido de Boro se mezclan dando logar a estructuras locales que recuerdan a la del cristal de Reedmergnerita. Por el contrario, N-ZK7 y Borofloat muestran dominios separados ricos en Sílice o Boro. Como era de esperar, las importantes diferencias arriba mencionadas se traducen en comportamientos dispares de estos materiales bajo un haz de neutrones térmicos. Los resultados muestran que el N-BK7 y el S-BSL7 son los más estables bajo radiación, lo que macroscópicamente hace que estos materiales muestren un comportamiento similar expandiéndose lentamente en función de la dosis recibida. Por el contario, los otros dos materiales muestran un comportamiento mucho más reactivo, que hace que inicialmente se compacten con la dosis recibida lo que hace que las redes de Silicio y Boro se mezclen resultando en un incremento en densidad hasta alcanzar un valor límite, seguido por un proceso de expansión lenta que resulta comparable al observado para N-BK7 y SBSL7. Estos resultados nos han permitido explicar el origen de las notorias diferencias observadas en cuanto a las dosis límite a partir de las cuales estos materiales desarrollan procesos de fragmentación en superficie. ABSTRACT The building of new experimental neutron beam facilities as well as the renewal programmes under development at some of the already existing installations have pinpointed the urgent need to develop the neutron guide technology in order to make such neutron transport devices more efficient and durable. In fact, a number of mechanical failures of neutron guides have been reported by several research centres. It is therefore important to understand the behaviour of the glass substrates on top of which the neutron optics mirrors are deposited and how these materials degrade under radiation conditions. The case of the European Spallation Source (ESS) at present under construction at Lund is a good example. It previews the deployment of neutron guides having more than 100 metres of length for most of the instruments. Also, the future renovation programme of the ILL, called Endurance, foresees the refurbishment of several beam lines. This Ph.D. thesis was the result of a collaboration agreement between the ILL and ESS-Bilbao aiming to improve the performance and sustainability of future neutron delivery systems. Four different industrially produced alkali-borosilicate glasses were selected for this study: Borofloat, N-ZK7, N-BK7 and SBSL7. The first three are well known within the neutron instrumentation community as they have already been used in several installations whereas the last one is at present considered as a candidate for making future mirror substrates. All four glasses have a comparable content of boron oxide of about 10 mol.%. The presence of such a strong neutron absorption element is in fact a mandatory component for the manufacturing of neutron guides because it provides a radiological shielding for the environment. This benefit is however somewhat counterbalanced since the resulting 10B(n,_)7Li reactions degrade the glass due to the deposited energy of 2.5 MeV by the _ particle and the recoil nuclei. In fact, the brittleness of some of these materials has been ascribed to this reaction. The methodology employed by this study consisted in understanding the general structure of borosilicates and how they behave under irradiation. Such materials have a microscopic structure strongly dependent upon their chemical content and particularly on the ratios between network formers and modifiers. The materials have been characterized by a suite of macroscopic and structural techniques such as hardness, TEM, Raman, SANS, etc. and their behaviour under irradiation was analysed. Some macroscopic properties related to their resistance when used as guide structural elements were monitored. Also, changes in the vitreous structure due to radiation were observed by means of several experimental tools. For such a purpose, an irradiation apparatus has been designed and manufactured to enable irradiation with thermal neutrons within the ILL reactor while keeping the samples below 100 °C. The main advantage of this equipment if compared to others previously available was that it allowed to reach in just some days an equivalent neutron dose to that accumulated by guides after several years of use. The concurrent use of complementary characterization techniques lead to the discovery that the studied glasses were deeply different in terms of their glass network. This had a strong impact on their macroscopic properties and their behaviour under irradiation. This result was a surprise since, as stated above, some of these materials were well known by the neutron guide manufacturers, and were considered to be almost equivalent because of their similar boron oxide content. The N-BK7 and S-BSL7 materials appear to be fairly homogeneous glasses at different length scales. More specifically, at nanometre scales, silicon and boron oxide units seem to mix and generate larger structures somewhat resembling crystalline Reedmergnerite. In contrast, N-ZK7 and Borofloat are characterized by either silicon or boron rich domains. As one could expect, these drastic differences lead to their behaviour under thermal neutron flux. The results show that N-BK7 and S-BSL7 are structurally the most stable under radiation. Macroscopically, such stability results in the fact that these two materials show very slow swelling as a function or radiation dose. In contrast, the two other glasses are much more reactive. The whole glass structure compacts upon radiation. Specifically, the silica network, and the boron units tend to blend leading to an increase in density up to some saturation, followed by a very slow expansion which comes to be of the same order than that shown by N-BK7 and S-BSL7. Such findings allowed us to explain the drastic differences in the radiation limits for macroscopic surface splintering for these materials when they are used in neutron guides.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.