885 resultados para new in ILL units


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este trabajo fue desarrollar una metodología de procesamiento de información espacial basada en un Sistema de Información Geográfica (SIG), para la determinación del balance de energía en unidades de tierra (UT) definidas en una cuenca hidrográfica rural. Se determinaron las UT a partir de mapas de unidades de paisaje y de mapas de estratos de superficie operada por productor. Se caracterizaron los ingresos (IE) y egresos energéticos (EE) en los sistemas de producción agrícolas. Se calculó la energía neta (EN) y la relación EE/IE (Re). Los datos se analizaron mediante un ANVA (p < 0,05). Los parámetros IE, EE, EN y Re no fueron significativamente diferentes entre UT, por lo que se infiere que el modelo productivo actualmente desarrollado, desde el punto de vista energético, resulta similar. Se hallaron relaciones de interés entre las variables de estudio y su ubicación geográfica, lo que permite recomendar para los sistemas agrícolas de una cuenca rural la planificación general del uso de la energía considerando las capacidades de los SIG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este ensayo se reflexiona sobre algunas propuestas educativas de Nivel Superior para mujeres privadas de libertad en unidades penitenciarias de Mendoza. Algunos de los condicionantes que estas mujeres deben enfrentar, si bien fueron observados en torno a experiencias de educación universitaria, permiten entrever, limitaciones que aparecen, en general, cuando se trata del ejercicio del derecho a la educación por parte de mujeres. Cada logro va acompañado, a la vez, de relegaciones, o al menos de postergaciones, ya que se trata de avances que se obtienen una vez que han sido conseguidos para los hombre que están privados de libertad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The exchangeable cation compositions of organic-poor terrigenous sediments containing smectite as primary ion exchanger from a series of holes along ODP Leg 168 transect on the eastern flank of the Juan de Fuca Ridge have been examined as a function of distance from the ridge axis and burial depth. The total cation exchange capacity (CEC) values of the sediments ranged from 2 to 59 meq/100 g, increasing with increases in the wt.% smectite. At the seafloor, the exchangeable cation compositions involving Na, K, Mg, and Ca, expressed in terms of equivalent fraction, are nearly constant regardless of the different transect sites: XNa = 0.21 ± 0.04, XK = 0.08 ± 0.01, XMg = 0.33 ± 0.09, and XCa = 0.38 ± 0.09. The calculated selectivity coefficients of the corresponding quaternary exchange reactions, calculated using porewater data, are in log units -5.45 ± 0.39 for Na, 1.97 ± 0.49 for K, 0.42 ± 0.41 for Mg, and 3.06 ± 0.69 for Ca. The exchangeable cation compositions below the seafloor change systematically with distance from the ridge crest and burial depth, conforming to the trends of the same cations in the porewaters. The selectivities for Na and Mg are roughly constant at temperatures from 2 to 66°C, indicating that the equivalent fractions of these two cations are independent of sediment alteration taking place on the ridge flank. Unlike Na and Mg, the temperature influence is significant for K and Ca, with Ca-selectivity decreases being coupled with increases in K-selectivity. Although potentially related to diagenetic and/or hydrothermal mineral precipitation or recrystallization, no evidence of such alteration was detected by XRD and TEM. In sites where upwelling of hydrothermal fluids from basement is occurring, the K-selectivity of the sediment is appreciably higher than at the other sites and corresponds to the formation of (Fe, Mg) rich smectite and zeolites. Our study indicates that local increases in K-selectivity at hydrothermal sites are caused by the formation of these authigenic minerals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Kaolinite, goethite, minor hematite, and gibbsite were found in fluvial upper Lower Cretaceous basal sediment from the Southern Kerguelen Plateau, Sites 748 and 750, 55°S latitude. This mineral assemblage, derived from the weathering of basalt, indicates near-tropical weathering conditions with high orographic rainfall, at least 100 cm per year. The climate deteriorated by the Turonian or Coniacian, as indicated by the decline in kaolinite content of this sediment. The Upper Cretaceous sediment at Site 748 consists of 200 m of millimeter-laminated, sparsely fossiliferous, wood-bearing glauconitic siltstone and clay stone with siderite concretions deposited on a shelf below wave base. Some graded and cross beds indicate that storms swept over the shelf and reworked the sediment. Overlying this unit is 300 m of intermittently partly silicified, bryozoan-inoceramid-echinoderm-rich glauconitic packstones, grainstones, and wackestones. The dominant clay mineral in both units is identical to the mineral composition of the glauconite pellets: randomly interstratified smectite-mica. The clay fraction has a higher percent of expandable layers than the mineral of the glauconite pellets, and the clay of the underlying subunit has a higher percentage of expandable layers than the clay of the carbonate subunit. Potassium levels mirror these mineral variations, with higher K levels in minerals that have a lower percentage of expandable layers. The decrease in expandability of the mineral in the upper subunit is attributed to diagenesis, the result of higher porosity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rock samples from Hole 735B, Southwest Indian Ridge, were examined to determine the principal vein-related types of alteration that occurred, the nature of fluids that were present, and the temperatures and pressures of these fluids. Samples studied included veined metagabbro, veined mylonitic metagabbro, felsic trondhjemite, and late-stage leucocratic diopside-bearing veins. The methods used were standard petrographic analysis, mineral chemical analysis by electron microprobe, fluid inclusion petrography and analysis by heating/freezing techniques and laser Raman microspectroscopy, and oxygen isotopic analyses of mineral separates. Alteration in lithologic Units I and II (above the level of Core 118-735B-3OR; approximately 140 meters below the seafloor) is dominated by hydration by seawater-derived fluids at high temperature, up to about 700°C, and low water/rock ratio, during and immediately after pervasive ductile deformation. Below Core 118-735B-30R, pervasive deformation is less common, and brittle veining and brecciation are the major alteration styles. Leucocratic centimeter-scale veins, often containing diopside and plagioclase, were produced by interaction of hot (about 500°C) seawater-derived fluid and gabbro. The water/rock ratio was locally high at the veins and breccia zones, but the integrated water/rock ratio for the lower part of the hole is probably low. Accessory hydrous magmatic or deuteric phases formed from magmatic volatiles in some gabbro and in trondhjemite. Most subsequent alteration was affected by fluids that were seawater-derived, based on isotopic and chemical analyses of minerals and analyses of fluid inclusions. Many early-generation fluid inclusions, associated with high-temperature veining, contain appreciable methane as well as saline water. The source of methane is unclear, but it may have formed as seawater was reduced during low water/rock interaction with ultramafic upper mantle or ultramafic and mafic layer 3. Temperatures of alteration were calculated on the basis of coexisting mineral chemistry and isotopic values. Hydrothermal metamorphism commenced at about 720°C and continued to about 550°C. Leucocratic veining took place at about 500°C. Alteration within brecciated horizons was also at about 500° to less than 400°C, and the trondhjemite was altered at about 550° to below 490°C. Pressures calculated from a diopside-bearing vein, based on a combination of fluid inclusion and isotopic analysis, were 90 to 100 MPa. This pressure places the sample, from Core 118-735B-70R in Unit V, at about 2 km below the seafloor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Siliceous deposits drilled on Ocean Drilling Program Leg 129 accumulated within a few degrees of the equator during the Jurassic through early Tertiary, as constrained by paleomagnetic data. During the Jurassic and Early Cretaceous, radiolarian ooze, mixed with a minor amount of pelagic clay, was deposited near the equator, and overall accumulation rates were moderate to low. At a smaller scale, in more detail, periods of relatively higher accumulation rates alternated with periods of very low accumulation rates. Higher rates are represented by radiolarite and limestone; lower rates are represented by radiolarian claystone. Our limited data from Leg 129 suggests that accumulation of biogenic deposits was not symmetrical about the equator or consistent over time. In the Jurassic, sedimentation was siliceous; in the Cretaceous there was significant calcareous deposition; in the Tertiary claystone indicates significantly lower accumulation rates at least the northern part of the equatorial zone. Accumulation rates for Leg 129 deposits in the Cretaceous were higher in the southern part of the equatorial zone than in the northern part, and the southern side of this high productivity zone extended to approximately 15°S, while the northern side extended only to about 5°N. Accumulation rates are influenced by relative contributions from various sediment sources. Several elements and element ratios are useful for discriminating sedimentary sources for the equatorial depositional environments. Silica partitioning calculations indicate that silica is dominantly of biogenic origin, with a detrital component in the volcaniclastic turbidite units, and a small hydrothermal component in the basal sediments on spreading ridge basement of Jurassic age at Site 801. Iron in Leg 129 sediments is dominantly of detrital origin, highest in the volcaniclastic units, with a minor hydrothermal component in the basal sediments at Site 801. Manganese concentrations are highest in the units with the lowest accumulation rates. Fe/Mn ratios are >3 in all units, indicating negligible hydrothermal influence. Magnesium and aluminum concentrations are highest in the volcaniclastic units and in the basal sediments at Site 801. Phosphorous is very low in abundance and may be detrital, derived from fish parts. Boron is virtually absent, as is typical of deep-water deposits. Rare earth element concentrations are slightly higher in the volcaniclastic deposits, suggesting a detrital source, and lower in the rest of the lithologic units. Rare earth element abundances are also low relative to "average shale." Rare earth element patterns indicate all samples are light rare earth element enriched. Siliceous deposits in the volcaniclastic units have patterns which lack a cerium anomaly, suggesting some input of rare earth elements from a detrital source; most other units have a distinct negative Ce anomaly similar to seawater, suggesting a seawater source, through adsorption either onto biogenic tests or incorporation into authigenic minerals for Ce in these units. The Al/(Al + Fe + Mn) ratio indicates that there is some detrital component in all the units sampled. This ratio plotted against Fe/Ti shows that all samples plot near the detrital and basalt end-members, except for the basal samples from Site 801, which show a clear trend toward the hydrothermal end-member. The results of these plots and the association of high Fe with high Mg and Al indicate the detrital component is dominantly volcaniclastic, but the presence of potassium in some samples suggests some terrigenous material may also be present, most likely in the form of eolian clay. On Al-Fe-Mn ternary plots, samples from all three sites show a trend from biogenic ooze at the top of the section downhole to oceanic basalt. On Si-Fe-Mn ternary plots, the samples from all three sites fall on a trend between equatorial mid-ocean spreading ridges and north Pacific red clay. Copper-barium ratios show units that have low accumulation rates plot in the authigenic field, and radiolarite and limestone samples that have high accumulation rates fall in the biogenic field.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

On the orbiter of the Rosetta spacecraft, the Cometary Secondary Ion Mass Analyser (COSIMA) will provide new in situ insights about the chemical composition of cometary grains all along 67P/Churyumov–Gerasimenko (67P/CG) journey until the end of December 2015 nominally. The aim of this paper is to present the pre-calibration which has already been performed as well as the different methods which have been developed in order to facilitate the interpretation of the COSIMA mass spectra and more especially of their organic content. The first step was to establish a mass spectra library in positive and negative ion mode of targeted molecules and to determine the specific features of each compound and chemical family analyzed. As the exact nature of the refractory cometary organic matter is nowadays unknown, this library is obviously not exhaustive. Therefore this library has also been the starting point for the research of indicators, which enable to highlight the presence of compounds containing specific atom or structure. These indicators correspond to the intensity ratio of specific peaks in the mass spectrum. They have allowed us to identify sample containing nitrogen atom, aliphatic chains or those containing polyaromatic hydrocarbons. From these indicators, a preliminary calibration line, from which the N/C ratio could be derived, has also been established. The research of specific mass difference could also be helpful to identify peaks related to quasi-molecular ions in an unknown mass spectrum. The Bayesian Positive Source Separation (BPSS) technique will also be very helpful for data analysis. This work is the starting point for the analysis of the cometary refractory organic matter. Nevertheless, calibration work will continue in order to reach the best possible interpretation of the COSIMA observations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A new method is presented to generate reduced order models (ROMs) in Fluid Dynamics problems of industrial interest. The method is based on the expansion of the flow variables in a Proper Orthogonal Decomposition (POD) basis, calculated from a limited number of snapshots, which are obtained via Computational Fluid Dynamics (CFD). Then, the POD-mode amplitudes are calculated as minimizers of a properly defined overall residual of the equations and boundary conditions. The method includes various ingredients that are new in this field. The residual can be calculated using only a limited number of points in the flow field, which can be scattered either all over the whole computational domain or over a smaller projection window. The resulting ROM is both computationally efficient(reconstructed flow fields require, in cases that do not present shock waves, less than 1 % of the time needed to compute a full CFD solution) and flexible(the projection window can avoid regions of large localized CFD errors).Also, for problems related with aerodynamics, POD modes are obtained from a set of snapshots calculated by a CFD method based on the compressible Navier Stokes equations and a turbulence model (which further more includes some unphysical stabilizing terms that are included for purely numerical reasons), but projection onto the POD manifold is made using the inviscid Euler equations, which makes the method independent of the CFD scheme. In addition, shock waves are treated specifically in the POD description, to avoid the need of using a too large number of snapshots. Various definitions of the residual are also discussed, along with the number and distribution of snapshots, the number of retained modes, and the effect of CFD errors. The method is checked and discussed on several test problems that describe (i) heat transfer in the recirculation region downstream of a backwards facing step, (ii) the flow past a two-dimensional airfoil in both the subsonic and transonic regimes, and (iii) the flow past a three-dimensional horizontal tail plane. The method is both efficient and numerically robust in the sense that the computational effort is quite small compared to CFD and results are both reasonably accurate and largely insensitive to the definition of the residual, to CFD errors, and to the CFD method itself, which may contain artificial stabilizing terms. Thus, the method is amenable for practical engineering applications. Resumen Se presenta un nuevo método para generar modelos de orden reducido (ROMs) aplicado a problemas fluidodinámicos de interés industrial. El nuevo método se basa en la expansión de las variables fluidas en una base POD, calculada a partir de un cierto número de snapshots, los cuales se han obtenido gracias a simulaciones numéricas (CFD). A continuación, las amplitudes de los modos POD se calculan minimizando un residual global adecuadamente definido que combina las ecuaciones y las condiciones de contorno. El método incluye varios ingredientes que son nuevos en este campo de estudio. El residual puede calcularse utilizando únicamente un número limitado de puntos del campo fluido. Estos puntos puede encontrarse dispersos a lo largo del dominio computacional completo o sobre una ventana de proyección. El modelo ROM obtenido es tanto computacionalmente eficiente (en aquellos casos que no presentan ondas de choque reconstruir los campos fluidos requiere menos del 1% del tiempo necesario para calcular una solución CFD) como flexible (la ventana de proyección puede escogerse de forma que evite contener regiones con errores en la solución CFD localizados y grandes). Además, en problemas aerodinámicos, los modos POD se obtienen de un conjunto de snapshots calculados utilizando un código CFD basado en la versión compresible de las ecuaciones de Navier Stokes y un modelo de turbulencia (el cual puede incluir algunos términos estabilizadores sin sentido físico que se añaden por razones puramente numéricas), aunque la proyección en la variedad POD se hace utilizando las ecuaciones de Euler, lo que hace al método independiente del esquema utilizado en el código CFD. Además, las ondas de choque se tratan específicamente en la descripción POD para evitar la necesidad de utilizar un número demasiado grande de snapshots. Varias definiciones del residual se discuten, así como el número y distribución de los snapshots,el número de modos retenidos y el efecto de los errores debidos al CFD. El método se comprueba y discute para varios problemas de evaluación que describen (i) la transferencia de calor en la región de recirculación aguas abajo de un escalón, (ii) el flujo alrededor de un perfil bidimensional en regímenes subsónico y transónico y (iii) el flujo alrededor de un estabilizador horizontal tridimensional. El método es tanto eficiente como numéricamente robusto en el sentido de que el esfuerzo computacional es muy pequeño comparado con el requerido por el CFD y los resultados son razonablemente precisos y muy insensibles a la definición del residual, los errores debidos al CFD y al método CFD en sí mismo, el cual puede contener términos estabilizadores artificiales. Por lo tanto, el método puede utilizarse en aplicaciones prácticas de ingeniería.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Predictions about electric energy needs, based on current electric energy models, forecast that the global energy consumption on Earth for 2050 will double present rates. Using distributed procedures for control and integration, the expected needs can be halved. Therefore implementation of Smart Grids is necessary. Interaction between final consumers and utilities is a key factor of future Smart Grids. This interaction is aimed to reach efficient and responsible energy consumption. Energy Residential Gateways (ERG) are new in-building devices that will govern the communication between user and utility and will control electric loads. Utilities will offer new services empowering residential customers to lower their electric bill. Some of these services are Smart Metering, Demand Response and Dynamic Pricing. This paper presents a practical development of an ERG for residential buildings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente ensayo pretende aportar una reflexión sobre el amplio territorio de la imagen en la arquitectura hoy. Para ello un buen ejemplo es el proyecto del Rascacielos de la Friedrichstrasse, realizado por Mies van der Rohe en el periodo de entre guerras de 1921/22. Muchas son las razones que han hecho de esta obra la elegida, pero una más actual sobresale del resto: que de los cientos de ensayos vertidos sobre esta obra solo se haya comentado -salvo alguna excepción- las características objetuales de lo directamente descrito por las vistas -como si fuera un fiel reflejo de la realidad- sin entrar a analizar la verdadera naturaleza física y simbólica de lo representado como expresión subjetiva –espacial- de una arquitectura. Si su importancia como punto de inflexión en el desarrollo inicial de una obra plenamente moderna es un motivo más que suficiente para dedicarle un estudio pormenorizado, ya que puede resultar crucial para comprender los inicios del autor en el Movimiento Moderno. Su presencia como un reducido conjunto de cuatro vistas perspectivas, mezcla de una fotografía del lugar y de un dibujo realizado sobre la misma, acarrea en nuestra opinión significaciones igual de importantes para la comprensión de esta arquitectura que todas aquellas ideas descritas sobre las mismas. Creadas en una época seminal, cuando el lenguaje de la fotografía y el cine están en pleno desarrollo, se puede afirmar que el conjunto de representaciones del Rascacielos de la Friedrichstrasse forman parte como referente histórico de una de las primeras arquitecturas virtuales que pertenecen de pleno derecho al Movimiento Moderno. Paradigma de las más absoluta actualidad, por encontrarse en esa frontera de lo nunca realizado, pero sí asumible espacialmente como realidad fotográfica, las imágenes del rascacielos se pueden considerar así como una de las primeras reflexiones sobre la naturaleza virtual del proyecto arquitectónico postindustrial. No siendo novedoso que la descripción fotográfica de una obra absorba y comunique por sí misma las múltiples propiedades que esta posee, como tampoco lo es que la mayoría de arquitecturas se den por conocidas actualmente a través de los medios. Sorprende que hasta hoy no se hayan analizado con la misma intensidad las múltiples razones que dieron lugar a unas imágenes cuya poética da forma por igual a la arquitectura que representan. Si la intención es reflexionar así sobre este hecho contemporáneo mediante un ejemplo paradigmático, certificado por la historia, nos veremos obligados a emplear una metodología acorde a la condición dual que toda imagen mediatizada produce en su lectura como mezcla fluctuante entre lo que se interpreta de manera autónoma a través de lo representado y de los significados que la imagen adquiere a lo largo de su recorrido como referente histórico. Esta ambivalencia interpretativa llevará a organizar este ensayo mediante dos bloques claramente diferenciados que, complementarios entre sí, siguen el orden de lectura que toda imagen de una arquitectura ofrece a través de los medios. Así, una primera parte, titulada La imagen de una arquitectura, analiza la interpretación que la historia y el autor han dado al rascacielos por medio de su uso en las diferentes exposiciones, revistas, tratados de estilos y monografías de las que ha formado parte. Este recorrido, que es el verdadero espacio donde estas arquitecturas residen, limitado -por una cuestión de poner orden- al estudio a los países que acogieron en vida al autor, servirá para establecer una primera narrativa que expone las diferentes posiciones que la crítica ha producido a lo largo del tiempo. La presencia del primer rascacielos junto al segundo, en la publicación que el arquitecto realiza de manera temprana en Frühlicht, obligará a incorporar esta segunda solución como una parte más del estudio. Cargada de las citas obligadas, de las diferentes personalidades que se han enfrentado a dichos proyectos, este primer análisis historiográfico establece un primer estado de la cuestión donde se revela una lectura ambivalente de los rascacielos. Si la interpretación directa de sus imágenes ha permitido profundizar en las características del vidrio y sus reflejos y en la desnudez de una estructura metálica como claros ejemplos de una expresión moderna y tecnológica de vidrio y el acero. Las particulares formas triangulares del primero y las formas sinuosas del segundo han dado lugar a una multitud de calificaciones, de ser ejemplo tanto de un Expresionismo como de un dadaísmo o constructivismo, que con el tiempo han ido creciendo hacia una admiración artística con una fuerte carga poética. Este lectura histórica, que remata con un breve periodo más actual donde se inicia el cuestionamiento de su carácter utópico y se recupera puntualmente su naturaleza como proyecto, servirá para plantear finalmente una serie de dudas que, sin respuesta aparente, exigen revisar la lectura de sus imágenes como parte de lo que realmente son: expresión de una nueva arquitectura que a partir de ese preciso momento entra de pleno derecho en el Movimiento Moderno. Por otro lado, la existencia en el discurso posterior del arquitecto de un proceso de formalizacion altamente valorado por su autor y la presencia de igual a igual de un lugar en las representaciones y planos de los rascacielos, que la historia parece haber obviado, servirán como razón más que suficiente para la revisión de unas relaciones iniciales con la vanguardia -todavía hoy poco definidas- así como para proponer la lectura renovada de dichas propuestas en altura por lo que también son: proyectos que responden a unas necesidades espaciales de un lugar y tiempo muy determinados. Esta segunda parte, denominada La arquitectura de una imagen, se plantea así más como una inmersión total en el mundo del proyecto que una simple descripción nominal del mismo. Conscientemente simétrica y opuesta a un primer bloque histórico, esta segunda parte -mucho más extensa y parte central de esta tesis- se concentra en el análisis de las imágenes como: aquel conjunto de eventos históricos que aplicados sobre la ciudad, el lugar, el rascacielos, y los procesos técnicos de la imagen dieron lugar a estas arquitecturas como razón de ser. Consecuentemente se tratará pues de bucear en las razones que, ocultas como proceso de formalización, llevaron a Mies a dar un paso más allá hacia a una nueva manera de hacer, ver y pensar su arquitectura, de expresar un espacio. La aproximación a estas imágenes radicará por tanto en resaltar al mismo tiempo la naturaleza de unas representaciones cuyas características fotográficas son el fiel reflejo de una época donde los nuevos medios visuales –cine y fotografía- empiezan a ser cuestionados por su excesiva utilización. La complejidad de unos hechos coincidentes en el tiempo obligará a dividir este estudio en un primer acercamiento general, a la respuesta dada por una mayoría de participantes al concurso, para así cotejar la importancia de una actitud proyectual y contextual común de Mies y sus compañeros. Mezcla de requerimientos y necesidades de la propia historia de la parcela, de las peculiaridades de un lugar y las exigencias programáticas del concurso; el siguiente paso consistirá en reconstruir el proceso de formalización del conjunto de dibujos que caracterizan ambos proyectos para así comprender los mecanismo que, suspendidos como traslaciones entre las diferentes representaciones, operan en la realización física de dichas imágenes y complementan como pensamiento la idea arquitectónica de los mismos. Con lo que se pretende ofrecer dos cosas: una interpretación que tenga en cuenta la novedosa naturaleza de la manera de pensar lo fotográfico en el arquitecto, así como la particular idiosincrasia del momento en que estas concurren. Dicho de otro modo, se realizará una aproximación de las vistas del primer rascacielos que tenga en cuenta la historia tecnológica y visual que rodea al evento y las características de una ejecución física todavía hoy sin aclarar del todo. El descubrimiento de una serie de incoherencias geométricas en las plantas, alzado y vistas del primer proyecto llevará a argumentar la presencia de un trampantojo que, nunca antes revelado, se entiende lleno de unas intenciones espaciales plenamente vanguardistas. Interpretación arquitectónica de las imágenes donde la presencia de una serie de elementos directamente ligados al lenguaje fotográfico y cinematográfico se traduce en una nueva lectura espacial plenamente dinámica llena de dislocación, ritmo y simultaneidad alejada de la idea de ver la forma como un elemento permanentemente fijo. Sugerencia que nos lleva directamente a la lectura del segundo proyecto de rascacielos como una clara continuación de lo imaginado en el primero. Para finalizar, tras una revisión biográfica -previa al proyecto- que desvela unas preocupaciones urbanas y un deseo de cambio anterior al concurso de la Friedrichstrasse, se comparan estas nuevas significaciones espaciales con una práctica de vanguardia que, coetánea a la convocatoria de 1921, demuestran unas investigaciones muy similares con unos mismos intereses cinematográficos. La lectura de las propuestas de tres artistas próximos en ese momento al arquitecto -como son Hans Richter, Moholy-Nagy y El Lissitzky- permiten demostrar unas preocupaciones muy similares a lo conseguido por Mies con los rascacielos que parecen haber servido de ejemplo y motivación mutua para el surgimiento de una nueva espacialidad -más fluida-. Esta lectura permitirá recuperar la importancia de estos dos proyectos como la expresión directa de una nueva manera de pensar y hacer su arquitectura que ya no tendrá vuelta atrás en la obra de Mies. A la vez que recuperar la potencialidad poética de unas vistas que, así definidas reiteradamente por la crítica, se revelan ahora como directas transmisoras de ese deseo de cambio arquitectónico evidenciado en los proyectos posteriores. Racionalización de una poética que al ir más allá de la forma directamente transcrita permite establecer una última reflexión general sobre como opera la imagen en la arquitectura, así como la pertinencia crítica de este proyecto para con el mundo virtual de hoy. En definitiva, más allá del poder evocador de estas representaciones, este será un estudio que pretende cuestionar las características que la imagen de la arquitectura puede proponer más allá de su literalidad por medio de la fascinante interacción que se produce entre la imagen y lo espacialmente imaginado. Encuentros, recursos e intereses de una respuesta plenamente arquitectónica que, además de dar luz a un cambio tan inclasificable como moderno, abre el camino a la interpretación de un proceso de formalizacion que, reiteradamente defendido por su autor justifican una intensidad poética dada por la historia y reafirman una preocupación artística a menudo desmentida por su autor. Dicho de otro modo, si profundizar en las razones arquitectónicas, históricas y técnicas que llevan a Mies a realizar sus rascacielos, por medio de su relación con la vanguardia y el cine, arrojan luz y explican el cambio que se está gestando en el arquitecto cara una nueva espacialidad fluida. Reflexionar sobre su naturaleza espacial -de estas imágenes ya icónicas- equivale a aportar una reflexión crítica sobre la naturaleza simbólica de la imagen de la arquitectura hoy. “Aunque el puesto clave que ocupa el Rascacielos de la Friedrichstrasse dentro de la historia de la arquitectura moderna nunca ha sido seriamente cuestionado, la opinion critica al respecto siempre ha estado dividida. Desde la publicacion de la monografia de Philip Johnson sobre Mies en 1947, el muro cortina como una piel transparente que reviste el esqueleto estructural has ido aclamado como un gran avance pionero. Otros puntos de vista sobre el edificio, subrayando su supuesta planta expresionista, lo han visto como un esfuerzo un poco menos aventurado. Asi calibrada, la propuesta de Mies para la Friedrichstrasse es radicalmente moderna en mas de un sentido enfatizado por Johnson.” 1 W.Tegethoff ABSTRACT This essay reflects on the broad territory of the image in today’s architecture. One good example is the Friedrichstrasse Skyscraper design by Mies van der Rohe in 1921/22, during the period between World Wars I and II. There are many reasons why this work has been chosen, but one of the most recent stands out above the rest: of the hundreds of essays written on this work, comments have been made only (with the odd exception) on the objectual characteristics of what has been directly described by the views (as if it were a genuine reflection of reality), without analysing the real physical and symbolic nature of the representation a subjective (spatial) expression of architecture. If its importance as a point of inflection in the initial development of a completely modern work is more than enough reason to make a detailed study, since it may be crucial for understanding the author’s beginnings in the Modern Movement. Its presence as a reduced set of four views, the combination of a photograph of the place and a drawing made of it, in our opinion, carry meanings that are as important for understanding this architecture as all the ideas described about them. Created during an early period, when the languages of photography and cinema were in full swing, it can be said that the perspectives of the Friedrichstrasse Skyscraper form a historical reference of one of the first virtual architectures that belong entirely to the Modern Movement. A paradigm of the most absolute modernity owing to the fact that it is on that frontier of the never-accomplished, but spatially assumable as photographic reality, the images of the skyscraper can be considered as one of the first reflections on the virtual nature of post-industrial architectural design. There is nothing new in the fact that the photographic description of work absorbs and communicates on its own the multiple properties it involves and there is nothing new in the fact that most architectures become known today through the media. It is surprising that no analysis has been made to date, with the same intensity, of the many reasons that led to a number of images whose poetry add form to the architecture they represent. If the intention is to reflect on this contemporary fact using a paradigmatic example certified by history, we will be forced to use a methodology that corresponds to the dual condition produced by the interpretation of all media images as a fluctuating combination of what is interpreted independently through the representation and meanings the image acquires as a historical reference. This ambivalent interpretation will lead this essay to be structured in two clearly different and complementary blocks that follow the reading order offered by any image of architecture in the media. Thus, a first part, titled The image of an architecture, analyses the interpretation history and the author have given to the skyscraper through its use in the various exhibitions, magazines, style agreements and monographs in which it has been included. This examination, which is the real space in which these architectures reside, is (to delimit and organise the study) restricted to countries in which the author lived during his lifetime and it will help establish a first narrative that considers the different interpretations made by critics over time. The presence of the first skyscraper next to the second one in the publication the architect makes early on in Frühlicht will require the second solution to be incorporated as another part of the study. Laden with necessary quotes by the various personalities who have examined said designs, this first historiographical analysis establishes an initial state of the question that reveals an ambivalent interpretation of skyscrapers. If the direct interpretation of the images has made it possible to closely examine the characteristics of the glass and its reflections and the nudity of a metal structure as clear examples of a modern and technological expression of glass and steel. The particular triangular shapes of the former and the sinuous shapes of the latter have generated many classifications that suggest it is an example of Expressionism, Dadaism or Constructivism, which have grown over time into artistic admiration laden with poetry. This historical reading, which concludes with a more recent short period that begins to question the utopian character and recovers its nature as a project, will finally consider a number of doubts that have no apparent answer and require a revision of the reading of the images as part of what they actually are: expression of a new architecture that becomes part of the Modern Movement as from that precise moment. In addition, the existence in the architect’s subsequent discourse of a formalisation process highly valued by the author and the equal presence of a place in the representations and plans of a skyscraper history seems to have forgotten, will stand as more than sufficient reason for a revision of initial relations with the avantgarde -not particularly well defined today- together with a renewed reading of said vertical proposals for what they also are: projects that respond to the special needs of a very specific place and time. This second part, titled The architecture of an image, is presented more as a total immersion in the project world than a mere nominal description of it. Deliberately symmetrical and opposite to a historic first bloc, this second part (much longer and central part of the thesis) it will focus on analysing images as: the set of historical events that affected the skyscraper, city, place and technical processes image to provide these architectures with their raison d’être. Consequently, the aim is to delve in the reasons which, hidden as a formalisation process, led Mies to move on to a new form of doing, seeing and thinking his architecture, of expressing a space. The approach to these images will therefore lie in highlighting the nature of a number of representations whose photographic features are the true reflection of a period in which the new visual media (cinema and photography) begin to be questioned due to excessive use. The complexity of facts that coincide in time will require this study to be divided into a first general approach, with a response given by most of the participants in the competition, to compare the importance of a common approach in terms of project and context of the response given by Mies and his colleagues. A combination of requirements and needs of the very history of the plot of land, the peculiarities of a place and the programmatic requirements of the competition; the next step will reconstruct the formalisation process of the set of drawings that characterise both to understand the mechanism which, suspended like translations between the different representations, operates in the realisation of said images and complements as thought their architectural idea. The aim is thus to offer two things: an interpretation that takes into account the new way in which the architect works with photography, together with the particular idiosyncrasy of the moment at which they occur. In other words, the approach will focus on the views of the first skyscraper, which takes into account the technological and visual history that surrounds the event and the characteristics of a physical execution that still remains unexplained in full. The subsequent discovery of a number of geometrical incoherences in the floor plans, elevations and views of the first project will lead to an argument for the presence of trompe l’oeil which, never before revealed, is seen as laden with completely avant-garde spatial intentions. Architectural interpretation of the images where the presence of a number of elements directly linked to the languages of photography and cinema is translated into a new spatial reading that is completely dynamic and full of dislocation, rhythm and simultaneity far-removed from the idea of seeing shape as a permanently fixed element. This suggestion takes us to directly to the second skyscraper design as a clear continuation of what he imagined in the first. To end, after a preliminary biographical revision (previous to the project) that reveals urban concerns and a desire for change before the Friedrichstrasse competition, a comparison is made of these new spatial meanings with avant-garde practice which, contemporary with the 1921 competition, show very similar investigations with the same cinematographic interest. The reading of the proposals of three artists close to the architect at that time -i.e. Hans Richter, Moholy-Nagy and El Lissitzky- reveals concerns that are very similar to what Mies achieved with the skyscrapers that seem to have been used as an example and mutual motivation for the creation of a new (more fluent) spatiality. This interpretation will make it possible to recover the importance of these two projects as the direct expression of a new way of thinking and doing his architecture that was to remain fixed in Mies’ work. This also gives rise to the possibility of recovering the poetic potential of views which, as defined repeatedly by the critics, now stand as the direct transmitters of the desire for architectural change shown in later projects. A rationalisation of poetry which, by going beyond the directly transcribed form, gives rise to the establishment of one general final reflection on how the image works in architecture, together with the critical relevance of this design for today’s virtual world. In short, beyond the evocative power of images this will be a study which questions the characteristics the image of architecture can propose beyond its literality through the fascinating interaction between the image and spatially imagined. Encounters, resources and interests of a completely architectural response that, besides sheds light to a change that is as non-classifiable as it is modern, shows the way to the interpretation of a formalisation process which, repeatedly defined by the author, justifies a poetic intensity and confirms an artistic concern often denied by the author. In other words, examining the architectural, historical and technical reasons that led Mies to create his skyscrapers, thanks to its relationship with the avant-garde and cinema, sheds light on and explains the change taking place in the architect with regard to a new fluent spatiality. Reflecting on the spatial nature -of these iconic images- is tantamount to a critical reflection on the symbolic nature of architecture today. “Although the key position of the Friedrichstrasse Office Building within the early history of modern architecture has never been seriously challenged, critical opinion on it has always been divided. Ever since the publication of Philip Johnson’s monograph on Mies in 1947, the curtain wall as a transparent skin sheathing the skeleton structure has frequently been hailed as a pioneering breakthrough. Other views of the building, stressing its supposedly Expressionist plan, have seen it as a somewhat less adventurous effort. In fact, the project has never been regarded in abroad context. Thus measured, Mies’s proposal fro Friedrichstrasse is radically modern in more than the one respect emphasized by Johnson.” 1 W.Tegethoff

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las últimas dos décadas, se ha puesto de relieve la importancia de los procesos de adquisición y difusión del conocimiento dentro de las empresas, y por consiguiente el estudio de estos procesos y la implementación de tecnologías que los faciliten ha sido un tema que ha despertado un creciente interés en la comunidad científica. Con el fin de facilitar y optimizar la adquisición y la difusión del conocimiento, las organizaciones jerárquicas han evolucionado hacia una configuración más plana, con estructuras en red que resulten más ágiles, disminuyendo la dependencia de una autoridad centralizada, y constituyendo organizaciones orientadas a trabajar en equipo. Al mismo tiempo, se ha producido un rápido desarrollo de las herramientas de colaboración Web 2.0, tales como blogs y wikis. Estas herramientas de colaboración se caracterizan por una importante componente social, y pueden alcanzar todo su potencial cuando se despliegan en las estructuras organizacionales planas. La Web 2.0 aparece como un concepto enfrentado al conjunto de tecnologías que existían a finales de los 90s basadas en sitios web, y se basa en la participación de los propios usuarios. Empresas del Fortune 500 –HP, IBM, Xerox, Cisco– las adoptan de inmediato, aunque no hay unanimidad sobre su utilidad real ni sobre cómo medirla. Esto se debe en parte a que no se entienden bien los factores que llevan a los empleados a adoptarlas, lo que ha llevado a fracasos en la implantación debido a la existencia de algunas barreras. Dada esta situación, y ante las ventajas teóricas que tienen estas herramientas de colaboración Web 2.0 para las empresas, los directivos de éstas y la comunidad científica muestran un interés creciente en conocer la respuesta a la pregunta: ¿cuáles son los factores que contribuyen a que los empleados de las empresas adopten estas herramientas Web 2.0 para colaborar? La respuesta a esta pregunta es compleja ya que se trata de herramientas relativamente nuevas en el contexto empresarial mediante las cuales se puede llevar a cabo la gestión del conocimiento en lugar del manejo de la información. El planteamiento que se ha llevado a cabo en este trabajo para dar respuesta a esta pregunta es la aplicación de los modelos de adopción tecnológica, que se basan en las percepciones de los individuos sobre diferentes aspectos relacionados con el uso de la tecnología. Bajo este enfoque, este trabajo tiene como objetivo principal el estudio de los factores que influyen en la adopción de blogs y wikis en empresas, mediante un modelo predictivo, teórico y unificado, de adopción tecnológica, con un planteamiento holístico a partir de la literatura de los modelos de adopción tecnológica y de las particularidades que presentan las herramientas bajo estudio y en el contexto especifico. Este modelo teórico permitirá determinar aquellos factores que predicen la intención de uso de las herramientas y el uso real de las mismas. El trabajo de investigación científica se estructura en cinco partes: introducción al tema de investigación, desarrollo del marco teórico, diseño del trabajo de investigación, análisis empírico, y elaboración de conclusiones. Desde el punto de vista de la estructura de la memoria de la tesis, las cinco partes mencionadas se desarrollan de forma secuencial a lo largo de siete capítulos, correspondiendo la primera parte al capítulo 1, la segunda a los capítulos 2 y 3, la tercera parte a los capítulos 4 y 5, la cuarta parte al capítulo 6, y la quinta y última parte al capítulo 7. El contenido del capítulo 1 se centra en el planteamiento del problema de investigación así como en los objetivos, principal y secundarios, que se pretenden cumplir a lo largo del trabajo. Así mismo, se expondrá el concepto de colaboración y su encaje con las herramientas colaborativas Web 2.0 que se plantean en la investigación y una introducción a los modelos de adopción tecnológica. A continuación se expone la justificación de la investigación, los objetivos de la misma y el plan de trabajo para su elaboración. Una vez introducido el tema de investigación, en el capítulo 2 se lleva a cabo una revisión de la evolución de los principales modelos de adopción tecnológica existentes (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), dando cuenta de sus fundamentos y factores empleados. Sobre la base de los modelos de adopción tecnológica expuestos en el capítulo 2, en el capítulo 3 se estudian los factores que se han expuesto en el capítulo 2 pero adaptados al contexto de las herramientas colaborativas Web 2.0. Con el fin de facilitar la comprensión del modelo final, los factores se agrupan en cuatro tipos: tecnológicos, de control, socio-normativos y otros específicos de las herramientas colaborativas. En el capítulo 4 se lleva a cabo la relación de los factores que son más apropiados para estudiar la adopción de las herramientas colaborativas y se define un modelo que especifica las relaciones entre los diferentes factores. Estas relaciones finalmente se convertirán en hipótesis de trabajo, y que habrá que contrastar mediante el estudio empírico. A lo largo del capítulo 5 se especifican las características del trabajo empírico que se lleva a cabo para contrastar las hipótesis que se habían enunciado en el capítulo 4. La naturaleza de la investigación es de carácter social, de tipo exploratorio, y se basa en un estudio empírico cuantitativo cuyo análisis se llevará a cabo mediante técnicas de análisis multivariante. En este capítulo se describe la construcción de las escalas del instrumento de medida, la metodología de recogida de datos, y posteriormente se presenta un análisis detallado de la población muestral, así como la comprobación de la existencia o no del sesgo atribuible al método de medida, lo que se denomina sesgo de método común (en inglés, Common Method Bias). El contenido del capítulo 6 corresponde al análisis de resultados, aunque previamente se expone la técnica estadística empleada, PLS-SEM, como herramienta de análisis multivariante con capacidad de análisis predictivo, así como la metodología empleada para validar el modelo de medida y el modelo estructural, los requisitos que debe cumplir la muestra, y los umbrales de los parámetros considerados. En la segunda parte del capítulo 6 se lleva a cabo el análisis empírico de los datos correspondientes a las dos muestras, una para blogs y otra para wikis, con el fin de validar las hipótesis de investigación planteadas en el capítulo 4. Finalmente, en el capítulo 7 se revisa el grado de cumplimiento de los objetivos planteados en el capítulo 1 y se presentan las contribuciones teóricas, metodológicas y prácticas derivadas del trabajo realizado. A continuación se exponen las conclusiones generales y detalladas por cada grupo de factores, así como las recomendaciones prácticas que se pueden extraer para orientar la implantación de estas herramientas en situaciones reales. Como parte final del capítulo se incluyen las limitaciones del estudio y se sugiere una serie de posibles líneas de trabajo futuras de interés, junto con los resultados de investigación parciales que se han obtenido durante el tiempo que ha durado la investigación. ABSTRACT In the last two decades, the relevance of knowledge acquisition and dissemination processes has been highlighted and consequently, the study of these processes and the implementation of the technologies that make them possible has generated growing interest in the scientific community. In order to ease and optimize knowledge acquisition and dissemination, hierarchical organizations have evolved to a more horizontal configuration with more agile net structures, decreasing the dependence of a centralized authority, and building team-working oriented organizations. At the same time, Web 2.0 collaboration tools such as blogs and wikis have quickly developed. These collaboration tools are characterized by a strong social component and can reach their full potential when they are deployed in horizontal organization structures. Web 2.0, based on user participation, arises as a concept to challenge the existing technologies of the 90’s which were based on websites. Fortune 500 companies – HP, IBM, Xerox, Cisco- adopted the concept immediately even though there was no unanimity about its real usefulness or how it could be measured. This is partly due to the fact that the factors that make the drivers for employees to adopt these tools are not properly understood, consequently leading to implementation failure due to the existence of certain barriers. Given this situation, and faced with theoretical advantages that these Web 2.0 collaboration tools seem to have for companies, managers and the scientific community are showing an increasing interest in answering the following question: Which factors contribute to the decision of the employees of a company to adopt the Web 2.0 tools for collaborative purposes? The answer is complex since these tools are relatively new in business environments. These tools allow us to move from an information Management approach to Knowledge Management. In order to answer this question, the chosen approach involves the application of technology adoption models, all of them based on the individual’s perception of the different aspects related to technology usage. From this perspective, this thesis’ main objective is to study the factors influencing the adoption of blogs and wikis in a company. This is done by using a unified and theoretical predictive model of technological adoption with a holistic approach that is based on literature of technological adoption models and the particularities that these tools presented under study and in a specific context. This theoretical model will allow us to determine the factors that predict the intended use of these tools and their real usage. The scientific research is structured in five parts: Introduction to the research subject, development of the theoretical framework, research work design, empirical analysis and drawing the final conclusions. This thesis develops the five aforementioned parts sequentially thorough seven chapters; part one (chapter one), part two (chapters two and three), part three (chapters four and five), parte four (chapters six) and finally part five (chapter seven). The first chapter is focused on the research problem statement and the objectives of the thesis, intended to be reached during the project. Likewise, the concept of collaboration and its link with the Web 2.0 collaborative tools is discussed as well as an introduction to the technology adoption models. Finally we explain the planning to carry out the research and get the proposed results. After introducing the research topic, the second chapter carries out a review of the evolution of the main existing technology adoption models (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), highlighting its foundations and factors used. Based on technology adoption models set out in chapter 2, the third chapter deals with the factors which have been discussed previously in chapter 2, but adapted to the context of Web 2.0 collaborative tools under study, blogs and wikis. In order to better understand the final model, the factors are grouped into four types: technological factors, control factors, social-normative factors and other specific factors related to the collaborative tools. The first part of chapter 4 covers the analysis of the factors which are more relevant to study the adoption of collaborative tools, and the second part proceeds with the theoretical model which specifies the relationship between the different factors taken into consideration. These relationships will become specific hypotheses that will be tested by the empirical study. Throughout chapter 5 we cover the characteristics of the empirical study used to test the research hypotheses which were set out in chapter 4. The nature of research is social, exploratory, and it is based on a quantitative empirical study whose analysis is carried out using multivariate analysis techniques. The second part of this chapter includes the description of the scales of the measuring instrument; the methodology for data gathering, the detailed analysis of the sample, and finally the existence of bias attributable to the measurement method, the "Bias Common Method" is checked. The first part of chapter 6 corresponds to the analysis of results. The statistical technique employed (PLS-SEM) is previously explained as a tool of multivariate analysis, capable of carrying out predictive analysis, and as the appropriate methodology used to validate the model in a two-stages analysis, the measurement model and the structural model. Futhermore, it is necessary to check the requirements to be met by the sample and the thresholds of the parameters taken into account. In the second part of chapter 6 an empirical analysis of the data is performed for the two samples, one for blogs and the other for wikis, in order to validate the research hypothesis proposed in chapter 4. Finally, in chapter 7 the fulfillment level of the objectives raised in chapter 1 is reviewed and the theoretical, methodological and practical conclusions derived from the results of the study are presented. Next, we cover the general conclusions, detailing for each group of factors including practical recommendations that can be drawn to guide implementation of these tools in real situations in companies. As a final part of the chapter the limitations of the study are included and a number of potential future researches suggested, along with research partial results which have been obtained thorough the research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente TFG está enmarcado en el contexto de la biología sintética (más concretamente en la automatización de protocolos) y representa una parte de los avances en este sector. Se trata de una plataforma de gestión de laboratorios autónomos. El resultado tecnológico servirá para ayudar al operador a coordinar las máquinas disponibles en un laboratorio a la hora de ejecutar un experimento basado en un protocolo de biología sintética. En la actualidad los experimentos biológicos tienen una tasa de éxito muy baja en laboratorios convencionales debido a la cantidad de factores externos que intervienen durante el protocolo. Además estos experimentos son caros y requieren de un operador pendiente de la ejecución en cada fase del protocolo. La automatización de laboratorios puede suponer un aumento de la tasa de éxito, además de una reducción de costes y de riesgos para los trabajadores en el entorno del laboratorio. En la presente propuesta se pretende que se dividan las distintas entidades de un laboratorio en unidades funcionales que serán los elementos a ser coordinados por la herramienta resultado del TFG. Para aportar flexibilidad a la herramienta se utilizará una arquitectura orientada a servicios (SOA). Cada unidad funcional desplegará un servicio web proporcionando su funcionalidad al resto del laboratorio. SOA es esencial para la comunicación entre máquinas ya que permite la abstracción del tipo de máquina que se trate y como esté implementada su funcionalidad. La principal dificultad del TFG consiste en lidiar con las dificultades de integración y coordinación de las distintas unidades funcionales para poder gestionar adecuadamente el ciclo de vida de un experimento. Para ello se ha realizado un análisis de herramientas disponibles de software libre. Finalmente se ha escogido la plataforma Apache Camel como marco sobre el que crear la herramienta específica planteada en el TFG. Apache Camel juega un papel importantísimo en este proyecto, ya que establece las capas de conexión a los distintos servicios y encamina los mensajes oportunos a cada servicio basándose en el contenido del fichero de entrada. Para la preparación del prototipo se han desarrollado una serie de servicios web que permitirán realizar pruebas y demostraciones de concepto de la herramienta en sí. Además se ha desarrollado una versión preliminar de la aplicación web que utilizará el operador del laboratorio para gestionar las peticiones, decidiendo que protocolo se ejecuta a continuación y siguiendo el flujo de tareas del experimento.---ABSTRACT---The current TFG is bound by synthetic biology context (more specifically in the protocol automation) and represents an element of progression in this sector. It consists of a management platform for automated laboratories. The technological result will help the operator to coordinate the available machines in a lab, this way an experiment based on a synthetic biological protocol, could be executed. Nowadays, the biological experiments have a low success rate in conventional laboratories, due to the amount of external factors that intrude during the protocol. On top of it, these experiments are usually expensive and require of an operator monitoring at every phase of the protocol. The laboratories’ automation might mean an increase in the success rate, and also a reduction of costs and risks for the lab workers. The current approach is hoped to divide the different entities in a laboratory in functional units. Those will be the elements to be coordinated by the tool that results from this TFG. In order to provide flexibility to the system, a service-oriented architecture will be used (SOA). Every functional unit will deploy a web service, publishing its functionality to the rest of the lab. SOA is essential to facilitate the communication between machines, due to the fact that it provides an abstraction on the type of the machine and how its functionality is implemented. The main difficulty of this TFG consists on grappling with the integration and coordination problems, being able to manage successfully the lifecycle of an experiment. For that, a benchmark has been made on the available open source tools. Finally Apache Camel has been chosen as a framework over which the tool defined in the TFG will be created. Apache Camel plays a fundamental role in this project, given that it establishes the connection layers to the different services and routes the suitable messages to each service, based on the received file’s content. For the prototype development a number of services that will allow it to perform demonstrations and concept tests have been deployed. Furthermore a preliminary version of the webapp has been developed. It will allow the laboratory operator managing petitions, to decide what protocol goes next as it executes the flow of the experiment’s tasks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La hipótesis de partida de esta tesis es que existe una influencia directa entre la técnica que se desarrolla durante el segundo período del s. XIX y el cambio sustancial de los conceptos y de la teoría arquitectónica que se da en esos mismos años. Dicha influencia genera nuevos modelos constructivos que serán la base de la arquitectura moderna. Para llegar a la confirmación de la hipótesis, se han planteado tres objetivos principales que responden a los tres capítulos principales de la misma. En primera instancia, se establecen las condiciones teóricas del debate arquitectónico entre las fechas estudiadas. Se analiza el concepto de modelo y «estilo» para evaluar si, efectivamente, hubo cambio o no. También se analizará si los arquitectos eran conscientes de la necesidad de una nueva arquitectura que respondiese a la funcionalidad que el progreso requería. Para comprobar que dicho cambio se ha producido a todos los niveles hasta el punto de redefinir el modelo constructivo se escoge un ejemplo práctico que cumpla las condiciones necesarias para sustentar o no la tesis y se investiga sobre si sucede o no el cambio. A continuación, se analizará la situación de la técnica y de los avances tecnológicos en el período estudiado. Es importante contrastar que realmente hay un conocimiento y una conciencia verdadera de cambio entre los teóricos y los arquitectos que están construyendo en ese momento. Confirmar que dicha conexión existe es vital para la investigación; para eso, se analizará y se profundizará en las conexiones entre la arquitectura y la ingeniería (o los avances tecnológicos) para entender la implicación de uno con el otro. Con este fin, se han estudiado las distintas publicaciones periódicas de la época; sobre todo la más relevante y la que primero se editó, que fue La revue générale de l’architecture; me he apoyado en ella. Es un documento que mensualmente recoge cambios, avances y debates. Tuvo una grandísima divulgación; todo docente, arquitecto e ingeniero de la época tenía un acceso fácil y directo a dicha publicación. Por último, a raíz de una construcción ideal proyectada por uno de los grandes arquitectos teóricos de la época, se reflexiona sobre si esa arquitectura supone realmente una comprensión y una conciencia de los nuevos modelos arquitectónicos, definidos por una técnica en progreso, o si responde exclusivamente a una utopía arquitectónica como tantas otras se habían esbozado con anterioridad por grandes teóricos. Para poder definir la geometría de este elemento estructural, se ha realizado un modelado tridimensional que permite calcular la estructura a través de un proceso de elementos finitos. El propósito de este cálculo no es exclusivamente saber si la estructura era viable o no en aquella época, sino también comprender si la definición de estos originales elementos estructurales implicaba una concepción nueva de las estructuras tridimensionales y eso significa que empezaba a germinar un cambio sustancial en la teoría de la arquitectura, con la búsqueda de un nuevo modelo constructivo derivado de los avances técnicos. De este modo queda demostrado que el modelo constructivo ha cambiado definitivamente por un modelo mucho más versátil y sobre todo con una gran capacidad de adaptación, esto combinado a su vez con una proliferación de patentes que intentan y buscan una estandarización del modelo constructivo y que no son, en ningún caso, un modelo en sí. Como última conclusión, queda argumentado que en aquella época ya se tenía una gran intuición estructural; a pesar de que el cálculo matemático era todavía algo relativamente nuevo, se manejaban de forma instintiva líneas de cargas, combinación de materiales y nuevas formas, que ayudarán a crear los modelos de los próximos años y que serán la base del cálculo numérico posterior. ABSTRACT The hypothesis of this thesis is that there is a direct influence between the technique developed during the second period of the XIX century and the substantial change in the concepts and in the architectural theory that occurs in those years. This influence develops new building models that will be the basis of modern architecture. To confirm this hypothesis, we present three principal objectives that corresponds to the three principals chapsters of the text. First, we establish the theoretical conditions of the architectural debate between the dates studied. We analyze the concepts of model and “style” to assess whether there was a change or not. We consider as well if architects were aware of the need for a new architecture to respond to the functionality needs that progress demanded. To verify that the change occurred at all levels to the extent of redefining the building model we choose a practical example that fulfills the necessary conditions to support or not the thesis and we investigate whether or not the change happens. Next, we analyze the status of technical and technological advances in the study period of study. It is important to contrast that there is a real knowledge and awareness of change between the theorists and architects who are building at the time. Confirming that that connection exists is vital for the research; for that, we will analyze and deepen into the connections between architecture and engineering (or technological progress) to understand the implication of one into the other. To this end, we have studied various publications of the time; especially the most relevant and the first published, La Revue générale de l’architecture; I have relied on it. This is a monthly document that includes changes, developments and debates. It had a very great disclosure; every teacher, architect and engineer of the time had a direct and easy access to this publication. Finally, following theoretical ideal construction projected by one of the great architects of the time, we reflect on whether that architecture really represents an understanding and awareness of the new architectural models defined by a technique in progress, or if it only responds to an architectural utopia as the ones outlined earlier by the great theorists. To be able to define the geometry of this structural item, we have carried out a three-dimensional modeling that enables us to calculate the structure through a process of finite elements. The purpose of this calculation is not exclusively understanding whether the structure was viable or not at the time, but also understanding if the definition of these original structural elements involved a new concept of three-dimensional structures and if that involved the beginning of a substantial change in theory of architecture, with the search for a new construction model derived from technical advances. In this way it is demonstrated that the building model has definitely changed for a much more versatile one and above all with a high adaptation capacity, this combined in turn with a proliferation of patents that try and seek a standardization of the building model and are not, in any case, a model in itself. As a final conclusion, it is argued that at the time a major structural intuition was present; even though the math calculation was still relatively new, in an instinctively way load lines, combination of materials and new forms were taken into account, that will help to create models in the coming years and which will form the basis of subsequent numerical calculation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexto: La presente tesis doctoral se enmarca en la actividad de educción de los requisitos. La educción de requisitos es generalmente aceptada como una de las actividades más importantes dentro del proceso de Ingeniería de Requisitos, y tiene un impacto directo en la calidad del software. Es una actividad donde la comunicación entre los involucrados (analistas, clientes, usuarios) es primordial. La efectividad y eficacia del analista en la compresión de las necesidades de clientes y usuarios es un factor crítico para el éxito del desarrollo de software. La literatura se ha centrado principalmente en estudiar y comprender un conjunto específico de capacidades o habilidades personales que debe poseer el analista para realizar de forma efectiva la actividad de educción. Sin embargo, existen muy pocos trabajos que han estudiado dichas capacidades o habilidades empíricamente. Objetivo: La presente investigación tiene por objetivo estudiar el efecto de la experiencia, el conocimiento acerca del dominio y la titulación académica que poseen los analistas en la efectividad del proceso de educción de los requisitos, durante los primeros contactos del analista con el cliente. Método de Investigación: Hemos ejecutado 8 estudios empíricos entre cuasi-experimentos (4) y experimentos controlados (4). Un total de 110 sujetos experimentales han participado en los estudios, entre estudiantes de post-grado de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid y profesionales. La tarea experimental consistió en realizar sesiones de educción de requisitos sobre uno o más dominios de problemas (de carácter conocido y desconocido para los sujetos). Las sesiones de educción se realizaron empleando la entrevista abierta. Finalizada la entrevista, los sujetos reportaron por escrito toda la información adquirida. Resultados: Para dominios desconocidos, la experiencia (entrevistas, requisitos, desarrollo y profesional) del analista no influye en su efectividad. En dominios conocidos, la experiencia en entrevistas (r = 0.34, p-valor = 0.080) y la experiencia en requisitos (r = 0.22, p-valor = 0.279), ejercen un efecto positivo. Esto es, los analistas con más años de experiencia en entrevistas y/o requisitos tienden a alcanzar mejores efectividades. Por el contrario, la experiencia en desarrollo (r = -0.06, p-valor = 0.765) y la experiencia profesional (r = -0.35, p-valor = 0.077), tienden a ejercer un efecto nulo y negativo, respectivamente. En lo que respecta al conocimiento acerca del dominio del problema que poseen los analistas, ejerce un moderado efecto positivo (r=0.31), estadísticamente significativo (p-valor = 0.029) en la efectividad de la actividad de educción. Esto es, los analistas con conocimiento tienden a ser más efectivos en los dominios de problema conocidos. En lo que respecta a la titulación académica, por falta de diversidad en las titulaciones académicas de los sujetos experimentales no es posible alcanzar una conclusión. Hemos podido explorar el efecto de la titulación académica en sólo dos cuasi-experimentos, sin embargo, nuestros resultados arrojan efectos contradictorios (r = 0.694, p-valor = 0.51 y r = -0.266, p-valor = 0.383). Además de las variables estudiadas indicadas anteriormente, hemos confirmado la existencia de variables moderadoras que afectan a la actividad de educción, tales como el entrevistado o la formación. Nuestros datos experimentales confirman que el entrevistado es un factor clave en la actividad de educción. Estadísticamente ejerce una influencia significativa en la efectividad de los analistas (p-valor= 0.000). La diferencia entre entrevistar a uno u otro entrevistado, en unidades naturales, varía entre un 18% - 23% en efectividad. Por otro lado, la formación en requisitos aumenta considerablemente la efectividad de los analistas. Los sujetos que realizaron la educción de requisitos después de recibir una formación específica en requisitos tienden a ser entre un 12% y 20% más efectivos que aquellos que no la recibieron. El efecto es significativo (p-valor = 0.000). Finalmente, hemos observado tres hechos que podrían influir en los resultados de esta investigación. En primer lugar, la efectividad de los analistas es diferencial dependiendo del tipo de elemento del dominio. En dominios conocidos, los analistas con experiencia tienden a adquirir más conceptos que los analistas noveles. En los dominios desconocidos, son los procesos los que se adquieren de forma prominente. En segundo lugar, los analistas llegan a una especie de “techo de cristal” que no les permite adquirir más información. Es decir, el analista sólo reconoce (parte de) los elementos del dominio del problema mencionado. Este hecho se observa tanto en el dominio de problema desconocido como en el conocido, y parece estar relacionado con el modo en que los analistas exploran el dominio del problema. En tercer lugar, aunque los años de experiencia no parecen predecir cuán efectivo será un analista, sí parecen asegurar que un analista con cierta experiencia, en general, tendrá una efectividad mínima que será superior a la efectividad mínima de los analistas con menos experiencia. Conclusiones: Los resultados obtenidos muestran que en dominios desconocidos, la experiencia por sí misma no determina la efectividad de los analistas de requisitos. En dominios conocidos, la efectividad de los analistas se ve influenciada por su experiencia en entrevistas y requisitos, aunque sólo parcialmente. Otras variables influyen en la efectividad de los analistas, como podrían ser las habilidades débiles. El conocimiento del dominio del problema por parte del analista ejerce un efecto positivo en la efectividad de los analistas, e interacciona positivamente con la experiencia incrementando aún más la efectividad de los analistas. Si bien no fue posible obtener conclusiones sólidas respecto al efecto de la titulación académica, si parece claro que la formación específica en requisitos ejerce una importante influencia positiva en la efectividad de los analistas. Finalmente, el analista no es el único factor relevante en la actividad de educción. Los clientes/usuarios (entrevistados) también juegan un rol importante en el proceso de generación de información. ABSTRACT Context: This PhD dissertation addresses requirements elicitation activity. Requirements elicitation is generally acknowledged as one of the most important activities of the requirements process, having a direct impact in the software quality. It is an activity where the communication among stakeholders (analysts, customers, users) is paramount. The analyst’s ability to effectively understand customers/users’ needs represents a critical factor for the success of software development. The literature has focused on studying and comprehending a specific set of personal skills that the analyst must have to perform requirements elicitation effectively. However, few studies have explored those skills from an empirical viewpoint. Goal: This research aims to study the effects of experience, domain knowledge and academic qualifications on the analysts’ effectiveness when performing requirements elicitation, during the first stages of analyst-customer interaction. Research method: We have conducted eight empirical studies, quasi-experiments (four) and controlled experiments (four). 110 experimental subjects participated, including: graduate students with the Escuela Técnica Superior de Ingenieros Informáticos of the Universidad Politécnica de Madrid, as well as researchers and professionals. The experimental tasks consisted in elicitation sessions about one or several problem domains (ignorant and/or aware for the subjects). Elicitation sessions were conducted using unstructured interviews. After each interview, the subjects reported in written all collected information. Results: In ignorant domains, the analyst’s experience (interviews, requirements, development and professional) does not influence her effectiveness. In aware domains, interviewing experience (r = 0.34, p-value = 0.080) and requirements experience (r = 0.22, p-value = 0.279), make a positive effect, i.e.: the analysts with more years of interviewing/requirements experience tend to achieve higher effectiveness. On the other hand, development experience (r = -0.06, p-value = 0.765) and professional experience (r = -0.35, p-value = 0.077) tend to make a null and negative effect, respectively. On what regards the analyst’s problem domain knowledge, it makes a modest positive effect (r=0.31), statistically significant (p-value = 0.029) on the effectiveness of the elicitation activity, i.e.: the analysts with tend to be more effective in problem domains they are aware of. On what regards academic qualification, due to the lack of diversity in the subjects’ academic degrees, we cannot come to a conclusion. We have been able to explore the effect of academic qualifications in two experiments; however, our results show opposed effects (r = 0.694, p-value = 0.51 y r = -0.266, p-value = 0.383). Besides the variables mentioned above, we have confirmed the existence of moderator variables influencing the elicitation activity, such as the interviewee and the training. Our data confirm that the interviewee is a key factor in the elicitation activity; it makes statistically significant effect on analysts’ effectiveness (p-value = 0.000). Interviewing one or another interviewee represents a difference in effectiveness of 18% - 23%, in natural units. On the other hand, requirements training increases to a large extent the analysts’ effectiveness. Those subjects who performed requirements elicitation after specific training tend to be 12% - 20% more effective than those who did not receive training. The effect is statistically significant (p-value = 0.000). Finally, we have observed three phenomena that could have an influence on the results of this research. First, the analysts’ effectiveness differs depending on domain element types. In aware domains, experienced analysts tend to capture more concepts than novices. In ignorant domains, processes are identified more frequently. Second, analysts get to a “glass ceiling” that prevents them to acquire more information, i.e.: analysts only identify (part of) the elements of the problem domain. This fact can be observed in both the ignorant and aware domains. Third, experience years do not look like a good predictor of how effective an analyst will be; however, they seem to guarantee that an analyst with some experience years will have a higher minimum effectiveness than the minimum effectiveness of analysts with fewer experience years. Conclusions: Our results point out that experience alone does not explain analysts’ effectiveness in ignorant domains. In aware domains, analysts’ effectiveness is influenced the experience in interviews and requirements, albeit partially. Other variables influence analysts’ effectiveness, e.g.: soft skills. The analysts’ problem domain knowledge makes a positive effect in analysts’ effectiveness; it positively interacts with the experience, increasing even further analysts’ effectiveness. Although we could not obtain solid conclusions on the effect of the academic qualifications, it is plain clear that specific requirements training makes a rather positive effect on analysts’ effectiveness. Finally, the analyst is not the only relevant factor in the elicitation activity. The customers/users (interviewees) play also an important role in the information generation process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

HIV entry into human cells is mediated by CD4 acting in concert with one of several members of the chemokine receptor superfamily. The resistance to HIV infection observed in individuals with defective CCR5 alleles indicated that this particular chemokine receptor plays a crucial role in the initiation of in vivo HIV infection. Expression of human CD4 transgene does not render mice susceptible to HIV infection because of structural differences between human and mouse CCR5. To ascertain whether expression of human CD4 and CCR5 is sufficient to make murine T lymphocytes susceptible to HIV infection, the lck promoter was used to direct the T cell-specific expression of human CD4 and CCR5 in transgenic mice. Peripheral blood mononuclear cells and splenocytes isolated from these mice expressed human CD4 and CCR5 and were infectible with selected M-tropic HIV isolates. After in vivo inoculation, HIV-infected cells were detected by DNA PCR in the spleen and lymph nodes of these transgenic mice, but HIV could not be cultured from these cells. This indicated that although transgenic expression of human CD4 and CCR5 permitted entry of HIV into the mouse cells, significant HIV infection was prevented by other blocks to HIV replication present in mouse cells. In addition to providing in vivo verification for the important role of CCR5 in T lymphocyte HIV infection, these transgenic mice represent a new in vivo model for understanding HIV pathogenesis by delineating species-specific cellular factors required for productive in vivo HIV infection. These mice should also prove useful for the assessment of potential therapeutic and preventative modalities, particularly vaccines.