14 resultados para Timeline inconsistency

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La señalización digital o digital signage es una tecnología de comunicaciones digital que se está usando en los últimos años para reemplazar a la antigua publicidad impresa. Esta tecnología mejora la presentación y promoción de los productos anunciados, así como facilita el intercambio de información gracias a su colocación en lugares públicos o al aire libre. Las aplicaciones con las que cuenta este nuevo método de publicidad son muy variadas, ya que pueden variar desde ambientes privados en empresas, hasta lugares públicos como centros comerciales. Aunque la primera y principal utilidad de la señalización digital es la publicidad para que el usuario sienta una necesidad de adquirir productos, también la posibilidad de ofrecer más información sobre determinados artículos a través de las nuevas tecnologías es muy importante en este campo. La aplicación realizada en este proyecto es el desarrollo de un programa en Adobe Flash a través de lenguaje de programación XML. A través de una pantalla táctil, el usuario de un museo puede interactivamente acceder a un menú en el que aparecen los diferentes estilos de arte en un determinado tiempo de la historia. A través de una línea de tiempo se puede acceder a información sobre cada objeto que esté expuesto en la exhibición. Además se pueden observar imágenes de los detalles más importantes del objeto que no pueden ser vistos a simple vista, ya que no está permitido manipularlos. El empleo de la pantalla interactiva sirve para el usuario de la exhibición como una herramienta extra para recabar información sobre lo que está viendo, a través de una tecnología nueva y fácil de usar para todo el mundo, ya que solo se necesita usar las propias manos. La facilidad de manejo en aplicaciones como estas es muy importante, ya que el usuario final puede no tener conocimientos tecnológicos por lo que la información debe darse claramente. Como conclusión, se puede decir que digital signage es un mercado que está en expansión y que las empresas deben invertir en el desarrollo de contenidos, ya que las tecnologías avanzan aunque el digital signage no lo haga, y este sector podría ser muy útil en un futuro no muy lejano, ya que la información que es capaz de transmitir al espectador en todos los lugares es mucho más válida y útil que la proporcionada por un simple póster impreso en una valla publicitaria. Abstract The Digital signage is a digital communications technology being used in recent years to replace the old advertising printed. This technology improves the presentation and promotion of the advertised products, and makes easy the exchange of information with its placement in public places or outdoors. The applications that account this new method of advertising are several; they can range from private rooms in companies, to public places like malls. Although the first major utility of Digital signage is the advertising that makes the user feel and need of purchasing products. In addition, the chance of providing more information about certain items through new technologies is very important in this field. The application made in this project is the development of a program in Adobe Flash via XML programming language. Through a touch-screen, a museum user can interactively access a menu in which different styles of art in a particular time in history appears. Through a timeline you can access to information about each object that is exposed on display. Also you can see pictures of the most important details of the object that can not be seen with the naked eye, since it is not allowed to manipulate it. The use of the interactive screen serves to the user exhibition as an extra tool to gather information about what is seeing through a new technology and easy to use for everyone, since only need to use one’s own hands. The ease of handling in applications such as this is very important as the end user may not have expertise technology so the information should be clearly. As conclusion, one can say digital signage is an expansion market and companies must invest in content development, as although digital technologies advance digital signage does not, and this sector could be very useful in a near future, because information that is able of transmitting the everywhere viewer is much more valid and useful than that provided by a simple printed poster on a billboard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis presenta un análisis teórico del funcionamiento de toberas magnéticas para la propulsión espacial por plasmas. El estudio está basado en un modelo tridimensional y bi-fluido de la expansión supersónica de un plasma caliente en un campo magnético divergente. El modelo básico es ampliado progresivamente con la inclusión de términos convectivos dominantes de electrones, el campo magnético inducido por el plasma, poblaciones electrónicas múltiples a distintas temperaturas, y la capacidad de integrar el flujo en la región de expansión lejana. La respuesta hiperbólica del plasma es integrada con alta precisión y eficiencia haciendo uso del método de las líneas características. Se realiza una caracterización paramétrica de la expansión 2D del plasma en términos del grado de magnetización de iones, la geometría del campo magnético, y el perfil inicial del plasma. Se investigan los mecanismos de aceleración, mostrando que el campo ambipolar convierte la energía interna de electrones en energía dirigida de iones. Las corrientes diamagnéticas de Hall, que pueden hallarse distribuidas en el volumen del plasma o localizadas en una delgada capa de corriente en el borde del chorro, son esenciales para la operación de la tobera, ya que la fuerza magnética repulsiva sobre ellas es la encargada de confinar radialmente y acelerar axialmente el plasma. El empuje magnético es la reacción a esta fuerza sobre el motor. La respuesta del plasma muestra la separación gradual hacia adentro de los tubos de iones respecto de los magnéticos, lo cual produce la formación de corrientes eléctricas longitudinales y pone el plasma en rotación. La ganancia de empuje obtenida y las pérdidas radiales de la pluma de plasma se evalúan en función de los parámetros de diseño. Se analiza en detalle la separación magnética del plasma aguas abajo respecto a las líneas magnéticas (cerradas sobre sí mismas), necesaria para la aplicación de la tobera magnética a fines propulsivos. Se demuestra que tres teorías existentes sobre separación, que se fundamentan en la resistividad del plasma, la inercia de electrones, y el campo magnético que induce el plasma, son inadecuadas para la tobera magnética propulsiva, ya que producen separación hacia afuera en lugar de hacia adentro, aumentando la divergencia de la pluma. En su lugar, se muestra que la separación del plasma tiene lugar gracias a la inercia de iones y la desmagnetización gradual del plasma que tiene lugar aguas abajo, que permiten la separación ilimitada del flujo de iones respecto a las líneas de campo en condiciones muy generales. Se evalúa la cantidad de plasma que permanece unida al campo magnético y retorna hacia el motor a lo largo de las líneas cerradas de campo, mostrando que es marginal. Se muestra cómo el campo magnético inducido por el plasma incrementa la divergencia de la tobera magnética y por ende de la pluma de plasma en el caso propulsivo, contrariamente a las predicciones existentes. Se muestra también cómo el inducido favorece la desmagnetización del núcleo del chorro, acelerando la separación magnética. La hipótesis de ambipolaridad de corriente local, común a varios modelos de tobera magnética existentes, es discutida críticamente, mostrando que es inadecuada para el estudio de la separación de plasma. Una inconsistencia grave en la derivación matemática de uno de los modelos más aceptados es señalada y comentada. Incluyendo una especie adicional de electrones supratérmicos en el modelo, se estudia la formación y geometría de dobles capas eléctricas en el interior del plasma. Cuando dicha capa se forma, su curvatura aumenta cuanto más periféricamente se inyecten los electrones supratérmicos, cuanto menor sea el campo magnético, y cuanto más divergente sea la tobera magnética. El plasma con dos temperaturas electrónicas posee un mayor ratio de empuje magnético frente a total. A pesar de ello, no se encuentra ninguna ventaja propulsiva de las dobles capas, reforzando las críticas existentes frente a las propuestas de estas formaciones como un mecanismo de empuje. Por último, se presenta una formulación general de modelos autosemejantes de la expansión 2D de una pluma no magnetizada en el vacío. El error asociado a la hipótesis de autosemejanza es calculado, mostrando que es pequeño para plumas hipersónicas. Tres modelos de la literatura son particularizados a partir de la formulación general y comparados. Abstract This Thesis presents a theoretical analysis of the operation of magnetic nozzles for plasma space propulsion. The study is based on a two-dimensional, two-fluid model of the supersonic expansion of a hot plasma in a divergent magnetic field. The basic model is extended progressively to include the dominant electron convective terms, the plasma-induced magnetic field, multi-temperature electron populations, and the capability to integrate the plasma flow in the far expansion region. The hyperbolic plasma response is integrated accurately and efficiently with the method of the characteristic lines. The 2D plasma expansion is characterized parametrically in terms of the ion magnetization strength, the magnetic field geometry, and the initial plasma profile. Acceleration mechanisms are investigated, showing that the ambipolar electric field converts the internal electron energy into directed ion energy. The diamagnetic electron Hall current, which can be distributed in the plasma volume or localized in a thin current sheet at the jet edge, is shown to be central for the operation of the magnetic nozzle. The repelling magnetic force on this current is responsible for the radial confinement and axial acceleration of the plasma, and magnetic thrust is the reaction to this force on the magnetic coils of the thruster. The plasma response exhibits a gradual inward separation of the ion streamtubes from the magnetic streamtubes, which focuses the jet about the nozzle axis, gives rise to the formation of longitudinal currents and sets the plasma into rotation. The obtained thrust gain in the magnetic nozzle and radial plasma losses are evaluated as a function of the design parameters. The downstream plasma detachment from the closed magnetic field lines, required for the propulsive application of the magnetic nozzle, is investigated in detail. Three prevailing detachment theories for magnetic nozzles, relying on plasma resistivity, electron inertia, and the plasma-induced magnetic field, are shown to be inadequate for the propulsive magnetic nozzle, as these mechanisms detach the plume outward, increasing its divergence, rather than focusing it as desired. Instead, plasma detachment is shown to occur essentially due to ion inertia and the gradual demagnetization that takes place downstream, which enable the unbounded inward ion separation from the magnetic lines beyond the turning point of the outermost plasma streamline under rather general conditions. The plasma fraction that remains attached to the field and turns around along the magnetic field back to the thruster is evaluated and shown to be marginal. The plasmainduced magnetic field is shown to increase the divergence of the nozzle and the resulting plasma plume in the propulsive case, and to enhance the demagnetization of the central part of the plasma jet, contrary to existing predictions. The increased demagnetization favors the earlier ion inward separation from the magnetic field. The local current ambipolarity assumption, common to many existing magnetic nozzle models, is critically discussed, showing that it is unsuitable for the study of plasma detachment. A grave mathematical inconsistency in a well-accepted model, related to the acceptance of this assumption, is found out and commented on. The formation and 2D shape of electric double layers in the plasma expansion is studied with the inclusion of an additional suprathermal electron population in the model. When a double layer forms, its curvature is shown to increase the more peripherally suprathermal electrons are injected, the lower the magnetic field strength, and the more divergent the magnetic nozzle is. The twoelectron- temperature plasma is seen to have a greater magnetic-to-total thrust ratio. Notwithstanding, no propulsive advantage of the double layer is found, supporting and reinforcing previous critiques to their proposal as a thrust mechanism. Finally, a general framework of self-similar models of a 2D unmagnetized plasma plume expansion into vacuum is presented and discussed. The error associated with the self-similarity assumption is calculated and shown to be small for hypersonic plasma plumes. Three models of the literature are recovered as particularizations from the general framework and compared.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los ensayos virtuales de materiales compuestos han aparecido como un nuevo concepto dentro de la industria aeroespacial, y disponen de un vasto potencial para reducir los enormes costes de certificación y desarrollo asociados con las tediosas campañas experimentales, que incluyen un gran número de paneles, subcomponentes y componentes. El objetivo de los ensayos virtuales es sustituir algunos ensayos por simulaciones computacionales con alta fidelidad. Esta tesis es una contribución a la aproximación multiescala desarrollada en el Instituto IMDEA Materiales para predecir el comportamiento mecánico de un laminado de material compuesto dadas las propiedades de la lámina y la intercara. La mecánica de daño continuo (CDM) formula el daño intralaminar a nivel constitutivo de material. El modelo de daño intralaminar se combina con elementos cohesivos para representar daño interlaminar. Se desarrolló e implementó un modelo de daño continuo, y se aplicó a configuraciones simples de ensayos en laminados: impactos de baja y alta velocidad, ensayos de tracción, tests a cortadura. El análisis del método y la correlación con experimentos sugiere que los métodos son razonablemente adecuados para los test de impacto, pero insuficientes para el resto de ensayos. Para superar estas limitaciones de CDM, se ha mejorado la aproximación discreta de elementos finitos enriqueciendo la cinemática para incluir discontinuidades embebidas: el método extendido de los elementos finitos (X-FEM). Se adaptó X-FEM para un esquema explícito de integración temporal. El método es capaz de representar cualitativamente los mecanismos de fallo detallados en laminados. Sin embargo, los resultados muestran inconsistencias en la formulación que producen resultados cuantitativos erróneos. Por último, se ha revisado el método tradicional de X-FEM, y se ha desarrollado un nuevo método para superar sus limitaciones: el método cohesivo X-FEM estable. Las propiedades del nuevo método se estudiaron en detalle, y se concluyó que el método es robusto para implementación en códigos explícitos dinámicos escalables, resultando una nueva herramienta útil para la simulación de daño en composites. Virtual testing of composite materials has emerged as a new concept within the aerospace industry. It presents a very large potential to reduce the large certification costs and the long development times associated with the experimental campaigns, involving the testing of a large number of panels, sub-components and components. The aim of virtual testing is to replace some experimental tests by high-fidelity numerical simulations. This work is a contribution to the multiscale approach developed in Institute IMDEA Materials to predict the mechanical behavior of a composite laminate from the properties of the ply and the interply. Continuum Damage Mechanics (CDM) formulates intraply damage at the the material constitutive level. Intraply CDM is combined with cohesive elements to model interply damage. A CDM model was developed, implemented, and applied to simple mechanical tests of laminates: low and high velocity impact, tension of coupons, and shear deformation. The analysis of the results and the comparison with experiments indicated that the performance was reasonably good for the impact tests, but insuficient in the other cases. To overcome the limitations of CDM, the kinematics of the discrete finite element approximation was enhanced to include mesh embedded discontinuities, the eXtended Finite Element Method (X-FEM). The X-FEM was adapted to an explicit time integration scheme and was able to reproduce qualitatively the physical failure mechanisms in a composite laminate. However, the results revealed an inconsistency in the formulation that leads to erroneous quantitative results. Finally, the traditional X-FEM was reviewed, and a new method was developed to overcome its limitations, the stable cohesive X-FEM. The properties of the new method were studied in detail, and it was demonstrated that the new method was robust and can be implemented in a explicit finite element formulation, providing a new tool for damage simulation in composite materials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los arquitectos se han sentido progresivamente inclinados a incorporar superficies de vidrio cada vez mayores en sus proyectos de arquitectura, en correspondencia con una percepción socio-cultural del vidrio vinculada al progreso, la contemporaneidad y el bienestar, así como por la versatilidad de este material para expresar aspectos de la identidad del proyecto, establecer comunicación con el entorno y actuar como un escaparate para las tecnologías emergentes. A pesar de esta receptividad para acoger los sistemas tecnológicos más avanzados, la envolvente de vidrio contemporánea muy raramente integra tecnología avanzada para el control de la luz natural. Desde la arquitectura, el proyecto de la luz natural a través de la superficie de vidrio se ha explorado muy escasamente, aún cuando en las últimas tres décadas se haya producido una gran diversidad de soluciones tecnológicas para este propósito. Uno de los motivos principales para esta falta de sinergia es la inconsistencia conceptual que impulsa a los procesos proyectuales de la arquitectura y a los desarrollos tecnológicos para la sostenibilidad. Por un lado, las especificaciones de las tecnologías del control de la luz natural se determinan fundamentalmente desde una perspectiva científica de la eficiencia, que no tiene en consideración otros intereses y preocupaciones arquitectónicos. Por otro lado, la práctica arquitectónica no ha asimilado un pensamiento técnico en torno a la luz natural que lo determine como un agente clave del proceso proyectual, incluso cuando la sostenibilidad se perfile como la fuerza que ha de liderar la arquitectura del futuro y, en este sentido, sea una prioridad absoluta minimizar las consecuencias económicas y ecológicas del impacto negativo del vidrio. Por medio del escrutinio de valores culturales, proyectuales, funcionales y ecológicos, esta tesis aborda el estudio del precario diálogo transdisciplinar entre la evolución de la envolvente de vidrio en la arquitectura contemporánea y el desarrollo de soluciones tecnológicas para el proyecto de la luz natural, e identifica sus principales puntos de divergencia como los temas centrales desde los que proyectar con vidrio en una arquitectura sostenible futura. Desde una perspectiva energética, este ejercicio es un paso crítico para concienciar sobre la gravedad de la situación presente y establecer los cimientos para líneas de intervención esenciales para hacer a ambos mundos converger. Desde la óptica arquitectónica, este estudio representa además de una oportunidad para entender los potenciales proyectuales de estas tecnologías y reflexionar sobre la relación vidrio-luz, un escenario desde el que comprender el estatus incongruente de la sostenibilidad tecnológica en la arquitectura actual, contribuyendo a que se genere una contextualización recíproca entre la investigación en energía y la práctica de la arquitectura futura. ABSTRACT Architects are increasingly demanded to incorporate extensive glazed areas in buildings in correspondence with a socio-cultural perception of glass linked with progress, contemporaneity and welfare, as well as for this material’s versatility to express identity features, establish communication with its environment, and perform as a showroom for emergent technologies. Despite this disposition to take cutting-edge technology in, the contemporary glass envelope very scarcely integrates advanced daylight control technology. From an architectural standpoint, the exploration of the manipulation of natural light through the glass surface has been very swallow, even though a wide range of technical solutions has being produced in the last three decades for this purpose. One of the core issues behind this inconsistency is the lack of established synergy between architectural design processes and sustainable technological developments. From one side, the specifications of daylighting technologies are primarily determined by a scientific perspective of efficiency and disregard fundamental architectural concerns and interests. From another, architectural practice does not conceive sustainable technologies as key active agents in the design process, despite the fact the concept of sustainability is constantly regarded as the driving force of the leading-edge architecture of the future, and in this sense, it becomes an absolute priority to minimize the ecological and economical consequences of glass decisive impact in buildings. Through the scrutiny of cultural, functional and ecological values, this thesis analyses the precarious transdisciplinary dialogue between the evolution of the glass envelope in contemporary architecture and the development of daylighting technological solutions, and identifies the core affairs necessary to a sustainable integration of glass facades into future architecture. From an energy point of view, this exercise is a critical step to raise awareness about the severity of the present situation, and to establish the underpinnings for new lines of intervention essential to make both worlds efficiently converge. Architecturally speaking, in addition to the opportunity to understand the design potentials of these technologies and reflect on the relationship glasslight, this study contributes with a scenario from which generate the reciprocal contextualization of energy building research to future architectural practices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las sondas eléctricas se emplean habitualmente en la diagnosis de plasmas. La presente tesis aborda la operación de las sondas colectoras y emisoras de Langmuir en plasmas fríos de baja densidad. El estudio se ha centrado en la determinación del potencial de plasma, Vsp, mediante el potencial flotante de una sonda emisora. Esta técnica consiste en la medida del potencial de la sonda correspondiente a la condición de corriente neta igual a cero, el cual se denomina potencial flotante, VF. Este potencial se desplaza hacia el potencial del plasma según aumenta la emisión termoiónica de la sonda, hasta que se satura cerca de Vsp. Los experimentos llevados a cabo en la pluma de plasma de un motor iónico y en un plasma de descarga de glow muestran que la corriente de electrones termoiónicos es mayor que la corriente de electrones recogidos para una sonda polarizada por debajo del potencial del plasma, resultado inconsistente con la teoría tradicionalmente aceptada. Para investigar estos resultados se ha introducido el parámetro R, definido como el cociente entre la corriente de electrones emitidos y recogidos por la sonda. Este parámetro, que está relacionado con la diferencia de potencial VF - Vsp, también es útil para la descripción de los modos de operación de la sonda emisora (débil, fuerte y más allá del fuerte). Los resultados experimentales evidencian que, al contrario de lo que indica la teoría, R es mayor que la unidad. Esta discrepancia se puede solucionar introduciendo una población efectiva de electrones. Con dicha población, el nuevo modelo para la corriente total de la sonda reproduce los datos experimentales. El origen de este grupo electrónico es todavía una cuestión abierta, pero podría estar originada por una nueva estructura de potencial cerca de la sonda cuando ésta trabaja en el régimen de emisión fuerte. Para explicar dicha estructura de potencial, se propone un modelo unidimensional compuesto por un mínimo de potencial cerca de la superficie de la sonda. El análisis numérico indica que este pozo de potencial aparece para muy altas temperaturas de la sonda, reduciendo la cantidad de electrones emitidos que alcanzan el plasma y evitando así cualquier posible perturbación de éste. Los aspectos experimentales involucrados en el método del potencial flotante también se han estudiado, incluyendo cuestiones como las diferentes técnicas de obtención del VF, el cociente señal-ruido, el acoplamiento de la señal de los equipos utilizados para la obtención de las curvas I-V o la evidencia experimental de los diferentes modos de operación de la sonda. Estas evidencias empíricas se encuentran en todos los aspectos de operación de la sonda: la recolección de electrones, el potencial flotante, la precisión en las curvas I-V y la emisión electrónica. Ésta última también se estudia en la tesis, debido a que un fenómeno de super emisión tiene lugar en el régimen de emisión fuerte. En este modo de operación, las medidas experimentales indican que las corrientes termoiónicas de electrones son mayores que aquéllas predichas por la ecuación de Richardson-Dushman clásica. Por último, la diagnosis de plasmas usando sondas eléctrica bajo presencia de granos de polvo (plasmas granulares) en plasmas fríos de baja densidad también se ha estudiado, mediante la aplicación numérica de la técnica del potencial flotante de la sonda emisora en un plasma no convencional. Los resultados apuntan a que el potencial flotante de una sonda emisora se vería afectado por altas densidades de polvo o grandes partículas. ABSTRACT Electric probes are widely employed for plasma diagnostics. This dissertation concerns the operation of collecting and emissive Langmuir probes in low density cold plasmas. The study is focused on the determination of the plasma potential, Vsp, by means of the floating potential of emissive probes. This technique consists of the measurement of the probe potential, corresponding to the zero net probe current, which is the so-called floating potential, VF . This potential displaces towards the plasma potential as the thermionic electron emission increases, until it saturates near Vsp. Experiments carried out in the plasma plume of an ion thruster and in a glow discharge plasma show the thermionic electron current of the emissive Langmuir probe is higher than the collected electron current, for a probe with a bias potential below Vsp, which is inconsistent with the traditional accepted theory. To investigate these results, a parameter R is introduced as the ratio between the emitted and the collected electron current. This parameter, which is related to the difference VF - Vsp, is also useful for the description of the operation modes of the emissive Langmuir probe (weak, strong and beyond strong). The experimental results give an inconsistency of R > 1, which is solved by a modification of the theory for emissive probes, with the introduction of an effective electron population. With this new electron group, the new model for the total probe current agrees with the experimental data. The origin of this electron group remains an open question, but it might be originated by a new potential structure near the emissive probe when it operates in the strong emission regime. A simple one-dimension model composed by a minimum of potential near the probe surface is discussed for strongly emitting emissive probes. The results indicate that this complex potential structure appears for very high probe temperatures and the potential well might reduce the emitted electrons population reaching the plasma bulk. The experimental issues involved in the floating potential method are also studied, as the different obtaining techniques of VF, the signal-to-noise ratio, the signal coupling of the I-V curve measurement system or the experimental evidence of the probe operation modes. These empirical proofs concern all the probe operation aspects: the electron collection, the floating potential, the I-V curve accuracy as well as the electron emission. This last issue is also investigated in this dissertation, because a super emission takes place in the strong emission regime. In this operation mode, the experimental results indicate that the thermionic electron currents might be higher than those predicted by the classical Richardson-Dushman equation. Finally, plasma diagnosis using electric probes in the presence of dust grains (dusty plasmas) in low density cold plasmas is also addressed. The application of the floating potential technique of the emissive probe in a non-conventional complex plasma is numerically investigated, whose results point out the floating potential of the emissive probe might be shifted for high dust density or large dust particles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis se acerca a la cuestión del método en arquitectura focalizando su análisis principalmente en 5 obras concretas del panorama contemporáneo, tratando de desvelar las motivaciones últimas que las constituyen. El objeto y la obra arquitectónica se consideran así los elementos susceptibles de ofrecer el conocimiento material que permite desentrañar el modo y la metodología por el que éstos han sido concebidos. Con esta particular aproximación se desafían los tradicionales estudios que han comprendido al método como una sistemática universal o reglada, ya que en este caso el propósito consiste más bien en esclarecer los fundamentos y principios que subyacen a cada objeto arquitectónico más específico. Este hecho ha llevado al índice de la tesis a ordenarse según una lista de arquitectos y obras que no presentan otra particularidad que la de ser recientes y muy diferentes entre sí. Esta aparente arbitrariedad con la que las obras se eligen cobra sentido a lo largo del propio análisis y recorrido, ya que éste apuesta por recabar el suficiente contenido que diversifique y singularice cada elección, de tal modo que ya en sí, ésta obtenga rango paradigmático. El hecho de que la tesis evite los planteamientos totalitarios no quiere decir que trate de promover el relativismo de las diferentes opciones, dado que más bien pretende analizar hasta el fondo las cuestiones últimas y lo más valioso que cada opción representa. Por su parte, la conclusión de la tesis muestra una complementariedad al carácter específico de los capítulos previos, ya que ésta se atreve a avanzar con cierta voluntad conclusiva hacia la definición de los principios más sustanciales del método en arquitectura hoy. Y precisamente, una de las claves esenciales que ha mostrado la arquitectura del hoy que nos toca vivir consiste en la condición más específica de la obra arquitectónica misma por encima de cualquier connotación genérica o transcendente que ésta pueda sugerir. De tal modo que los arquitectos elegidos, por muy diferentes que aparentan ser, han tomado como punto de partida la condición objetual de la obra más allá de cualquier contenido ideal que a ésta pueda adscribírsele. En todos los casos, si bien de diferente manera, la obra arquitectónica en sí misma se ha constituido en una nueva clave en la que tratan de dirimirse las eternas dialécticas entre el objeto y su significado, entre la estructura conceptual y su connotación simbólica. De este modo, las dialécticas relativas a la unidad de la diversidad, la identidad de la multiplicidad, la síntesis que pretende la integración de lo complejo, o en su caso, la indispensable sostenibilidad de lo inconsistente, se han convertido en la temática principal de este análisis que ha comprendido al método a partir la misma paradoja por la que la arquitectura actual se ve afectada. La misma dialéctica imposible de resolver que ha conducido a la arquitectura más reciente a decantarse a favor de la consustancialidad intrínseca a la misma obra. La tesis por su parte también se ha focalizado en la obra y en el hecho arquitectónico puntual, siguiendo la tendencia de la misma arquitectura que se analizaba. Sin embargo, sus extensos análisis nos han llevado a desentrañar el sentido y la posición estratégica personal que se encuentra más allá de la exacerbación inmanente de la arquitectura de estos últimos años. Es decir, tal y como se ha insistido, el análisis de la obra nos ha llevado, a través de la pregunta por su método, al arquitecto que la ha proyectado. Y así se ha creado este triángulo trinitario, ‘Arquitecto, obra y método’, tratando de preguntarse hasta el final por la singularidad más específica del método de cada arquitecto, en el convencimiento de que método y obra se vinculan precisamente ahí, en las experiencias personales singulares que han posibilitado las mayores creaciones y más sustantivas novedades. ABSTRACT This thesis approaches the question of Method in architecture by focusing its analysis on 5 specific contemporary projects, trying to unveil their underlying constitutive motivations. Thus, architectonical object and work are considered the susceptible elements that provide the material knowledge that unravels the manner and the methodology by which they were conceived. With this particular approach, this thesis challenges other traditional studies, those that regard the Method in architecture as a regulated or universal systematic procedure. On the contrary, the purpose of this thesis is to clarify the foundations and principles that underlie each specific architectonical object. This has led to the ordering of the thesis index according to a list of architects and projects that do not present any other distinctiveness except that they are recent and very different to each other. However, this apparent arbitrariness of the choice of each architect becomes meaningful during its analytical development. This analysis attempts to seek out the content which diversifies each choice enough, and makes it singular enough, so that each selected candidate acquires paradigmatic range by itself. Therefore, the fact that the thesis avoids totalitarian approaches does not lead it to promote the relativism of different choices, but rather the thesis tries to thoroughly analyze the most valuable achievements of each option. Nonetheless, the conclusion of the thesis shows a position that complements the specific character of the previous chapters, since it dares to move forward conclusively towards the definition of the essential principles of the Method in architecture today. Indeed, the thesis shows one of the basic keys of today’s architecture, which is the specific condition of the architectural work itself above any generic or transcendental connotation. Thus, the selected architects, however different they appear to be, take the objectual condition of the work (thingness) as their starting point beyond any ideal content that might be ascribed to their architecture. Although differently, in each case the architectonical work itself has become the new indispensable key to deal with the eternal dialectics between the object and its meaning, between conceptual structure and its symbolic connotation. Thus, the dialectics between unity and diversity, the identity of multiplicity, the synthesis that aims at the integration of complexity, or even, the indispensable consistency of the unavoidable inconsistency, have all become the main themes of this analysis, an analysis that understands the issue of Method from the same paradoxical situation of today’s architecture. This is the same paradox which has led the latest architecture to align itself with the intrinsic consubstantiality of the architectonical work itself. Therefore, the thesis is also focused on the Work, on the specific architectonical fact, following the course of the same architecture that it analyses. However, extensive analyses of the thesis have led us to clarify the sense and personal strategic position that is beyond the immanent exacerbation of architecture in recent years. Therefore, as stressed throughout the text, the analysis, that has explored the Method of architectonical Work, has led us to the architect who conceived it. Thus, this trinitarian triangle, ‘Architect, Work and Method’, has been created, attempting to explore in depth the specific uniqueness of each architect’s method, convinced that Method and Work do actually connect in the singular experiences that have achieved the greatest and most substantial creations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Context: The software engineering community is becoming more aware of the need for experimental replications. In spite of the importance of this topic, there is still much inconsistency in the terminology used to describe replications. Objective: Understand the perspectives of empirical researchers about various terms used to characterize replications and propose a consistent taxonomy of terms. Method: A survey followed by plenary discussion during the 2013 International Software Engineering Research Network meeting. Results: We propose a taxonomy which consolidates the disparate terminology. This taxonomy had a high level of agreement among workshop attendees. Conclusion: Consistent terminology is important for any field to progress. This work is the first step in that direction. Additional study and discussion is still necessary.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque se han logrado importantes avances en estudios de laboratorio con diseños experimentales poco representativos (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), a día de hoy, todavía se desconoce a cabalidad cómo los jugadores de tenis de diferente nivel de pericia calibran o ajustan sus movimientos a las demandas espacio-temporales presentes en la tarea de resto de un primer servicio. ! Escasos trabajos se han llevado a cabo in situ y a la mayoría se les puede cuestionar algún aspecto de la metodología empleada. Así pues, en varios estudios la frecuencia de grabación ha sido limitada (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), o la velocidad del saque ha sido visiblemente inferior a la habitual (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). También, en algunos estudios los participantes experimentados no han sido jugadores de nivel internacional (e.g., Avilés, Ruiz, Sanz y Navia, 2014), y el tamaño muestral ha sido muy pequeño (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). ! Además, en los diferentes trabajos se han utilizado una diversidad de métodos e instrumentos de medida y los criterios de codificación del inicio de los movimientos y de las respuestas han diferido; como consecuencia el lapso visomotor de respuesta (LVMr) ha sido muy dispar variando considerablemente de 198 a 410 ms. Considerando los inconvenientes señalados anteriormente, el presente estudio tuvo como objetivo determinar un modelo técnico de regulación temporal de los movimientos y de la respuesta del restador, tomando en cuenta el flujo continuo de información proporcionado por el sacador. Para ello, se realizó un análisis cronométrico de los restos de doce jugadores de diferente nivel deportivo (seis internacionales y seis nacionales) que respondieron de forma natural enviando sus devoluciones hacia las dianas. Se grabaron las acciones de los restadores y sacadores con una cámara Casio Exilim Pro Ex-F1 de alta velocidad (300 Hz) y luego se realizó un análisis imagen por imagen cada 3.33 ms. Una vez obtenidos los datos de los vídeos se realizaron análisis con las pruebas de ANOVA de un factor, ANCOVA con la velocidad del saque como covariable, U de Mann-Whitney y Chi-cuadrado de Pearson. En cuanto a la regulación del movimiento hasta el momento del despegue, los jugadores internacionales iniciaron sus acciones antes que los jugadores nacionales lo que podría indicar una mejor preparación al ejecutar los movimientos como reflejo del nivel de pericia. Los jugadores internacionales iniciaron la elevación del pie posterior a -293 ms y los jugadores nacionales a -202 ms. Todas estas acciones se fueron enlazando unas con otras y fue en el momento del impacto del sacador donde los restadores demostraron una remarcable coordinación perceptivo-motriz. Por consiguiente, los jugadores internacionales despegaron e iniciaron el vuelo a tan solo -6.5 ms del impacto y los jugadores nacionales lo hicieron más tarde a +19.5 ms. A lo largo de la secuencia temporal, todo parece indicar que las informaciones que utilizan los restadores interactúan entre sí; información más temprana y menos fiable para anticipar o moverse antes e información más tardía y más fiable para regular la temporalización de las acciones. Los restadores de nivel internacional y nacional anticiparon a nivel espacial en un bajo porcentaje (7.7% vs. 13.6%) y en tiempos similares (-127 vs. -118 ms) sugiriendo que la utilización de variables ópticas tempranas y menos fiables solo se produce en contadas ocasiones. Por otra parte, estos datos se relacionan con una gran precisión en la respuesta ya que tanto los jugadores internacionales como los nacionales demostraron un alto porcentaje de acierto al responder (95.4% vs. 96.7%). Se había señalado que los jugadores internacionales y nacionales se diferenciarían en el tiempo de caída (i.e., aterrizaje) del primer pie del salto preparatorio, sin embargo ese efecto no fue encontrado (128 vs. 135 ms). Tampoco se hallaron diferencias en el porcentaje de caída con el pie contrario a la dirección de la pelota (58% vs. 62%). Donde sí ambos grupos se diferenciaron fue en el tiempo de caída del segundo pie (147 vs. 168 ms). Esta diferencia de 21 ms fue crucial y fue una prueba de la mayor rapidez de los jugadores internacionales; sugiriendo que ésta acción se podría relacionar con el momento del inicio de la respuesta. Aunque los jugadores internacionales hayan demostrado ser más rápidos en relación con sus capacidades funcionales, ambos grupos no se diferenciaron en todas las variables relacionadas con el LVMr. Ellos no utilizaron esos valiosos milisegundos ganados en el instante de la caída del segundo pie para responder más pronto, ya que el LVMr del miembro superior fue el mismo para ambos grupos (179 vs. 174 ms). Es como si hubiesen tenido todo el tiempo del mundo para seguir ajustando sus acciones hasta el propio golpeo. Además, estos tiempos largos sugieren que en la gran mayoría de los restos la información clave que determinó la respuesta fue detectada (extraída) en momentos cercanos al golpeo del sacador y en la primera parte del vuelo de la pelota. Asimismo, se constató que en general el LVMr se ve influenciado por el tipo de información utilizada. De esta manera, cuando se tomaron en cuenta los ensayos en los que hubo anticipación espacial reflejados en el LVMr del cuerpo entero los tiempos disminuyeron (152 vs. 136 ms). Por otra parte, existieron ocasiones (13%) en los que tanto los jugadores internacionales como los nacionales respondieron tarde recibiendo saques directos (208 vs. 195 ms). Es muy posible que en estos casos los jugadores hayan tenido problemas para detectar la información respondiendo fuera de los márgenes temporales de acción lo que mermó su rendimiento. Lo mismo pudo haber ocurrido cuando ambos grupos de jugadores corrigieron el movimiento del miembro superior tras el impacto (17% vs. 10%) lo que aumentó el tiempo en responder al redirigir la respuesta hacia el lado correcto (208 vs. 205 ms). Además, los jugadores internacionales obtuvieron tiempos de movimiento menores que el de los jugadores nacionales (509 vs. 531 ms) lo que se reflejó en un tiempo total de actuación menor (683 vs. 703 ms). Por último, en cuanto al rendimiento del resto, los jugadores internacionales obtuvieron valores superiores a los jugadores nacionales (1.3 vs. 0.9). ABSTRACT Although there have been significant advances in laboratory studies with unrepresentative experimental designs (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), today it is still unknown to full extent how tennis players of different levels of expertise calibrate or adjust their movements to the spatial-temporal demands present in the return of a first serve. Few studies have been carried out in situ and some aspects of the methodology most of them used can be questioned. Thus, in several studies the recording frequency has been limited (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), or serve speed was visibly lower than the usual one (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). Also, in some studies, experienced participants have not played at international level (e.g., Avilés, Ruiz, Sanz y Navia, 2014), and the sample size has been very small (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). Furthermore, different works have used a variety of methods and measurement instruments and coding criteria of the onset of movements and responses have differed; due to this, visuomotor response delay (LVMr) has been very uneven, varying considerably from 198-410 ms. Considering the drawbacks mentioned above, this study aimed to determine a technical model of temporal regulation of movements and returner’s response, taking into account the continuous flow of information provided by the server. For this, a chronometric analysis of the returns of twelve players (six international and six national) of different sports level, that naturally responded by hitting their returns towards the targets, was performed. Actions of servers and returners were recorded with a Casio Exilim Pro Ex-F1 high speed camera (300 Hz) and then every 3.33 ms analysis was made frame by frame. Once the data of the videos were obtained, analyses were performed using one factor ANOVA test, ANCOVA with the speed of the serve as a covariate, U of Mann- Whitney and Pearson’s Chi-square test. As for the regulation of movement until the moment of serve, international players began their actions before national players, which could indicate that they were better prepared to execute movements reflecting the level of their expertise. International players began raising the rear foot at -293 ms and national players at -202 ms. All these actions were being linked to each other and it was at the moment of impact of the server when the receivers demonstrated a remarkable perceptual-motor coordination. Therefore, international players took off and started their flight just -6.5 ms before the serve and national players did the same somewhat later: +19.5 ms after the serve. Along the timeline, everything seems to indicate that the information used by returners interact with each other; early information which is less reliable to anticipate or move before, and later information more reliable appears to regulate the timing of actions. Returners of international and national levels anticipated at spatial level in a low percentage (7.7% vs. 13.6%) and in similar times (-127 vs. -118 ms) suggesting that the use of early and less reliable optical variables is only produced on rare occasions. Moreover, these data relate to a precise response as both international and national players showed a high percentage of success in responding (95.4% vs. 96.7%). It had been noted that international and national players would differ in the time the fall (i.e., landing) of the first foot of the split-step, however, this effect was not found (128 vs. 135 ms). No differences in the percentage of fall with the opposite foot to the direction of the ball (58% vs. 62%) were found. Where the two groups differed was in the time of the fall of the second foot (147 vs. 168 ms). This difference of 21 ms was crucial and it was a proof of mayor speed of international players; suggesting that this action could be related to the onset time of response. Although international players have proven to be faster in relation to their functional capabilities, both groups did not differ in all variables related to LVMr. They did not use those precious milliseconds earned at the time of the fall of the second foot to respond as soon, since the LVMr of the upper limb was the same for both groups (179 vs. 174 ms). It is as if they had all the time in the world to continue to adjust their actions until the return itself. Furthermore, these long times suggest that in the vast majority of the returns, key information that determined the response was detected (pick-up) in moments close to the hit of the server and in the first part of the ball flight. It was also found that in general the LVMr is influenced by the type of information used. Thus, when taking into account the trials during which there was spatial anticipation, reflected in LVMr of the whole body, the times decreased (152 vs. 136 ms). On the other hand, there were occasions (13%) where both international and national players responded late, thus receiving aces (208 vs. 195 ms). It is quite possible that in these cases the players have had trouble to pick-up information, responding out of temporary margins of action, which affected their performance. The same could have occurred when both groups of players corrected upper limb movement after impact (17% vs. 10%), which increased the time to respond and to redirect the return towards the right side (208 vs. 205 ms). Moreover, international players scored lower movement times than the national players (509 vs. 531 ms), which was reflected in a shorter total response time (683 vs. 703 ms). Finally, as far as the performance of return is concerned, international players scored above the national players values (1.3 vs. 0.9).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis se acerca a la cuestión del método en arquitectura focalizando su análisis principalmente en 5 obras concretas del panorama contemporáneo, tratando de desvelar las motivaciones últimas que las constituyen. El objeto y la obra arquitectónica se consideran así los elementos susceptibles de ofrecer el conocimiento material que permite desentrañar el modo y la metodología por el que éstos han sido concebidos. Con esta particular aproximación se desafían los tradicionales estudios que han comprendido al método como una sistemática universal o reglada, ya que en este caso el propósito consiste más bien en esclarecer los fundamentos y principios que subyacen a cada objeto arquitectónico más específico. Este hecho ha llevado al índice de la tesis a ordenarse según una lista de arquitectos y obras que no presentan otra particularidad que la de ser recientes y muy diferentes entre sí. Esta aparente arbitrariedad con la que las obras se eligen cobra sentido a lo largo del propio análisis y recorrido, ya que éste apuesta por recabar el suficiente contenido que diversifique y singularice cada elección, de tal modo que ya en sí, ésta obtenga rango paradigmático. El hecho de que la tesis evite los planteamientos totalitarios no quiere decir que trate de promover el relativismo de las diferentes opciones, dado que más bien pretende analizar hasta el fondo las cuestiones últimas y lo más valioso que cada opción representa. Por su parte, la conclusión de la tesis muestra una complementariedad al carácter específico de los capítulos previos, ya que ésta se atreve a avanzar con cierta voluntad conclusiva hacia la definición de los principios más sustanciales del método en arquitectura hoy. Y precisamente, una de las claves esenciales que ha mostrado la arquitectura del hoy que nos toca vivir consiste en la condición más específica de la obra arquitectónica misma por encima de cualquier connotación genérica o transcendente que ésta pueda sugerir. De tal modo que los arquitectos elegidos, por muy diferentes que aparentan ser, han tomado como punto de partida la condición objetual de la obra más allá de cualquier contenido ideal que a ésta pueda adscribírsele. En todos los casos, si bien de diferente manera, la obra arquitectónica en sí misma se ha constituido en una nueva clave en la que tratan de dirimirse las eternas dialécticas entre el objeto y su significado, entre la estructura conceptual y su connotación simbólica. De este modo, las dialécticas relativas a la unidad de la diversidad, la identidad de la multiplicidad, la síntesis que pretende la integración de lo complejo, o en su caso, la indispensable sostenibilidad de lo inconsistente, se han convertido en la temática principal de este análisis que ha comprendido al método a partir la misma paradoja por la que la arquitectura actual se ve afectada. La misma dialéctica imposible de resolver que ha conducido a la arquitectura más reciente a decantarse a favor de la consustancialidad intrínseca a la misma obra. La tesis por su parte también se ha focalizado en la obra y en el hecho arquitectónico puntual, siguiendo la tendencia de la misma arquitectura que se analizaba. Sin embargo, sus extensos análisis nos han llevado a desentrañar el sentido y la posición estratégica personal que se encuentra más allá de la exacerbación inmanente de la arquitectura de estos últimos años. Es decir, tal y como se ha insistido, el análisis de la obra nos ha llevado, a través de la pregunta por su método, al arquitecto que la ha proyectado. Y así se ha creado este triángulo trinitario, ‘Arquitecto, obra y método’, tratando de preguntarse hasta el final por la singularidad más específica del método de cada arquitecto, en el convencimiento de que método y obra se vinculan precisamente ahí, en las experiencias personales singulares que han posibilitado las mayores creaciones y más sustantivas novedades. ABSTRACT This thesis approaches the question of Method in architecture by focusing its analysis on 5 specific contemporary projects, trying to unveil their underlying constitutive motivations. Thus, architectonical object and work are considered the susceptible elements that provide the material knowledge that unravels the manner and the methodology by which they were conceived. With this particular approach, this thesis challenges other traditional studies, those that regard the Method in architecture as a regulated or universal systematic procedure. On the contrary, the purpose of this thesis is to clarify the foundations and principles that underlie each specific architectonical object. This has led to the ordering of the thesis index according to a list of architects and projects that do not present any other distinctiveness except that they are recent and very different to each other. However, this apparent arbitrariness of the choice of each architect becomes meaningful during its analytical development. This analysis attempts to seek out the content which diversifies each choice enough, and makes it singular enough, so that each selected candidate acquires paradigmatic range by itself. Therefore, the fact that the thesis avoids totalitarian approaches does not lead it to promote the relativism of different choices, but rather the thesis tries to thoroughly analyze the most valuable achievements of each option. Nonetheless, the conclusion of the thesis shows a position that complements the specific character of the previous chapters, since it dares to move forward conclusively towards the definition of the essential principles of the Method in architecture today. Indeed, the thesis shows one of the basic keys of today’s architecture, which is the specific condition of the architectural work itself above any generic or transcendental connotation. Thus, the selected architects, however different they appear to be, take the objectual condition of the work (thingness) as their starting point beyond any ideal content that might be ascribed to their architecture. Although differently, in each case the architectonical work itself has become the new indispensable key to deal with the eternal dialectics between the object and its meaning, between conceptual structure and its symbolic connotation. Thus, the dialectics between unity and diversity, the identity of multiplicity, the synthesis that aims at the integration of complexity, or even, the indispensable consistency of the unavoidable inconsistency, have all become the main themes of this analysis, an analysis that understands the issue of Method from the same paradoxical situation of today’s architecture. This is the same paradox which has led the latest architecture to align itself with the intrinsic consubstantiality of the architectonical work itself. Therefore, the thesis is also focused on the Work, on the specific architectonical fact, following the course of the same architecture that it analyses. However, extensive analyses of the thesis have led us to clarify the sense and personal strategic position that is beyond the immanent exacerbation of architecture in recent years. Therefore, as stressed throughout the text, the analysis, that has explored the Method of architectonical Work, has led us to the architect who conceived it. Thus, this trinitarian triangle, ‘Architect, Work and Method’, has been created, attempting to explore in depth the specific uniqueness of each architect’s method, convinced that Method and Work do actually connect in the singular experiences that have achieved the greatest and most substantial creations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto fin de grado presenta dos herramientas, Papify y Papify-Viewer, para medir y visualizar, respectivamente, las prestaciones a bajo nivel de especificaciones RVC-CAL basándose en eventos hardware. RVC-CAL es un lenguaje de flujo de datos estandarizado por MPEG y utilizado para definir herramientas relacionadas con la codificación de vídeo. La estructura de los programas descritos en RVC-CAL se basa en unidades funcionales llamadas actores, que a su vez se subdividen en funciones o procedimientos llamados acciones. ORCC (Open RVC-CAL Compiler) es un compilador de código abierto que utiliza como entrada descripciones RVC-CAL y genera a partir de ellas código fuente en un lenguaje dado, como por ejemplo C. Internamente, el compilador ORCC se divide en tres etapas distinguibles: front-end, middle-end y back-end. La implementación de Papify consiste en modificar la etapa del back-end del compilador, encargada de la generación de código, de modo tal que los actores, al ser traducidos a lenguaje C, queden instrumentados con PAPI (Performance Application Programing Interface), una herramienta utilizada como interfaz a los registros contadores de rendimiento (PMC) de los procesadores. Además, también se modifica el front-end para permitir identificar cierto tipo de anotaciones en las descripciones RVC-CAL, utilizadas para que el diseñador pueda indicar qué actores o acciones en particular se desean analizar. Los actores instrumentados, además de conservar su funcionalidad original, generan una serie de ficheros que contienen datos sobre los distintos eventos hardware que suceden a lo largo de su ejecución. Los eventos incluidos en estos ficheros son configurables dentro de las anotaciones previamente mencionadas. La segunda herramienta, Papify-Viewer, utiliza los datos generados por Papify y los procesa, obteniendo una representación visual de la información a dos niveles: por un lado, representa cronológicamente la ejecución de la aplicación, distinguiendo cada uno de los actores a lo largo de la misma. Por otro lado, genera estadísticas sobre la cantidad de eventos disparados por acción, actor o núcleo de ejecución y las representa mediante gráficos de barra. Ambas herramientas pueden ser utilizadas en conjunto para verificar el funcionamiento del programa, balancear la carga de los actores o la distribución por núcleos de los mismos, mejorar el rendimiento y diagnosticar problemas. ABSTRACT. This diploma project presents two tools, Papify and Papify-Viewer, used to measure and visualize the low level performance of RVC-CAL specifications based on hardware events. RVC-CAL is a dataflow language standardized by MPEG which is used to define video codec tools. The structure of the applications described in RVC-CAL is based on functional units called actors, which are in turn divided into smaller procedures called actions. ORCC (Open RVC-CAL Compiler) is an open-source compiler capable of transforming RVC-CAL descriptions into source code in a given language, such as C. Internally, the compiler is divided into three distinguishable stages: front-end, middle-end and back-end. Papify’s implementation consists of modifying the compiler’s back-end stage, which is responsible for generating the final source code, so that translated actors in C code are now instrumented with PAPI (Performance Application Programming Interface), a tool that provides an interface to the microprocessor’s performance monitoring counters (PMC). In addition, the front-end is also modified in such a way that allows identification of a certain type of annotations in the RVC-CAL descriptions, allowing the designer to set the actors or actions to be included in the measurement. Besides preserving their initial behavior, the instrumented actors will also generate a set of files containing data about the different events triggered throughout the program’s execution. The events included in these files can be configured inside the previously mentioned annotations. The second tool, Papify-Viewer, makes use of the files generated by Papify to process them and provide a visual representation of the information in two different ways: on one hand, a chronological representation of the application’s execution where each actor has its own timeline. On the other hand, statistical information is generated about the amount of triggered events per action, actor or core. Both tools can be used together to assert the normal functioning of the program, balance the load between actors or cores, improve performance and identify problems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

as tecnologías emergentes como el cloud computing y los dispositivos móviles están creando una oportunidad sin precedentes para mejorar el sistema educativo, permitiendo tanto a los educadores personalizar y mejorar la experiencia de aprendizaje, como facilitar a los estudiantes que adquieran conocimientos sin importar dónde estén. Por otra parte, a través de técnicas de gamificacion será posible promover y motivar a los estudiantes a que aprendan materias arduas haciendo que la experiencia sea más motivadora. Los juegos móviles pueden ser el camino correcto para dar soporte a esta experiencia de aprendizaje mejorada. Este proyecto integra el diseño y desarrollo de una arquitectura en la nube altamente escalable y con alto rendimiento, así como el propio cliente de iOS, para dar soporte a una nueva version de Temporis, un juego móvil multijugador orientado a reordenar eventos históricos en una línea temporal (e.j. historia, arte, deportes, entretenimiento y literatura). Temporis actualmente está disponible en Google Play. Esta memoria describe el desarrollo de la nueva versión de Temporis (Temporis v.2.0) proporcionando detalles acerca de la mejora y adaptación basados en el Temporis original. En particular se describe el nuevo backend hecho en Go sobre Google App Engine creado para soportar miles de usuarios, asó como otras características por ejemplo como conseguir enviar noticaciones push desde la propia plataforma. Por último, el cliente de iOS en Temporis v.2.0 se ha desarrollado utilizando las últimas y más relevantes tecnologías, prestando especial atención a Swift (el lenguaje de programación nuevo de Apple, que es seguro y rápido), el Paradigma Funcional Reactivo (que ayuda a construir aplicaciones altamente interactivas además de a minimizar errores) y la arquitectura VIPER (una arquitectura que sigue los principios SOLID, se centra en la separación de asuntos y favorece la reutilización de código en otras plataformas). ABSTRACT Emerging technologies such as cloud computing and mobile devices are creating an unprecedented opportunity for enhancing the educational system, letting both educators customize and improve the learning experience, and students acquire knowledge regardless of where they are. Moreover, through gamification techniques it would be possible to encourage and motivate students to learn arduous subjects by making the experience more motivating. Mobile games can be a perfect vehicle to support this enhanced learning experience. This project integrates the design and development of a highly scalable and performant cloud architecture, as well as the iOS client that uses it, in order to provide support to a new version of Temporis, a mobile multiplayer game focused on ordering time-based (e.g. history, art, sports, entertainment and literature) in a timeline that currently is available on Google Play. This work describes the development of the new Temporis version (Temporis v.2.0), providing details about improvements and details on the adaptation of the original Temporis. In particular, the new Google App Engine backend is described, which was created to support thousand of users developed in Go language are provided, in addition to other features like how to achieve push notications in this platform. Finally, the mobile iOS client developed using the latest and more relevant technologies is explained paying special attention to Swift (Apple's new programming language, that is safe and fast), the Functional Reactive Paradigm (that helps building highly interactive apps while minimizing bugs) and the VIPER architecture (a SOLID architecture that enforces separation of concerns and makes it easy to reuse code for other platforms).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A través de esta tesis se busca aportar un análisis de los elementos peatonales que cubren las necesidades y las infraestructuras de apoyo al peatón, siendo un campo poco desarrollado en nuestro país a diferencia de otros como Dinamarca, Reino Unido, Alemania y Holanda, donde las actuaciones peatonales ejecutadas son tradicionales y muy exitosas. Se trata por tanto de un tema poco estudiado pero que adquiere singular importancia en estos años de búsqueda de nuevos modelos urbanos que eviten el derroche de recursos, y avancen hacia formas de movilidad más adecuadas a un mundo limitado y vulnerable. La investigación tiene un carácter eminentemente descriptivo cuyo principal valor es documentar y analizar sistemáticamente una realidad poco conocida, aportándose datos para entender el origen y desarrollo de las actuaciones peatonales. El propósito es ayudar a cimentar este campo en nuestro país, definiendo con precisión el estado de la cuestión geográficamente y dejando para un futuro una cartografía temática completa. El objeto general es estudiar y comprender los elementos peatonales de un número limitado de ciudades medias españolas, marcándose como objetivos específicos los siguientes: - Identificar y describir los principales elementos que conforman la red peatonal de las ciudades. ‐ Estudiar las tipologías espaciales dominantes, sus características y orígenes, pudiendo distinguir de un lado, las desarrolladas en la ciudad consolidada, como las actuaciones en los cascos antiguos; y por otro, las ejecutadas en la ciudad nueva a través de fórmulas arquitectónicas generalmente residenciales con espacios peatonales adjuntos. ‐ Analizar los referidos elementos para comprobar si han conformado redes de uso peatonal, si se han constituido articulando la ciudad como en el caso de los ejes lineales en las ciudades con río o mar, o si han influenciado el carácter del entorno en el que se han realizado, centrando el interés en los cascos históricos peatonalizados. ‐ Comprobar si hay actuaciones complementarias a los procesos de urbanización y mejora urbanística, así como la aprobación de ayudas y subvenciones para afrontar las mismas. ‐ Finalmente, describir y evaluar los procesos y procedimientos mediante los que se produce la peatonalización de determinadas áreas urbanas, los orígenes, los instrumentos y fechas de su puesta en marcha, aportando una cronología peatonal. La metodología comienza con la acotación de 22 ciudades españolas, capitales de provincia con una población entre 100.000 y 500.000 habitantes según los datos del INE del año 2009. La distribución es equilibrada con la selección de ciudades de costa, de interior, con río/ría, con carácter patrimonial, ciudades en islas, etc. El análisis de los elementos peatonales de estas urbes se realiza gracias a la gran resolución de las bases cartográficas públicas y privadas que hay en la actualidad en internet, especialmente con el uso de las herramientas de Google Earth y Google Maps en su versión “street view”, softwares que permiten un paseo virtual de cada ciudad detallándose con gran precisión las actuaciones peatonales. Las ciudades elegidas son: ‐ 11 ciudades costeras: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián y Tarragona. ‐ 11 ciudades de interior: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid y Vitoria. Finalmente, por tener los porcentajes mas elevados de las áreas peatonales de sus casco histórico, se eligen 3 casos de ciudades representativas para un desarrollo peatonal en profundidad, seleccionándose Burgos, San Sebastián y Pamplona. Otros aspectos metodológicos interesantes a destacar, es la extensa documentación adquirida a través de las fuentes de Internet, sobre todo a la hora de desarrollar el último capítulo “Procesos de peatonalización de las ciudades españolas” centrado en las 3 ciudades elegidas. Se consulta las hemerotecas de periódicos locales, los boletines oficiales, las actas de los plenos de los Ayuntamientos y los documentos de planificación (Planes Generales, Planes Especiales, Planes y Proyectos Municipales, Planes de Movilidad), adquiriéndose una precisa información en cuanto a la cronología de las fechas y extensión del trabajo. Se complementa la metodología con las entrevistas a actores claves en el proceso peatonal, como el personal técnico de los Ayuntamiento y los técnicos redactores de los proyectos; y con la colaboración directa de los técnicos de los consistorios de las 3 ciudades seleccionadas, aportando todo tipo de información demandada. En la tesis, se introduce los elementos peatonales mediante el estudio de los espacios peatonales y los procesos de peatonalización existentes, a través del análisis de la literatura consultada aportándose información valiosa en cuanto a la definición de los modelos peatonales, exponiéndose una breve historia de las peatonalizaciones. Destacan las publicaciones de los expertos europeos en la materia como los autores Carmen Hass-Klau, Rolf Monheim, Rob Krier y Collin Buchanan. En España, las actuaciones peatonales fueron tardías en el tiempo en comparación con el resto de Europa, con casi 40 años de retraso. Las referencias bibliográficas españolas en esta materia son escasas siendo las mas significativas las realizadas por Alfonso Sanz y por el profesor Julio Pozueta destacando una de sus últimas publicaciones “La ciudad paseable” describiéndose los elementos peatonales existentes en las ciudades, sirviendo como modelo y ejemplo para esta investigación. En base a lo anterior, se definen los elementos peatonales como aquellos espacios públicos libres de edificación que, por sus características y diseño, garantizan un confortable uso estancial, de tránsito peatonal y están expresamente reservados para ello. En la tesis se detectan y se especifican los siguientes elementos peatonales: las calles y plazas peatonales, las aceras y bulevares de una anchura superior a 8 metros, los paseos peatonales, los elementos de paso (tradicionales y mecánicos), espacios peatonales ligados a nuevas áreas residenciales, los soportales y pasajes peatonales con una anchura mínima de 4 metros, recintos feriales, espacios libres y zonas verdes y parques. Para cada una de las 22 ciudades seleccionadas se realiza un exhaustivo inventario de los anteriores elementos a través de fichas, aportando un gran número de proyectos individuales ejecutados en cada urbe. Esta información se recoge gráficamente en 2 fotoplanos, conformándose como herramientas fundamentales para esta investigación. El Fotoplano 1 se hace sobre la base de la ciudad del Google Earth diferenciándose las áreas peatonales y las zonas verdes. En el Fotoplano 2, y con el soporte anterior, se distinguen las tipologías persistentes y dominantes como son los grandes ejes peatonales, las redes peatonales locales y los elementos peatonales singulares. Finalmente, a partir de los 2 fotoplanos, se realiza la denominada “Huella peatonal” que destaca por su atractivo y pregnancia, algo de lo que el campo de lo peatonal es muy útil. A través de la huella se obtiene una rápida información al tener el plano dos colores, color naranja para lo peatonal (formado por las áreas peatonales y zonas verdes) y color negro para el resto el resto no peatonal. Toda esta documentación gráfica y descriptiva de los elementos peatonales de cada ciudad, queda ampliamente recogida en el Anexo de la tesis. La “Huella peatonal” se considera como el plano básico en la investigación obteniendo una percepción rápida, clara y visual del espacio peatonal de cada ciudad. Se arroja información morfológica con respecto a la distribución espacial, articulación, equilibrio, modulación, cohesión, concentración peatonal, etc. de cada una de las ciudades seleccionadas. A través de la huella se resuelve muchos de las cuestiones enmarcadas como objetivos de la tesis, comprobándose de forma general, que los elementos peatonales dentro de la trama urbana están desarticulados ya que no hay una estructura que module la ciudad como un conjunto cohesionado. Se localizan pequeñas redes conectadas entre sí, que de forma heterogénea, están dispersas por la ciudad. Se verifica que los elementos peatonales con mayor concentración y presencia en las ciudades analizadas son los ejes peatonales, los cascos históricos y los elementos peatonales en las nuevas áreas residenciales. En la investigación, además de estos 3 elementos mencionados, se analiza con mayor profundidad otros tipos que destacan por su persistencia y repetición en la “Huella peatonal” de cada una de las 22 ciudades, como son las plazas peatonales, los soportales y los elementos singulares peatonales: espacios tradicionales (recintos feriales, pasajes, puentes históricos), nuevos elementos peatonales (pasarelas peatonales, elementos mecánicos de paso), áreas peatonales entorno a edificios culturales y otros casos como los consistentes en la recuperación y transformación de edificaciones y construcciones urbanas de diferente uso y tipología, en nuevas áreas peatonales. Se aporta luz sobre su definición, localización, cronología, proporción, presencia y génesis, facilitando resultados de cada uno de ellos. De forma paralela, se obtiene información de índole cuantitativa a través de las mediciones de la huella, obteniéndose datos y porcentajes de extensión de la ciudad, de las zonas peatonales y de las zonas verdes, de los cascos históricos y de sus superficies peatonales, de los metros lineales de dichos cascos históricos y de sus calles peatonales. Se proporcionan ratios e índices que se consideran fundamentales para una mejor comprensión peatonal de cada urbe. Se establece una clasificación de las ciudades en cada uno de los ámbitos descritos, destacando las ciudades de Pamplona, San Sebastián y Burgos por arrojar las cifras peatonales más positivas encabezando la mayoría de las tablas clasificatorias. La peor ciudad valorada es Alicante, seguida según criterio, de Almería, Palma de Mallorca y Las Palmas de GC. En el capítulo final de la investigación, se eligen las ciudades de Burgos, San Sebastián y Pamplona como casos de estudio representativos. El objetivo es obtener un conocimiento más preciso en cuanto a su origen, cronología y procesos de las peatonalizaciones. Cada ciudad se compone de un cuadro cronológicos por etapas, desarrollándose de forma exhaustiva cada una de ellas, enunciadas normalmente, como instrumentos de planeamiento o proyectos de urbanización, acompañadas de los planos de las actuaciones peatonales. Al final de cada etapa se aportan datos de las cifras de las peatonalizaciones que se van realizando, con un cuadro numérico de localizaciones, superficie peatonal, superficie reurbanizada, longitud peatonal y el grado de peatonalización del casco histórico, además de los datos acumulados por etapa. De las conclusiones cruzadas de estas 3 ciudades, destaca la comprobación de la tendencia de ir peatonalizando los centros antiguos llegando incluso al 100% de calles peatonales en el caso de San Sebastián. No obstante, es difícil confirmar si el objetivo es una peatonalización global de los cascos, ya que son muchas las variables que afectan e influyen en el proceso peatonal de cada ciudad. Se coteja adicionalmente cómo se extiende la cultura peatonal desde el interior al exterior, mas allá de los cascos históricos hacia los ensanches próximos. En cuanto al origen de las peatonalizaciones, se concluye que no hay una concepción inicial y teórica marcada, a partir de la cual se va desarrollando la trama peatonal de cada ciudad. Se puede afirmar que los procesos peatonales ejecutados son variados y de diversa índole, sin poder precisar un hecho como causa principal. Según el momento y las circunstancias, las peatonalizaciones responden a distintas iniciativas promovidas por los comerciantes, por las administraciones locales o por los técnicos de planeamiento, con sus expertas aportaciones en los planes. Estos tres agentes actúan como impulsores de proyectos individuales peatonales que se van solapando en el tiempo. Como punto final de la tesis, se propone una serie de nuevas líneas de investigación que pueden servir como estudio adicional y complementario, respondiendo a aspectos tan relevantes como cuestiones de índole económica, social y de movilidad, fuertemente ligadas a las peatonalizaciones, tal y como se demuestra en la literatura consultada. ABSTRACT This thesis aims to analyse the pedestrian elements dealing with the needs and infrastructures that support pedestrians, as this is a field that is little developed in our country, in comparison to other regions such as Denmark, the United Kingdom, Germany and the Netherlands, where the pedestrian actions implemented are traditional and highly successful. Therefore, even though little research has been done about this topic, this field is increasingly important throughout these years of search for urban models intended to prevent the waste of resources and to develop new mobility ways, more adapted to a limited, vulnerable world. This research is essentially descriptive and it mainly aims to document and systematically analysed a scarcely known reality by providing data in order to understand the origin and development of pedestrian actions. This thesis intends to lay the foundations of this field in Spain, accurately defining the state of the art from a geographical point of view and preparing a full thematic map that may be used in the future. The overall aim is to study and understand the pedestrian elements of a limited number of Spanish medium-size cities, establishing the following specific goals: - To identify and describe the main elements comprising cities' pedestrian networks. - To study of special predominant typologies, their features and origins, with the possibility to, on the one hand, make a difference between the typologies developed in well-established cities, such as the actions in historic quarters, and, on the other hand, those implemented in new cities through generally residential architectural formulae with adjoining pedestrian areas. - To analyse the said elements in order to check whether they have resulted in pedestrian-use networks, whether they have been established by organising the city, such as the linear axes in coastal and riverside cities, or whether they have had an impact on the character of the areas where these elements have been implemented, focusing on pedestrian historic quarters. - Check whether there are actions supplementary to the urban development and urban improvement processes, as well as the approval of financial support and subventions to deal with these actions. - Finally, to describe and assess the processes and procedures by which the pedestrianisation of certain urban areas is carried out, the origins, the instruments and the date of their implementation, providing a pedestrian timeline. The methodology starts by defining 22 Spanish cities, province capitals with a population ranging from 100,000 to 500,000 inhabitants, according to the data recorded by the Spanish Statistics Institute (INE) in 2009. The distribution of coastal, riverside and interior cities, as well as of patrimonial cities and cities in islands, etc. is well balanced. The analysis of the pedestrian elements of these cities is made with the great resolution of the public and private map databases that can be accessed on the Internet, especially using the "street-view" version of tools such as Google Earth and Google Maps, software applications that allow to go for a virtual walk in each city, providing highly precise details about the pedestrian actions. The following cities have been chosen: ‐ 11 coastal cities: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián and Tarragona. ‐ 11 interior cities: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid and Vitoria. Finally, as they have the highest percentages regarding the pedestrian areas found in the historic quarters, 3 cities representing a deep pedestrian development have been chosen: Burgos, San Sebastián and Pamplona. Other significant methodological aspects are the many documents found from online sources, especially when preparing the last chapter: “Processes for the pedestrianisation of Spanish cities”, which focuses on the 3 cities chosen. Local newspaper and periodical libraries, official gazettes, the minutes of plenary sessions of councils and the zoning regulation documents (General Zoning Plans, Special Zoning Plans, Municipal Plans and Projects, Mobility Plans, etc.) have been consulted, obtaining accurate information regarding the timeline and the extension of the works carried out. The methodology is supplemented by interviews with key players in the pedestrianisation process, such as the technical staff in councils and the officers drafting and designing the projects, as well as with the direct collaboration by the officers of the councils of the 3 cities chosen, who provided all the information requested. The thesis introduces the pedestrian elements by studying pedestrian areas and existing pedestrianisation processes through the analysis of the literature consulted, providing valuable information for the definition of pedestrian models and showing a brief history and background of the pedestrianisation process. Remarkable papers published by some European experts in the field, such as Carmen Hass-Klau, Rolf Monheim and Collin Buchanan, are covered in the thesis. In Spain, the pedestrianisation actions were late in time in comparison to the rest of Europe, with at least 40 years of delay. The Spanish literature references in this field are limited. The most significant papers are those published by Alfonso Sanz and by Professor Julio Pozueta, with a special mention of one of his last works "La ciudad paseable" (The Walkable City), which describes the pedestrian elements found in the cities and is used a model and an example for this research. Based on the elements above, pedestrian elements are defined as those construction-free public areas that, due to their features and design, ensure the comfortable, convenient use of the spaces, characterised by pedestrian traffic and specifically reserved for this purpose. The thesis detects and specifies the following pedestrian elements: pedestrian streets and squares, pavements (sidewalks) and boulevards with a width exceeding 8 metres, pedestrian promenades, crossing elements (traditional and mechanical), pedestrian spaces linked to new residential areas, colonnades and pedestrian passages or narrow streets with a minimum width of 4 metres, exhibition sites, free spaces and green areas and parks. For each of the 22 cities chosen, a thorough inventory of the elements mentioned above has been made by using worksheets, providing a significant number of individual projects developed in each city. This information is graphically collected and displayed on 2 photomaps, resulting in tools essential for this research. Photomap 1 is made based on the city displayed by Google Earth, making a difference between pedestrian areas and green areas. On Photomap 2, using the tool mentioned above, a difference can be made between persistent and predominant typologies, such as the big pedestrian axes, the local pedestrian networks and singular pedestrian elements. Finally, the 2 photomaps are used in order to establish the so-called "pedestrian footprint", which is highlighted by its attractiveness and appeal, concepts for which the pedestrian field is very useful. With the pedestrian footprint, quick information can be obtained, since the map shows two colours: orange for pedestrian elements (made up of pedestrian areas and green areas) and black for the other non-pedestrian elements. A significant part of these graphic, descriptive documents about each city's pedestrian elements can be found in the thesis appendix. The "Pedestrian Footprint" is regarded in the research as the basic map, obtaining a quick, clear and visual perception of each city's pedestrian space. This footprint provides morphological information regarding the space distribution, the organisation, the balance, the modulation, the cohesion, the pedestrian concentration, etc. in each of the cities chosen. The pedestrian footprint helps solve many of the questions established as the thesis goals, proving that, in general, the pedestrian elements are not organised in the urban plot, as there is no structure modulating the city as a properly linked set of elements. Small networks linked to each other and heterogeneously scattered all over the city are found. It has been verified that the pedestrian elements with the highest concentration and presence in the cities analysed are the pedestrian axes, the historic quarters and the pedestrian elements found in the new residential areas. Besides these 3 elements mentioned, the research analyses in depth other types that are remarkable due to their persistence and repetition in the "Pedestrian Footprint" of each of the 22 cities, such as the pedestrian squares, the colonnades and the singular pedestrian elements: traditional spaces (exhibition sites, passages, historic bridges), new pedestrian elements (pedestrian footbridges, mechanical crossing elements), pedestrian areas around cultural buildings and other cases such as those consisting of recovering and transforming building and urban constructions, intended for a wide range of purposes and of different types, into new pedestrian areas. This work puts light on the definition, location, timeline, proportion, presence and origin, providing results for each of these concepts. At the same time, quantitative information is obtained by measuring the footprint, getting data and percentages on the size of the city, the pedestrian areas and the green areas, the historic quarters and the pedestrian zones, the linear metres of such historic quarters and pedestrian streets. The footprint also provides ratios and rates that are considered as essential in order to better understand the pedestrian elements of each city. A classification of cities is established for each of the areas described, highlighting the cities of Pamplona, San Sebastián and Burgos, as they provide the most positive pedestrian figures and lead most of the classification tables or rankings. According to the criteria considered, the city with the worst values is Alicante, followed by Almería, Palma de Mallorca and Las Palmas de Gran Canaria. In the final chapter in the thesis, the cities of Burgos, San Sebastián and Pamplona are chosen as representative study cases. The aim is to gain more accurate knowledge regarding the pedestrianisation origin, timeline and processes. Each city comprises a chronological sequence made of stages, each of which is thoroughly developed and usually announced as zoning plans or urban development projects, accompanied by the plans of the pedestrian actions. At the end of each stage, data with the figures of the pedestrianisation projects are provided, including a numerical chart with locations, pedestrian area, redeveloped urban areas, pedestrian length and pedestrianisation degree in the historic quarter, as well as the data cumulated throughout each stage. In the crossed conclusions on the three cities, the trend of gradually pedestrianising the historic quarters (even reaching the 100% of the pedestrian streets as in San Sebastián) is verified. However, it is difficult to confirm whether the purpose is to reach an overall pedestrianisation of the historic quarters, since there are many variables that affect and influence each city's pedestrianisation process. In addition, the spread of the pedestrian culture from the internal areas to the external areas, beyond the historic quarters to the nearby expansion areas, is compared. Regarding the origin of pedestrianisations, the thesis comes to the conclusion that there is no initial or theoretical conception from which each city's pedestrian plot is developed. The pedestrian processes implemented are varied and diverse but no fact can be specified as the main cause. Based on the moment and circumstances, the pedestrianisation processes are due to different initiatives promoted by shopkeepers, by the local administrations or by the zoning officers, with their expert contributions to the plans. These three players promote and drive individual pedestrianisation projects that overlap in the course of time. Finally, new lines of research are put forwards, as they can be taken as an additional study and as a supplement to this research, dealing with aspects as significant as the economic, social and mobility factors, closely linked to the pedestrianisation processes, as proven in the literature consulted.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta la tesis doctoral, titulada ‘TRANS Arquitectura. Imaginación, Invención e individuación del objeto tecnico arquitectónico. Transferencia tecnológica desde la Industria del Transporte al Proyecto de Arquitectura [1900-1973]'’, que aborda la relación entre la Arquitectura y el Objeto Técnico durante la Modernidad.1 La temática de la tesis gravita en torno a la cultura técnica, la cultura material y la historia de la Tecnología del siglo XX. Hipótesis Se sostiene aquí la existencia de unas arquitecturas que se definen como Objetos Técnicos. Para demostrarlo se estudia si éstas comparten las mismas propiedades ontológicas de los objetos técnicos. Industria y Arquitectura La historia de la Arquitectura Moderna es la historia de la Industria Moderna y sus instalaciones industriales, sus productos y artefactos o sus procedimientos y procesos productivos. Fábricas, talleres, acerías, astilleros, minas, refinerías, laboratorios, automóviles, veleros, aviones, dirigibles, transbordadores, estaciones espaciales, electrodomésticos, ordenadores personales, teléfonos móviles, motores, baterías, turbinas, aparejos, cascos, chassis, carrocerías, fuselajes, composites, materiales sintéticos, la cadena de montaje, la fabricación modular, la cadena de suministros, la ingeniería de procesos, la obsolescencia programada… Todos estos objetos técnicos evolucionan constantemente gracias al inconformismo de la imaginación humana, y como intermediarios que son, cambian nuestra manera de relacionarnos con el mundo. La Arquitectura, al igual que otros objetos técnicos, media entre el hombre y el mundo. Con el objetivo de reducir el ámbito tan vasto de la investigación, éste se ha filtrado a partir de varios parámetros y cualidades de la Industria, estableciendo un marco temporal, vinculado con un determinado modo de hacer, basado en la ciencia. El inicio del desarrollo industrial basado en el conocimiento científico se da desde la Segunda Revolución Industrial, por consenso en el último tercio del siglo XIX. Este marco centra el foco de la tesis en el proceso de industrialización experimentado por la Arquitectura desde entonces, y durante aproximadamente un siglo, recorriendo la Modernidad durante los 75 primeros años del siglo XX. Durante este tiempo, los arquitectos han realizado transferencias de imágenes, técnicas, procesos y materiales desde la Industria, que ha servido como fuente de conocimiento para la Arquitectura, y ha evolucionado como disciplina. Para poder abordar más razonablemente un periodo tan amplio, se ha elegido el sector industrial del transporte, que históricamente ha sido, no sólo fuente de inspiración para los Arquitectos, sino también fuente de transferencia tecnológica para la Arquitectura. Conjuntos técnicos como los astilleros, fábricas de automóviles o hangares de aviones, individuos técnicos como barcos, coches o aviones, y elementos técnicos como las estructuras que les dan forma y soporte, son todos ellos objetos técnicos que comparten propiedades con las arquitecturas que aquí se presentan. La puesta en marcha de la cadena móvil de montaje en 1913, se toma instrumentalmente como primer foco temporal desde el que relatar la evolución de numerosos objetos técnicos en la Primera Era de la Máquina; un segundo foco se sitúa en 19582, año de la creación de la Agencia Espacial norteamericana (NASA), que sirve de referencia para situar la Segunda Era de la Máquina. La mayoría de los objetos técnicos arquitectónicos utilizados para probar la hipótesis planteada, gravitan en torno a estas fechas, con un rango de más menos 25 años, con una clara intención de sincronizar el tiempo de la acción y el tiempo del pensamiento. Arquitectura y objeto técnico Los objetos técnicos han estado siempre relacionados con la Arquitectura. En el pasado, el mismo técnico que proyectaba y supervisaba una estructura, se ocupaba de inventar los ingenios y máquinas para llevarlas a cabo. Los maestros de obra, eran verdaderos ‘agentes de transferencia tecnológica’ de la Industria y su conocimiento relacionaba técnicas de fabricación de diferentes objetos técnicos. Brunelleschi inventó varia grúas para construir la cúpula de Santa Maria dei Fiori (ca.1461), seguramente inspirado por la reedición del tratado de Vitruvio, De Architectura (15 A.C.), cuyo último capítulo estaba dedicado a las máquinas de la arquitectura clásica romana, y citaba a inventores como Archimedes. El arquitecto florentino fue el primero en patentar un invento en 1421: una embarcación anfibia que serviría para transportar mármol de Carrara por el río Arno, para su obra en Florencia. J. Paxton. Crystal Palace. London 1851. Viga-columna. Robert McCormick. Cosechadora 1831. 2ª patente, 1845. La Segunda Revolución Industrial nos dejó un primitivo ejemplo moderno de la relación entre la Arquitectura y el objeto técnico. El mayor edificio industrializado hasta la fecha, el Crystal Palace de Londres, obra de Joseph Paxton, fue montado en Londres con motivo de la Gran Exposición sobre la Industria Mundial de 1851, y siempre estará asociado a la cosechadora McCormick, merecedora del Gran Premio del Jurado. De ambos objetos técnicos, podrían destacarse características similares, como su origen industrial, y ser el complejo resultado de un ensamblaje simple de elementos técnicos. Desde la entonces, el desarrollo tecnológico ha experimentado una aceleración continuada, dando lugar a una creciente especialización y separación del conocimiento sobre las técnicas antes naturalmente unidas. Este proceso se ha dado a expensas del conocimiento integrador y en detrimento de la promiscuidad entre la Industria y la Arquitectura. Este es, sin lugar a dudas, un signo consustancial a nuestro tiempo, que provoca un natural interés de los arquitectos y otros tecnólogos, por las transferencias, trans e inter-disciplinareidades que tratan de re-establecer los canales de relación entre los diferentes campos del conocimiento. La emergencia de objetos técnicos como los vehículos modernos a principios del siglo XX (el automóvil, el trasatlántico, el dirigible o el aeroplano) está relacionada directamente con la Arquitectura de la Primera Era de la Máquina. La fascinación de los arquitectos modernos por aquellas nuevas estructuras habitables, se ha mantenido durante más de un siglo, con diferente intensidad y prestando atención a unos objetos técnicos u otros, oscilando entre el dominio del valor simbólico de los vehículos como objetosimágenes, durante el periodo heroico de la Primera Era de la Máquina, y la mirada más inquisitiva durante la Segunda, que perseguía un conocimiento más profundo de la organización de los mismos y del sistema técnico en el que estaban incluidos. La relación homóloga que existe entre arquitecturas y vehículos, por su condición de estructuras habitables, es algo de sobra conocido desde que Le Corbusier utilizara aquellas imágenes de barcos, coches y aviones para ilustrar su manifiesto Vers une architecture, de 1923. Los vehículos modernos han sido los medios con los que transmitir los conceptos que ansiaban transformar las propiedades tradicionales de la Arquitectura, relativas a su factura, su habitabilidad, su duración, su funcionalidad o su estética. Destaca particularmente el caso del automóvil en las décadas de los años 30 y 50, y los vehículos del programa espacial en las décadas de los 60 y 70. El conocimiento y la documentación previa de estos hechos, fueron un buen indicio para identificar y confirmar que el sector industrial del transporte, era un especialmente trascendente y fértil proveedor de casos de transferencia tecnológica para la Arquitectura. La tradición Moderna inaugurada por Le Corbusier en los años 20, ha sido mantenida y defendida por una multitud de arquitectos modernos como Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames o Craig Ellwood, cuyo trabajo, animado por el legado de anteriores tecnólogos como Bucky Fuller o Jean Prouvé, fue fundamental y referencia obligada para la siguiente generación de arquitectos como Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean Kaplicky o Richard Horden, entre otros. Todos ellos han contribuido a engrosar el imaginario del objeto técnico, aportando sus obras arquitectónicas. Estos arquitectos que aparecen repetidamente en el discurrir de la tesis, pertenecen a un mismo linaje, y son agrupados según una estructura ‘genealógica’, que se ha denominado ‘Estirpe Técnica’. Unidos por intereses comunes y similares enfoques o actitudes ante el proyecto de arquitectura, entendida como objeto Técnico, han operado mediante la práctica de la transferencia tecnológica, sin limitarse a las técnicas compositivas propias de la disciplina arquitectónica. Durante la investigación, se ha recopilado una selección de menciones explícitas -hechas por arquitectos- sobre otros objetos técnicos para referirse a la Arquitectura, mostrando las constantes y las variaciones de sus intereses a lo largo del siglo, lo que nos ha llevado a conclusiones como por ejemplo, que los conjuntos técnicos (fábricas de zepelines, aviones, automóviles o trasatlánticos) eran tomados por los arquitectos de la primera Modernidad, como un modelo imaginario, formal y compositivo, mientras que los de la Segunda Era de la Máquina los tomaban como modelo espacial y organizativo para la arquitectura. La mencionada estirpe de tecnólogos incluye líneas de descendencia conocidas, como: EiffelSuchovBehrens GropiusMiesLeCorbusierLodsProuve, en la Europa continental, o una rama británica como: LoudonPaxtonWilliamsStirlingGowan SmithsonsPriceArchigramFosterRogersPiano KaplickyHorden. También podemos encontrar conexiones intercontinentales como Fuller EamesRudolphFosterRogers, o ramificaciones menos previsibles como: LeRicolaisKahn PianoKaplicky, o LeCorbusierFreyLacaton Vassal… Seguramente muchos más merecerían incluirse en esta lista, y de hecho, la tesis asume la imposibilidad de incluirlo todo (por motivos prácticos) aunque contempla la posibilidad de ser ampliada en un futuro. Con lo aquí incluido, se pretende mostrar la continuidad en los enfoques, planteamientos y técnicas de proyectos aplicadas, de los que podemos deducir algunas conclusiones, como por ejemplo, que en los periodos inmediatamente posteriores a las dos Guerras Mundiales, aumentó la intensidad de aportaciones de nuevas imágenes de vehículos, al imaginario del objeto técnico utilizado por los arquitectos, a través de publicaciones y exposiciones. Hoy, cien años después de que Ford pusiera en marcha la cadena móvil de montaje, aún encontramos viva esta tradición en las palabras de un arquitecto, Richard Horden, cuyo trabajo porta consigo –como la información embebida en los elementos técnicos- toda una cultura técnica de una tradición moderna. Horden representa uno de los exponentes de la que he denominado estirpe de tecnólogos. Es por ello que he querido concluir la tesis con una entrevista, realizada en Mayo de 2015, en su estudio de Berkeley Square en Londres (ver Apéndices). Guías Para el desarrollo de la presente tesis, se ha tomado, como principal obra de referencia, otra tesis, titulada El modo de existencia de los objetos técnicos, leída y publicada en 1958 por el filósofo francés Gilbert Simondon [1924-89], dedicada a la ontología del objeto técnico. Esta obra enmarca el enfoque intelectual de la tesis, que entronca con la fenomenología, para movilizar una visión particular de la Arquitectura, a la que sirve como modelo de análisis ontológico para estudiar sus procesos de génesis, invención e individuación. Para el desarrollo de éstos, se ha utilizado como complemento bibliográfico, otra obra del mismo autor, titulada Imaginación e invención 1965-66. En cuanto a las fuentes historiográficas disciplinares, se ha elegido utilizar a Reyner P. Banham [1922-1988] y a Martin E. Pawley [1938-2008] como guías a través de la arquitectura del siglo XX. Sus crónicas sobre la Primera y Segunda Era de la Máquina3 y su obra crítica, han servido como índices desde los que reconstruir el imaginario del objeto técnico moderno, y del que aprovisionarse de proyectos y obras de Arquitectura como casos de estudio para la tesis. Estas obras han servido además como índices de otra bibliografía, que ha sido complementaria a la de éstos. Objetivos de la Tesis El principal objetivo de la tesis es demostrar la hipótesis: si una obra de arquitectura puede ser considerada un objeto técnico y bajo qué condiciones, construyendo un criterio que permita reconocer cuándo una obra de Arquitectura responde a la definición de objeto técnico. Otro objetivo es demostrar la importancia y potencia de la Transferencia tecnológica en el proceso evolutivo de la Arquitectura, y para ello se presentan ejemplos de una metodología de proyecto por ensamblaje, que Martin Pawley denominaba ‘Design by Assembly’. También es un objetivo el de reconstruir un Atlas del Imaginario del objeto técnico moderno, con el fin de conocer mejor las causas, razones y finalidades que llevaron a los arquitectos modernos a perseguir una arquitectura como objeto técnico. Este Atlas permite relacionar panópticamente los distintos objetos técnicos entre sí, revelando la verdadera importancia y trascendencia de aquéllos y las arquitecturas con las que se relacionan. En él, las arquitecturas vuelven a situarse en el contexto más extenso y complejo de la industria y la historia de la tecnología, al que siempre pertenecieron. De este modo, éstas son capaces de desvelar todo el conocimiento -en forma de información- que portan en su propio código ‘genético’, desplegando capítulos completos de cultura tecnológica, tan antigua como la Humanidad y en constante y creciente evolución. Estructura de la tesis Tras una Introducción en la que se presentan algunos de los conceptos principales que se instrumentalizan en la tesis sobre la ontología Simondoniana del objeto técnico y sobre la transferencia tecnológica aplicada al proyecto de Arquitectura, el texto principal de la tesis consta de tres partes: La primera se dedica a la Imaginación, una segunda parte a la Invención y una tercera a Individuación o evolución del objeto técnico. Se termina con una Discusión de la tesis y un apartado de Conclusiones. En la Introducción al objeto técnico, éste se define ontológicamente y se distinguen sus diferentes categorías (conjuntos técnicos, individuos técnicos y elementos técnicos). Se explica el proceso de génesis del objeto técnico y sus fases de imaginación, invención e individuación. También se presentan los conceptos de transducción, tecnicidad y sistema técnico, fundamentales para entender el concepto de transferencia tecnológica que se desarrollará después. La concretización, explica el modo particular de individuación y evolución de los objetos técnicos, un proceso por el que las diferentes partes de un objeto técnico, se integran y tienden hacia la propia convergencia. Aquí se comprueba la efectividad del concepto simondoniano de Transducción, como señal o información transmitida y transformada, y se relaciona con la Transferencia Tecnológica - un proceso sinergético, por el que un sector industrial se beneficia del desarrollo de otro sector- a la que se han referido explícitamente arquitectos e historiadores para explicar sus obras, durante la Segunda Era de la Máquina, y que es determinante para el desarrollo de la Industria. La transferencia tecnológica sería la transmisión del conjunto de conocimientos sobre la técnica, que incluyen su esfera fáctica, pero también la esfera sensible de la experiencia. En su aplicación a la arquitectura, las transferencias se han clasificado según tres tipos: Eidéticas, Tectónicas, Orgánicas. En la primera parte dedicada a la Imaginación del objeto técnico arquitectónico se realiza una reconstrucción ‘arqueológica’ –y parcial- del imaginario del objeto técnico moderno, con la intención de conocer mejor su génesis y la relación con otros objetos técnicos. Las fuentes de ese imaginario se buscan en las instalaciones de la Industria de principios de siglo XX, en particular en las fábricas de vehículos, con la finalidad de comprobar hasta qué punto, esos objetos técnicos fueron importantes para imaginar la Arquitectura moderna. La reconstrucción se continúa hasta la Segunda Era de la Máquina, cuando una nueva mirada más inquisitiva y precisa, se dirige a otras fábricas, vehículos y componentes, interesándose por sus cualidades materiales y organizativas. Transferencias Eidéticas, que operan desde un conocimiento intuitivo y son útiles para transmitir información sobre la esencia de un objeto técnico que sirve de fuente. Conceptos abstractos se transmiten por medio de las imágenes—objeto, para producir una transformación en su equivalente arquitectónico. Fruto de la investigación, se han detectado un grupo de conceptos que han sido objeto de transferencias tecnológicas de naturaleza eidética, provenientes del imaginario del objeto técnico moderno: FABRICADO, HABITABLE, FUNCIONAL, EFICIENTE, OBSOLESCENTE y BELLO. En la segunda parte dedicada a la Invención del objeto técnico arquitectónico, las transferencias también pueden ser Tectónicas, cuando lo que se transmite es una técnica constructiva o estructural aplicada mediante MATERIALES artificiales (como los metales, los composites como el ferrocemento, y el plywood, o las aleaciones como el aluminio) o mediante el ensamblaje de ESTRUCTURAS o partes componentes de otro objeto técnico, (como cascos, fuselajes, carrocerías o aparejos) y tiene como resultado la invención de un nuevo objeto técnico arquitectónico. En la tercera parte dedicada a la individuación, se abordan las transferencias ORGÁNICAS, lo que se transfiere es una técnica organizativa, aplicada a través de PROCEDIMIENTOS que definen la actividad del arquitecto como tecnólogo e inventor de objetos técnicos. Estos procedimientos tienen un efecto transformador en tres instituciones tradicionales para la Arquitectura: la Escuela, el Estudio y la Obra, y sus resultados se resumen en nuevos modelos de organización de la Educación de la Arquitectura, con la aparición de los Talleres de proyectos; nuevos modelos de organización del ejercicio de arquitecto: la Oficina técnica; nuevos modelos de organización del espacio, basados en la organización espacial de la Industria, que da lugar a patrones o Matrices espaciales; un nuevo modelo de organización del proyecto, que utiliza las herramientas gráficas de la industria y el ensamblaje como metodología; y un nuevo modelo de producción arquitectónica, basado en la Industrialización. Tras explicar los conceptos y la génesis del ensamblaje y el montaje, se presenta el proyecto por ensamblaje (Design by assembly) como un método que promueve la invención arquitectónica. Se demuestra utilizando algunos casos analizados en la tesis, en los que se ha realizado alguna transferencia conceptual, constructiva u organizativa. Tras analizar las arquitecturas estudiadas en la tesis, se ha utilizado el método genético propuesto por Simondon para comprender cada evolución particular, reconstruyendo las líneas genealógicas hasta sus ancestros, e identificando una serie de linajes genéticos, que corresponderían con los conjuntos técnicos estudiados en la tesis: el astillero, la fábrica de coches, y la fábrica de aeronaves: los Ancestros de la Modernidad. Los sistemas de organización espacial de estos conjuntos técnicos, están directamente relacionados con el objeto técnico que se produce en él. A partir de ellos se definen una serie de matrices operativas (MILL, SHOP, SHED), que sirven para hacer una taxonomía del objeto técnico arquitectónico. Esto se ejemplifica con algunos proyectos de Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean Kaplicky y Richard Horden. Tesis: Comprobación de la hipótesis Simondon definía ontológicamente el Objeto técnico como aquello de lo que existe génesis y que desarrolla una tendencia hacia la solidaridad y unidad. Para que una Arquitectura pueda ser reconocida como un Objeto técnico, se deben dar una serie de condiciones, en las sucesivas fases que intervienen en su modo de existencia: Imaginación. Estas arquitecturas remiten a un imaginario protagonizado por imágenes-objeto de otros objetos técnicos (conjuntos técnicos, individuos técnicos y elementos técnicos). Esas imágenes-objeto vehiculizan una transferencia eidética de los objetos técnicos que simbolizan. Invención. Estas arquitecturas son el resultado de transferencias tectónicas, que se producen durante el proceso de proyecto, mediante el ensamblaje de materiales, componentes o procedimientos, utilizados en la industria para la producción de otros objetos técnicos. Individuación. Estas arquitecturas evolucionan y se individualizan por concretización, un proceso por el que los objetos técnicos se organizan para seguir su tendencia hacia la integración de sus partes, con el fin de alcanzar la convergencia de funciones en una única estructura. Esta integración tiende hacia la naturalización del objeto técnico, mediante la inclusión simbiótica de sus medios naturales asociados. En este caso, veremos cómo se ha producido transferencias orgánicas, o lo que es lo mismo, cómo los objetos técnicos –en el nivel de los conjuntos técnicos- se han tomado como modelo de organización por la arquitectura. Tras comprobar que de ellas existe una génesis, que evoluciona por las fases de imaginación e invención y concretización, se analiza su imaginario, su materialidad, sus estructuras y su organización, con el fin de detectar patrones y principios organizativos comunes a otros objetos técnicos. Interés de la tesis Desde el comienzo del nuevo siglo, diversos autores han demostrado un renovado interés por definir qué es el proyecto, qué lo constituye para qué sirve. Las aproximaciones al tema provienen de la filosofía analítica (Galle, 2008) o de la filosofía de la tecnología (Verbeek, 2005; Vermaas, 2009) y a menudo versan sobre la relación entre diseño y la cultura material (Dorschel 2003, Boradkar 2010 o Preston 2012). Es importante indicar el reciente y también creciente interés suscitado por la obra del filósofo francés, Gilbert Simondon [1924-1989], reconocida por su importante contribución a la filosofía de la técnica y la fenomenología, y por la influencia en el pensamiento de filósofos como Gilles Deleuze, autor presente en multitud de tesis doctorales e investigaciones teóricas llevadas a cabo en las principales escuelas de Arquitectura de todo el mundo desde los años 90 hasta el presente. La reedición y traducción de la obra de Simondon (ing. 1980, esp. 2008) ha recibido la atención de filósofos actuales como Paolo Virno, Bruno Latour o Bernard Stiegler, que siguen recurriendo a su estudio y análisis para avanzar en su pensamiento, estando por tanto presente en el debate contemporáneo sobre la técnica. Tras su reciente traducción al español, el pensamiento de Simondon ha despertado un gran interés en América Latina, como demuestra la organización de varios congresos y simposios, así como la proliferación de publicaciones en torno a su obra y pensamiento. Las futuras traducciones del resto de sus principales obras, asegurarán una introducción cada vez mayor en la comunidad académica. Se ha procurado presentar una mirada alternativa de la Historia de la Arquitectura Moderna, utilizando como guía a un cronista como Reyner Banham. La Era de la Máquina se ha cruzado con la Mecanología y el “vitalismo técnico” de Simondon, obteniendo como resultado una interpretación fresca, renovada y optimista de algunas de las más importantes obras de Arquitectura del siglo XX, que seguro contribuirán al desarrollo de la del siglo XXI, inmerso ya en el cambio de paradigma hacia la sostenibilidad y la ecología. ABSTRACT 'TRANS architecture. Imagination, invention and technical individuation of the architectural technical object. Technology transfer from the Transport Industry to Architectural Design [1900- 1973]' is a thesis dealing with the relationship between Architecture and the Technical Object during Modernity5. The theme of the thesis revolves around the technical culture, material culture and the history of twentieth-century technology. Hypothesis Held here is the existence of some architectures defined as technical objects. A study has been developed to prove if those architectures share the ontological properties of a technical object. Industry and Architecture The history of Modern Architecture is also the history of modern industry and its facilities, its products and devices, its procedures and production processes. Factories, workshops, steel mills, shipyards, mines, refineries, laboratories, cars, yachts, airplanes, airships, shuttles, space stations, home appliances, personal computers, mobile phones, motors, batteries, turbines, rigs, hulls, chassis, bodies, fuselages , composites and synthetic materials, the assembly line, modular manufacturing, the supply chain, process engineering, the planned obsolescence ... All these technical objects are constantly evolving thanks to the inconsistency of the human imagination and, as our intermediates, keep changing our way of relating and being in the world. Architecture, alike other technical objects, mediates between man and the World. In order to frame the vast field of the research, it has been filtered according to various parameters and qualities of Industry, establishing also a time frame which is related to a particular science-based way of making. The start of an industrial development, based on scientific knowledge is given from the Second Industrial Revolution -by consensus on the last third of the nineteenth century. This frame puts the focus of the thesis in the process of industrialization experienced by the Architecture of at least one century, and tours through Modernity during the first 75 years of the twenieth century. During this time, architects have made transfers of images, techniques, processes and materials from Industry, serving as a source of knowledge and thus allowing Architecture to evolve as a discipline. To reasonably address the enormous scope of the thesis, the industrial sector of transportation has ben chosen. It is not only a historical source of inspiration for architects, but also a traditional source of technology transfer for Modern Architecture. Technical sets such as shipyards, automobile factories or aircraft hangars, technical individuals as boats, cars or planes, and technical elements like the structures shaping and supporting them, are all technical objects which share properties with the architectures here presented. The launch of the moving assembly line in 1913, is instrumentally taken as a first time focus, from which to describe the evolution of many technical objects in the First Machine Age; a second focus could be found in 19586, year of the creation of the North American Space Agency (NASA), serving as a reference to the Second Machine Age. Most architectural technical objects used to test the hypothesis, gravitate around this second focus, in a range of plus or minus 25 years, with a clear intention to synchronize the time for action and time of thought. Architecture and Technical Object Technical objects have always been related to Architecture. In the past, the same technician who planned and oversaw a building structure, invented the devices and machines to carry them out. The foremen were the true 'technology transfer agents' from Industry. Their knowledge naturally related different manufacturing techniques to make diverse technical objects. Brunelleschi invented various cranes to build the dome of Santa Maria dei Fiori in Florence (ca.1461). Probably inspired by the reedition of Vitruvius’ treaty De Architectura (15 BC), whose last chapter was dedicated to the machines of classical Roman architecture and quoted inventors as Archimedes, the florentine architect was the first to patent an invention in 1421: an amphibious craft serving as a means of transportation for Carrara marble along the Arno river. At the daw of the Second Industrial Revolution, whose development was based on the scientific knowledge, we find a primitive modern example of the relationship between Architecture and a Technical Object: The Crystal Palace, built in London for the Great Exhibition of 1851 World Industry and designed by Joseph Paxton, was the largest to date industrialized building, and it will be always associated with the McCormick Reaper, worthy of the Grand Jury’s Prize. Similar characteristics could be emphasized of both technical objects, such as their industrial origin and for being be the complex result of a simple assembly of technical elements. Since then, technological development has experienced a continued acceleration, resulting in an increasing specialization and separation of knowledge about techniques which were naturally attached in the past. This process has happened at the expense of an integrative knowledge and against promiscuity between Industry and Architecture. This is, undoubtedly, an inherent sign of our time, which causes the natural and interest of architects and other technicians about transfers, trans-disciplinarity and inter-disciplinarity, as a reaction to reestablish channels of relationships between these different fields of knowledge. The emergence of technical objects as modern vehicles in the early twentieth century (the car, the Ocean liner, the airship or the airplane) is directly related to the Architecture of the First Machine Age. Modern architects’ fascination for those new ‘inhabitable’ structures has been maintained for over a century, with different intensity and paying attention to one and other technical objets, ranging from the domain of the symbolic value of the vehicles as objectsimages, during heroic period of the First Machine Age, to the more inquisitive glance characterizing the Second Machine Age, which sought a deeper understanding of the organization of such objects and the technical system to which they belonged. The periods immediately following both World Wars, showed a concentrated effort to bring new images of vehicles to the imaginary of architects, by means of publications and exhibitions. The homologous relationship between architectures and vehicles, in their capacity as living structures, is something well known since Le Corbusier used the images of cars, boats and airplanes to illustrate his manifesto, Towards an architecture in 1923. Modern vehicles have been the means by which to convey the concepts eager to transform the traditional attributes of Architecture: those relating to its manufacture, habitability, duration, functionality or aesthetics. The automobile stands out during the 30s and 50s, and the new vehicles of the Space Program satnd in the 60s and 70s. The prior knowledge and documentation of these events were a good indication to identify the industrial sector of Transportation as one of especial importance and as a fertile provider of technology transfer cases for Architecture. The Modern tradition, inaugurated by Le Corbusier in the 20s, has been maintained and defended by a host of modern architects like Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames and Craig Ellwood, whose work - inspired by the legacy of previous technologists as Bucky Fuller or Jean Prouvé- was fundamental and a mandatory reference for the next generation of architects like Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean and Richard Horden Kaplicky, among others. They have all contributed to increase the imaginary of the technical object, adding to it their architectural works. In the passage of the thesis, we repeatedly find a number of architects, who have been grouped according to a 'genealogical' structure, which has been called 'Technical Lineage'. Gathered by common interests and similar views or attitudes to the architectural design, understood as a technical object, they have operated through the practice of technology transfer, without limiting itself to specific compositional techniques of the architectural discipline. During the investigation, a selection of explicit references made by those architects, about other technical objects referring to their Architecture, has been compiled, showing constants and variations in their interests throughout the century, which has led to conclusions such as, having technicians sets (zeppelins factories, airships factories, car factories and shipyards) been taken by the architects of the first Modernity, as their main formal, compositional and imaginary models, while the Second Machine Age had taken them as a spatial and organizational model for their architecture. The above mentioned lineage of technologists includes weel-known ‘seed lines’ as: Eiffel- Suchov-Behrens, Gropius-Mies-LeCorbusier- Lods-Prouve, in continental Europe; British branches as Loudon-Paxton-Williams-Stirling- Gowan-Smithsons-Price-Archigram-Foster- Rogers-Piano-Kaplicky-Horden. And we could also find intercontinental connections as Fuller- Eames-Rudolph-Foster-Rogers, or other less predictable ramifications as LeRicolais-Kahn Piano-Kaplicky, or LeCorbusier-Frey-Lacaton & Vassal... Many more would surely deserve to be included in this list, and indeed, the thesis assumes the impossibility of including them all (for practical reasons) and even contemplates possible future extensions. The material included herein is to demonstrate the continuity in the approaches, statements and in the applied architectural design techniques, from which we can draw some conclusions. Today, one hundred years after Ford put up the moving assembly line, we still find this tradition alive in the words of the architect Richard Horden, whose work carries with it –as with the information embedded in every technical element- the whole techncial culture of a modern tradition. Horden is represented here as one of the exponents of what I have called the lineage of technologists. That is why I wanted to conclude the thesis with an interview to Richard Horden, held in May 2015 in his studio in London's Berkeley Square (see Appendices). Guides For the development of this thesis, another thesis, entitled: The mode of existence of technical objects, is taken as the main reference work. Read and published in 1958 by the French philosopher Gilbert Simondon [1924- 1989], it was dedicated to the ontology of the technical object. This work frames the intellectual approach of the thesis, which connects with phenomenology to mobilize a particular vision of Architecture. It is used as a model of ontological analysis to study its genesis, invention and evolutionary processes. To develop these, another work by the same author, titled Imagination and Invention (1965- 1966) has been used as a bibliographical complement. As for the disciplinary historical sources, Reyner P. Banham [1922-1988] and Martin E. Pawley [1938-2008] have been chosen as guides through the modern Architecture of the twentieth century. Their cronical reports on the First and Second Machine Age and their critical works have served as an index from which to reconstruct the imaginary of the modern technical object in the Machine Age7, and to stock up on projects and works of architecture, used as case studies for the thesis. These works have also been used as triggers for other literatures, which has been complementary to the former. Objectives of the Thesis The main objective of the thesis is to prove its hypothesis: if a work of architecture can be considered a technical object and under what conditions, building then a criterion for recognizing when a work of architecture meets the definition of a technical object. Another aim is to demonstrate the importance and power of Technology Transfer in the evolutionary process of Architecture, and to do it, some examples of a methodology for architectural design that Martin Pawley called 'Design by Assembly' are presented. It is also an objective to reconstruct an Atlas of the imaginary of the modern technical object, in order to better understand the causes, reasons and purposes that led modern architects to pursue architecture as a technical object. This Atlas allows to panoptically relate the various technical objects, revealing the true importance and significance of those and the architecture with whom they interact. Architectures are again at the largest and most complex industrial context and the history of technology, which always belonged. Thus, they are able to reveal all the knowledge-in the shape of information-carried in their own 'genetic' code, displaying full chapters of technological culture as old as mankind and constantly growing and evolving. Thesis: Proving the Hypothesis Simondon ontologically defined the technical object as ‘that of which genesis exists’ and that develops ‘a tendency towards solidarity and unity’. For an architecture to be recognized as a technical object, a number of conditions should be given, in the successive phases involved in their mode of existence: Imagination. These architectures refer to an imaginary featuring images-object other technical objects (technical sets, technical individuals and technical elements). These images are the means to an eidetic transfer of the technical objects which they symbolize. Invention. These architectures are the result of tectonic transfers, which occur during the architectural design process, by assembling materials, components or procedures used in industry for the production of other technical objects. Individuation. These architectures evolve and are individualized by ‘concretization’, a process leading to the full integration of its parts and aiming the full convergence of its functions into a single structure. This integration tends towards the naturalization of the technical object, by means of a symbiotic incorporation of their associated milieus. After checking if there is a genesis of them, which evolves through the phases of imagination and invention and concretization, their imaginary, materiality, structure and organization are analyzed in order to detect patterns and common organizational principles to other technical objects counterparts. Structure The main text of the thesis consists of three parts. Before there is an Introduction to the main concepts that are exploited in the thesis on ontology Simondonian technical object, and technology transfer applied to Architecture. Then a first part covers the Imaginary of the modern technical object, a second part is dedicated to the Invention and a third part to the individuation process The thesis ends with a section for the Discussion and the Conclusions. The Introduction to the technical object, this is ontologically defined and its different categories are distinguished. The process of genesis of the technical object and the phases of imagination, invention and indivuation are explained. Concepts as Transduction, Technicality and Technical system are presented for being fundamental to understand the concept of Technology Transfer that will take place later. The concretization is explained as the particular mode of individuation and evolution of technical objects, a process by which the different parts of a technical object, are integrated and begin a tendency towards a convergence in itself. The first part, dedicated to the Imagination of the architectural technical object presents a parcial "archaeological" reconstruction the imaginary of the modern technical object, intended to better understand its genesis and the relationship with other technical objects. The imaginary sources are searched in the premises of the Industry of the early twentieth century, and particularly in the factories of modern vehicles, in order to see, to what extent these technical objects were important to imagine modern architecture. The reconstruction is continued until the Second Machine Age, when a new, more inquisitive and precise gaze turns to other factories, other vehicles and other components and materials, inquiring now about their organizational qualities. The second part is devoted to the Invention of the architectural technical object. The effectiveness of the simondonian concept of Transduction is checked: a transmitted and transformed sign or information, which relates to Technology Transfer, a synergetic process by which an industrial sector benefits from the development of another sector, to which some architects and historians have explicitly referred to explain their works during Machine Age, and which is crucial for the development of the industry. Technology transfer would be the transmission of a set of information or knowledge about technique, including the factual sphere of technique, but also the sensitive sphere of experience. In their application to Architecture, these transfers have been classified according to three types: Eidetic, Tectonic and Organic. Eidetic Transfers operate from an intuitive knowledge and are useful for transmitting information about the essence of the technical object serving as a source. Abstract concepts are transmitted through the object-images to produce an equivalent transformation in Architecture. A group of concepts that have been the subject of technology transfers of eidetic nature, and have been originated in the imaginary of the modern technical object, have been detected as a result of the research: FABRICATED, INHABITABLE, FUNCTIONAL, EFFICIENT, OBSOLESCENT, and BEAUTIFUL. The transfers can also be Tectonic when, that which is transferred is a constructive or structural technique, applied through artificial MATERIALS such as metals, composites as the ferrocement, or plywood, or alloys such as aluminum; or by means of the assembly of STRUCTURES or parts of other technical objects such as hulls, fuselages, car bodies or rigs, resulting in the invention of a new architectural technical object. In the case of ORGANIC transfers, what is transferred is an organizational technique, applied by means of a set of PROCEDURES defining the activity of the architect as a technologist and inventor of technical objects. These procedures have a transformative effect on three traditional institutions for Architecture: the School, the Atelier and the Work, and the results are summarized in new models of organization of the Education of Architecture, with the onset of the Architectural Design Studios or workshops; new models of organization of the practice of architect: the technical office; and new models of space organization, based on the spatial organization of the industry, resulting in spatial patterns or spatial matrices; a new model of organization of the project, which uses graphical tools and industrail protocols as the assembly as a methodology; a new model of architectural production based on the industrialization. After explaining the concepts and the genesis of assembly and montage, Design by assembly is presented as a method that promotes architectural invention, and is shown using some case studies analyzed in the thesis, in which there has been made some conceptual, constructive or organizational transfer. After analyzing the architectures studied in the thesis, genetic method proposed by Simondon was used to understand every particular evolution, reconstructing their genealogical lines up to their ancestors, identifying a series of genetic lineages, which correspond to the technical sets studied in the thesis : the shipyard, the car factory, and aircraft factory. The real ancestors of Modernity. The spatial organization systems of these technical sets are directly related to the technical object that is fabricated within them. From that point, a number of operational matrices are defined (MILL, SHOP, SHED) and used to make a taxonomy of the architectural technical object. This is exemplified by some projects by architects as Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean and Richard Horden Kaplicky. Interest of the thesis Since the beginning of the new century, several authors have shown a renewed interest in defining what a project is, how it is constituted and what it is for. The approaches to the subject are brought from analytic philosophy (Galle, 2008) or from the philosophy of technology (Verbeek, 2005; Vermaas, 2009) and they often speak about the relationship between design and material culture (Dorschel 2003, 2010 or Preston Boradkar 2012). It is also important to note the recent and growing interest in the work of French philosopher Gilbert Simondon [1924-1989], mainly known for its important contribution to the philosophy of technology and phenomenology of the technical object, and the influence on the thinking of contemporary philosophers as Paolo Virno, Bruno Latour or Gilles Deleuze, being the latter a author present in many doctoral theses and theoretical research conducted at major architecture schools around the world since the 90s to the present. The republication and translation of the work of Simondon (eng. 1980, spn. 2008) has received the attention from current philosophers such as Bernard Stiegler who continues to use its study and analysis to advance his thinking, thus being present in the contemporary debate about the technique. After its recent translation into Spanish, the thought of Simondon has aroused great interest in Latin America, as evidenced by the organization of various conferences and symposia, as well as the proliferation of publications about his work and thought8. Future translations of the rest of his major works, will ensure increased introduction in the academic community. Efforts have been made to present an alternative view of the History of Modern Architecture, using a reporter as Reyner P.Banham as a guide. The Machine Age intersects Simondon’s mechanology and his "technical vitalism", resulting in a fresh, renewed and optimistic interpretation of some of the most important works of Architecture of the twentieth century, which will surely contribute to the development of this century’s Architecture, already immersed in the paradigm shift towards sustainability and ecology.