1000 resultados para Impuesto a la renta--Tesis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La necesidad de una movilidad más sostenible en nuestras ciudades hacen que la bicicleta tome cada vez mayor importancia como modo de transporte urbano. A su vez, también aumenta el interés de los investigadores por conocer mejor los factores relacionados con el uso de la bicicleta. Tradicionalmente se ha prestado atención a los factores relacionados con el uso de la bicicleta que son directamente observables, dejando en un segundo plano las percepciones, actitudes o normas sociales de los usuarios respecto a este modo de transporte. Esta tesis ha profundizado en este segundo tipo de factores mediante la búsqueda de variables latentes que puedan definirlos. Se parte contemplando las características de la bicicleta como modo urbano de transporte y los condicionantes territoriales para su uso. En los siguientes capítulos se hace un repaso exhaustivo de los factores que condicionan el uso de la bicicleta en la literatura científica. También se profundiza en el planteamiento de las teorías del comportamiento del usuario de transporte para poder desarrollar el marco teórico sobre el que enfocar la búsqueda de las variables latentes. Finalmente, se repasa el tratamiento recibido por la bicicleta en las técnicas de análisis de la demanda. La hipótesis de partida mantenida plantea que las variables psicosociales pueden ser especialmente influyentes en la decisión de usar la bicicleta. Estas variables, junto con las variables tradicionales de los usuarios de transporte, mejorarían el conocimiento que tenemos sobre los factores que inciden en su uso. Con la finalidad de poder explorar e identificar estas variables se propone una metodología basada en modelos de ecuaciones estructurales. Estos modelos permiten contemplar las interacciones entre variables y trabajar con variables latentes que medimos a través de indicadores. Aplicando la metodología propuesta a un caso de estudio en la Ciudad Universitaria de Madrid se ha podido identificar cuatro variables latentes: conveniencia, probici, limitaciones externas y condicionantes físicos. Estas variables mejoran el conocimiento sobre los factores explicativos de la decisión de usar la bicicleta entre los usuarios de Ciudad Universitaria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El título de esta tesis, utiliza primero una expresión periodística muy conocida sobre esta obra, que expresa muy bien su característica contradictoria, paradójica, siempre entre opuestos, frecuentemente utilizadas por los textos que sobre esta obra se han escrito. La segunda expresión define a esta tesis, incluida en el grupo de investigación sobre el objetivo común de la Crítica Arquitectónica. La casa Malaparte, olvidada durante largo tiempo y venerada en otros momentos, fue elegida por referéndum en 1979 por la revista “Modo (Cien proyectos para recordar)” como la obra más representativa de la arquitectura italiana del siglo XX. Un icono de modernidad en 1979 y paradójicamente no en su momento, ya que difícilmente se podría encuadrar en las tipologías de vivienda moderna de los años treinta. El objetivo de esta tesis es la racionalización del valor de esta obra, admitida de alguna manera en los “manuales de arquitectura moderna”, proponiendo para ello el reconocimiento de sus singularidades y regularidades como elementos de investigación del valor sustantivo de la arquitectura, el polinomio indisociable: contexto, forma, función, construcción. Tenemos datos, textos, hermenéutica. Nuestro método no puede ser otro que la crítica de los datos y texto y la crítica poética. Nuestra tesis, se inserta en este conjunto de crítica arquitectónica, vinculada al método llamado por el Catedrático Dr. Antonio Miranda Regojo “Mírregan-Todorov” que emplearemos como referencia y método para mostrar lo que más nos interesa, la calidad de la arquitectura, su ser, que paradójicamente, difiere de su descripción, de su momento histórico, en fin de todo aquello que en realidad solo la describe, la analiza y la interpreta. Nuestra variación propuesta al modelo de referencia, consta del siguiente desarrollo: 1. Crítica de “La Crítica”. 2. Crítica poética. 3. Conclusiones El primer capítulo, propone “La Crítica”, entendida como ese valor colectivo depositado por los textos escritos sobre la obra contrastado con nuestras observaciones personales respecto de cada uno de ellos. Las críticas seleccionadas muestran una nube de alternativas relativas a la descripción, análisis e interpretación que sobre la obra se han producido. Este capítulo, constituye una compilación de textos ordenada cronológicamente, que introduce al conocimiento de la obra. Recoge las primeras referencias, los artículos, los libros, las películas y anuncios así como alguno de los textos académicos que se han escrito sobre esta obra. 15 Los artículos seleccionados son los siguientes: Aldo Morbelli 1942. A. Alieri M.Clerici F.Palpacelli y G.Vaccaro 1966. Francesco Venezia con G.Petrusch 1973 Vieri Quilici.1977/1981 G.K.Koenig, 1979 John Hejduk 1980 Audrey Batey 1980. Manfredo Tafuri 1981. Francesco Venezia 1983. Joe Bostik 1989. Vittorio Savi, 1989. Marida Talamona 1989. W. Arets, W. Van der Bergh. 1989. Franco Purinni 1991. Marida Talamona 1997. Bruce Chatwin 1997. Los libros seleccionados han sido: Marida Talamona. Casa Malaparte, Milano 1990. Sergio Attanasio. Curzio Malaparte “Casa come me” Punta del Massullo, tel. 160 Capri. Nápoles 1990 Gianni Petenna. CasaMalaparte, Capri, 1999 Michael McDonough. A house like me. Edit.Clarkson Potter,New York 1999 Mario Ferrari. Adalberto Libera “Casa Malaparte en Capri1938-1942” 2008 Las películas seleccionadas: Il Cristo proibito, 1956 Le Mèpris, 1963 La Pelle, 1981 Anuncio de Hugo Boss 2010 16 Los textos académicos recogidos son: Angela delGaudio. Casa Malaparte. Interventi e restauri. 2003 Nicoletta Setola. Casa Malaparte. Il cantiere le tecnologie i materiali. 2004 Gloria Paz Saravia Ortiz. La casa Malaparte de A.libera. 2007 En el capítulo segundo “Crítica poética” se circunscribe, según la definición utilizada, a lo que en particular tiene como nivel de verdad, por la idoneidad de su construcción, tipología e iconología en relación al lugar (entidad propia, identidad auténtica). Existen algunos estudios que proponen a la casa Malaparte comprendida en la poética común de la obra de su arquitecto, Adalberto Libera. Nuestra posición nada tiene que ver con “la manera de hacer de un autor” se inclina a investigar obras enlazadas por estructuras comunes, reflejo y consecuencia especialmente de la propia arquitectura, nos interesa la poética de la arquitectura, no la de un autor. Realizamos tres ensayos, el primero trata de investigar el “Lugar” contexto de la obra, proponiendo el reconocimiento de un sistema lugar-arquitectura, (Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí) del que formulamos una serie de definiciones como características de esta relación: la analogía, la simpatía, la emulación, la signatura, la nematología y la sinexión. Concluyendo que la relación encontrada en la Malaparte podría explicarse de esta manera: ninguna mimesis, admite cierta analogía, un camuflaje solo geométrico, sin emulación de “tipismo” alguno, con emulación del modelo continuo de la “caja” desde el ataúd a la humilde vivienda , con “simpatía” como una obra contemporánea, con una fuerte signatura sobre el lugar, en correspondencia a lugar señalado por la historia y a la indeterminación iconológica que propone su arquitectura, (fetiche, simulacro) con una relación “nematológica” a través de su implantación y con una vinculación especial de “sinexión” entre la superficie del lugar y el acomodo de esta arquitectura. Continuamos con la relación propia de la obra y el lugar, concluyendo como la casa Malaparte propone el espacio sobre su cubierta, a modo de patio, de recinto. La obra demuestra que no es únicamente la sustancia material quien protagoniza la acción de “recintar”. El vértigo constituye la materia infranqueable del perímetro. En la Malaparte es el plano arquitectónico, (elevado) el recinto descubierto, el plano que posibilita la máxima relación con el exterior en esta arquitectura. En su interior el paisaje deja de ser fondo y el habitante se incorpora al escenario, se incorpora al paisaje. Te encuentras midiendo, relacionando distancias desde las espículas de pino, rocas, acantilados, barcos, islas, mar hasta la costa de Amalfi. Esta posición sobre el paisaje, es comparada con la casa Kaufman de F.L.Wrigth. El segundo ensayo investiga el proyecto de la obra. Distinguimos entre proyecto-forma, proyecto-origen, proyecto programa, proyecto-acción y proyectos-signo. Encontramos que no existe proyecto-forma que explique la casa Malaparte, tenemos proyectoorigen, proyecto-programa y proyectos-signo suficientes para racionalizar esta obra. Nos encontramos con un proyecto-acción, en permanente discusión, debatido hasta la saciedad, con la finalidad de habitar aquella roca, cuyas proposiciones se contrastan en la obra, ampliando el proceso de proyecto a la propia acción de construir, proyecto y construcción no estan disociados. Los proyectos “signo” de esta obra, nos permiten relacionar la permanencia de un programa, una organización, una comunicación y distribución que entendemos continua y conducida por Malaparte. Lo realmente importante previsto y controlable por aquel: programa y distribución. Nos permitimos afirmar que lo significante continuo es un proyecto–programa limitado a una forma necesaria iniciada por Libera, como una semilla. Su forma es el resultado de un procedimiento, arraigado y condicionado a un terreno. Un proceso que consiste en establecer unas alturas tipo sobre un programa distribuido en planta, y limitado con una construcción racional, tipológica sobre muros de carga, capaz de soportar cualquier programa habitacional, que proporciona inevitablemente un resultado seguro. El tercer ensayo propone una “novela” sobre la manera de construcción de la obra, que nos permite explicar la gran escalera de la Malaparte. Encontramos que la construcción de la Malaparte, también forma parte de un sistema. Este sistema es capaz de generar forma, sin recurrir a las mascaras fijadas por la tradición o las modas, manteniendo su libertad de expresión sin concesiones. Consideramos que en el camino de acceso a la obra que hubo que ejecutarse para tal fin están las claves para la comprensión de su escalera. La escalera de la Malaparte la comprendemos desde la propia accesibilidad a la obra. Su trazado abocinado, su forma “strombata”, es consecuencia para nosotros de sus límites físicos, su elevación, resultado de las cotas que responden a los niveles de los planos de trabajo, incluida la terraza –patio. Su expresión geométrica sería visible desde la ejecución de las obras; no es posterior al paralelepípedo inicial, sino previa. Su función de acceso a la terraza no es la principal, excluida desde el proyecto administrativo de Libera, al texto escrito de Malaparte sobre su casa (ninguna escalera exterior). Sus funciones principales subyacentes que quedan envueltas son primeramente abastecer la obra, en segundo lugar como cubierta de la escalera interior que tuvo que salir de su posición centrada en el paralelepípedo inicial, al extremo exterior de este. La solución a estas necesidades acuciantes, mostrarían su función paradigmática en un tercer lugar, su solución como cubierta peldañeada, como fachada remontable, que se produce desde nuestra visión del exterior, la gran escalera de acceso al lugar principal y el hecho único y genial de la Malaparte. Las conclusiones finales de esta tesis están referidas en primer lugar al Texto escrito sobre la obra y en segundo lugar a la obra misma: La Casa es entendida en los textos analizados, como objeto que soporta simultáneamente la idea romántica de emoción-inspiración y la contemporánea de invitación a su conocimiento. Producto de su singular abstracción explicamos su transformación en lo que constatamos dos vías extremas: una como artefacto, trasto inútil y pretencioso que explica las críticas extremas de Koening y Durante. Habría que demoler la Malaparte, y por la otra se produce su transformación en “objeto artístico” (inspiraciónemoción– conocimiento) que hay que venerar. Este trinomio deviene en interpretación y de aquí su provocación hacia la literatura, el cine y la imagen sobre la obra. Ambos extremos podrían originarse por no comprender, por no llegar a explicar cómo este objeto es también casa, casa con patio, habitación, refugio, arquitectura con toda su contingencia que con coherencia, razón y libertad de expresión produce aquel objeto, con la única intencionalidad acuciante de ser construido y habitado. El gran valor “literario-artístico” de la Malaparte recogido en sus textos, debemos admitir pues que tiene su origen en la interpretación de lo arquitectónico, que no es evidente, que entendemos no puede deducirse de su mera imagen, del mismo modo que la escultura asociada a un capitel corintio, que algunos pretenden disociar del apoyo constructivo de un pie derecho, como la solución del tímpano- escultura de una portada barroca, que pretendemos separar de la eficacia del dintel, como la cúpula solución a la cubierta del Panteón de Agripa, que estudiamos aparte como un problema de ingeniería, estos aspectos múltiples, complejos y no evidentes producen la fragmentación de lo arquitectónico, y permiten sus interpretaciones independientes, desguazando la arquitectura en trozos muy visibles que algunos llamaron “arte” y sistemas mas ocultos que otros llamaron “ingeniería y técnica”. Contemplar lo humano con fantasía es también nuestra conclusión deductiva de lo que nos permite la Malaparte, su identidad propia y peculiar deducida del Texto. Una arquitectura que permite examinar lo humano con fantasía, también un gran valor común, literario y arquitectónico que no queremos disociar. Si nos afirmamos en la autonomía de la arquitectura, sin renunciar al Texto, su identidad no es más que materialidad, ni menos que la metáfora del habitar diverso del hombre en la tierra. Ambos discursos permanecerán siempre abiertos para poetas y arquitectos. La Malaparte puede explicarse desde el lugar, de su proyecto y su construcción. Podríamos limitarnos aun más, solamente de su realidad congelada actual lograríamos inferir su valor como arquitectura que ha resuelto el problema; cubriendo, superponiendo con rigurosa limpieza, orden y geometría, al caos de accidentalidad y esfuerzo, un resultado despejado, de la materialidad y la técnica, esto es en definitiva el poder de lo arquitectónico, realizado no como máscara superpuesta, sino como resultado coherente, piel viva sobre huesos y músculos necesarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundamentos de la Tesis La presente Tesis investiga acerca de las primeras arquitecturas que surgieron a lo largo de La Costa del Sol con motivo de la apertura al exterior de la España turística de los años cincuenta, y cómo su implantación iba a suponer, a lo largo de la segunda mitad del siglo, la paulatina aparición de modos de vida y desarrollos urbanos que pueden ser considerados hoy día como contemporáneos. El Pacto Americano de 1953, pese a su origen militar, supuso en España el surgimiento a su vez de contraprestaciones económicas y de relación que permitirían salir al país de la autarquía y el inicio de un proceso de homologación con el entorno occidental de consecuencias imprevisibles. La Costa del Sol nace de esta manera como fenómeno de explotación turística de un territorio de paisaje amable y de buen clima. La investigación profundiza en el hecho turístico y en sus derivaciones antropológicas, sociales, económicas y culturales como resultado del intercambio de poblaciones autóctonas y lejanas en un lugar donde se relacionan diferentes modos de vida. En este sentido, la visita de Dalí a Torremolinos en 1930 permite introducir en la investigación conceptos relacionados con el azar como integrador de errores, deformaciones o transformaciones no previstas. Estas primeras arquitecturas de llamativo corte moderno aparecieron durante la década entre 1959 y 1969, en el entorno virgen preexistente, comprendido entre la playa y la montaña, proporcionando densidad y singularidad con sus diseños, y alentando un carácter de multiplicidad desde sus propios modelos, lo que favorecería un fenómeno interactivo entre las distintas soluciones. Visto desde la capital del Estado se reconocería un singular territorio supra-provincial entre el Cabo de Gata y la Punta de Tarifa. En dicho territorio, una serie de pequeñas poblaciones se enlazarían a través del cordón litoral gracias a la carretera nacional 340. Esta primera arquitectura comercial privada y de calidad surgió también gracias a la conexión del aeropuerto de Málaga con el turismo internacional. Gracias a esta conexión se exhibirán rasgos pertenecientes a la cultura arquitectónica de la época, a lo moderno, como reclamo, fundamentalmente edifi cios exóticos que mostrarán rasgos de progreso en una periferia empobrecida y rural. Metodología empleada • Búsqueda de fuentes primarias como documentación original de los diferentes proyectos y entrevistas con arquitectos protagonistas de esa época. • Búsqueda, catalogación y ordenación de los diferentes planes de ordenación de la Costa del Sol que se hicieron durante la década de estudio así como un análisis de sus propuestas y consecuencias. • Estudio de casos relativos a los dos modelos de actuaciones arquitectónicas predominantes en el periodo de estudio: los hoteles y los complejos de apartamentos. • Establecimiento de un planteamiento gradual por escalas, trabajando como “múltiplos” y permitiendo generar lazos de autosimilitud. • Análisis de la relación de estos proyectos con el paisaje circundante, con lo urbano, existiese o no, y con el interior de las células de apartamentos. Aportaciones de la Tesis El fenómeno estudiado ha permitido atisbar otra escala más, que atiende a la aparición de un nuevo ente urbano. Para ello las teorías sobre la ciudad vertidas durante los años 30 por F. Ll. Wright, junto con la visión reveladora de Reyner Banham sobre Los Ángeles a principios de los 70 o de Rem Koolhaas sobre la ciudad genérica como apoteosis del concepto de elección múltiple, permiten establecer parámetros que enmarcan el estudio del nuevo ente urbano de difícil legibilidad que se funda en la Costa del Sol durante la década de los 60. La investigación concluye acerca del papel de estas primeras arquitecturas del turismo dentro del proceso dinámico, imparable y crecedero que se inició durante la época de estudio. Un fenómeno que ha dado lugar a un desarrollo suburbial y a-jerárquico, sin centro concreto, donde se dan lugar multitud de relaciones en continua adaptación que permiten defi nirlo como una nueva ciudad. En este proceso estas primeras arquitecturas surgieron como objetos exóticos por su modernidad desafi ante. Esta cualidad convirtió a estos edifi cios en verdaderos atractores de actividad, embajadores de nuevos modos de vida contemporáneos. Por lo que en sus entornos próximos a lo largo de este territorio se provocó la cristalización paulatina de un hecho urbano. Su evolución posterior ha derivado en un progresivo relleno de huecos y vacíos. De manera no planifi cada, azarosa e incluso inesperada, las primeras arquitecturas, que servían a la vida a medias que supone el hecho turístico, han derivado en una paulatina ciudad completa, exenta de jerarquías. Conclusión final La arquitectura se hace más real que nunca como algo tangible en el fl uir de la ciudad. El proceso imparable que se inició en la Costa del Sol sólo puede comprenderse desde sus arquitecturas, que acogen momentos y lugares. En ellas se entremezclan signos, cultura, modos de vida, estilo, construcción, economía y vida contemporánea que han ido colonizando poco a poco este territorio en un proceso irreversible como en tantos otros lugares del planeta. Este proceso de desvelamiento ha constituido el motivo principal de esta Tesis

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract Air pollution is a big threat and a phenomenon that has a specific impact on human health, in addition, changes that occur in the chemical composition of the atmosphere can change the weather and cause acid rain or ozone destruction. Those are phenomena of global importance. The World Health Organization (WHO) considerates air pollution as one of the most important global priorities. Salamanca, Gto., Mexico has been ranked as one of the most polluted cities in this country. The industry of the area led to a major economic development and rapid population growth in the second half of the twentieth century. The impact in the air quality is important and significant efforts have been made to measure the concentrations of pollutants. The main pollution sources are locally based plants in the chemical and power generation sectors. The registered concerning pollutants are Sulphur Dioxide (SO2) and particles on the order of ∼10 micrometers or less (PM10). The prediction in the concentration of those pollutants can be a powerful tool in order to take preventive measures such as the reduction of emissions and alerting the affected population. In this PhD thesis we propose a model to predict concentrations of pollutants SO2 and PM10 for each monitoring booth in the Atmospheric Monitoring Network Salamanca (REDMAS - for its spanish acronym). The proposed models consider the use of meteorological variables as factors influencing the concentration of pollutants. The information used along this work is the current real data from REDMAS. In the proposed model, Artificial Neural Networks (ANN) combined with clustering algorithms are used. The type of ANN used is the Multilayer Perceptron with a hidden layer, using separate structures for the prediction of each pollutant. The meteorological variables used for prediction were: Wind Direction (WD), wind speed (WS), Temperature (T) and relative humidity (RH). Clustering algorithms, K-means and Fuzzy C-means, are used to find relationships between air pollutants and weather variables under consideration, which are added as input of the RNA. Those relationships provide information to the ANN in order to obtain the prediction of the pollutants. The results of the model proposed in this work are compared with the results of a multivariate linear regression and multilayer perceptron neural network. The evaluation of the prediction is calculated with the mean absolute error, the root mean square error, the correlation coefficient and the index of agreement. The results show the importance of meteorological variables in the prediction of the concentration of the pollutants SO2 and PM10 in the city of Salamanca, Gto., Mexico. The results show that the proposed model perform better than multivariate linear regression and multilayer perceptron neural network. The models implemented for each monitoring booth have the ability to make predictions of air quality that can be used in a system of real-time forecasting and human health impact analysis. Among the main results of the development of this thesis we can cite: A model based on artificial neural network combined with clustering algorithms for prediction with a hour ahead of the concentration of each pollutant (SO2 and PM10) is proposed. A different model was designed for each pollutant and for each of the three monitoring booths of the REDMAS. A model to predict the average of pollutant concentration in the next 24 hours of pollutants SO2 and PM10 is proposed, based on artificial neural network combined with clustering algorithms. Model was designed for each booth of the REDMAS and each pollutant separately. Resumen La contaminación atmosférica es una amenaza aguda, constituye un fenómeno que tiene particular incidencia sobre la salud del hombre. Los cambios que se producen en la composición química de la atmósfera pueden cambiar el clima, producir lluvia ácida o destruir el ozono, fenómenos todos ellos de una gran importancia global. La Organización Mundial de la Salud (OMS) considera la contaminación atmosférica como una de las más importantes prioridades mundiales. Salamanca, Gto., México; ha sido catalogada como una de las ciudades más contaminadas en este país. La industria de la zona propició un importante desarrollo económico y un crecimiento acelerado de la población en la segunda mitad del siglo XX. Las afectaciones en el aire son graves y se han hecho importantes esfuerzos por medir las concentraciones de los contaminantes. Las principales fuentes de contaminación son fuentes fijas como industrias químicas y de generación eléctrica. Los contaminantes que se han registrado como preocupantes son el Bióxido de Azufre (SO2) y las Partículas Menores a 10 micrómetros (PM10). La predicción de las concentraciones de estos contaminantes puede ser una potente herramienta que permita tomar medidas preventivas como reducción de emisiones a la atmósfera y alertar a la población afectada. En la presente tesis doctoral se propone un modelo de predicción de concentraci ón de los contaminantes más críticos SO2 y PM10 para cada caseta de monitorización de la Red de Monitorización Atmosférica de Salamanca (REDMAS). Los modelos propuestos plantean el uso de las variables meteorol ógicas como factores que influyen en la concentración de los contaminantes. La información utilizada durante el desarrollo de este trabajo corresponde a datos reales obtenidos de la REDMAS. En el Modelo Propuesto (MP) se aplican Redes Neuronales Artificiales (RNA) combinadas con algoritmos de agrupamiento. La RNA utilizada es el Perceptrón Multicapa con una capa oculta, utilizando estructuras independientes para la predicción de cada contaminante. Las variables meteorológicas disponibles para realizar la predicción fueron: Dirección de Viento (DV), Velocidad de Viento (VV), Temperatura (T) y Humedad Relativa (HR). Los algoritmos de agrupamiento K-means y Fuzzy C-means son utilizados para encontrar relaciones existentes entre los contaminantes atmosféricos en estudio y las variables meteorológicas. Dichas relaciones aportan información a las RNA para obtener la predicción de los contaminantes, la cual es agregada como entrada de las RNA. Los resultados del modelo propuesto en este trabajo son comparados con los resultados de una Regresión Lineal Multivariable (RLM) y un Perceptrón Multicapa (MLP). La evaluación de la predicción se realiza con el Error Medio Absoluto, la Raíz del Error Cuadrático Medio, el coeficiente de correlación y el índice de acuerdo. Los resultados obtenidos muestran la importancia de las variables meteorológicas en la predicción de la concentración de los contaminantes SO2 y PM10 en la ciudad de Salamanca, Gto., México. Los resultados muestran que el MP predice mejor la concentración de los contaminantes SO2 y PM10 que los modelos RLM y MLP. Los modelos implementados para cada caseta de monitorizaci ón tienen la capacidad para realizar predicciones de calidad del aire, estos modelos pueden ser implementados en un sistema que permita realizar la predicción en tiempo real y analizar el impacto en la salud de la población. Entre los principales resultados obtenidos del desarrollo de esta tesis podemos citar: Se propone un modelo basado en una red neuronal artificial combinado con algoritmos de agrupamiento para la predicción con una hora de anticipaci ón de la concentración de cada contaminante (SO2 y PM10). Se diseñó un modelo diferente para cada contaminante y para cada una de las tres casetas de monitorización de la REDMAS. Se propone un modelo de predicción del promedio de la concentración de las próximas 24 horas de los contaminantes SO2 y PM10, basado en una red neuronal artificial combinado con algoritmos de agrupamiento. Se diseñó un modelo para cada caseta de monitorización de la REDMAS y para cada contaminante por separado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El uso de materiales compuestos para el refuerzo, reparación y rehabilitación de estructuras de hormigón se ha convertido en una técnica muy utilizada en la última década. Con independencia de la técnica del refuerzo, uno de los principales condicionantes del diseño es el fallo de la adherencia entre el hormigón y el material compuesto, atribuida generalmente a las tensiones en la interfaz de estos materiales. Las propiedades mecánicas del hormigón y de los materiales compuestos son muy distintas. Los materiales compuestos comúnmente utilizados en ingeniería civil poseen alta resistencia a tracción y tienen un comportamiento elástico y lineal hasta la rotura, lo cual, en contraste con el ampliamente conocido comportamiento del hormigón, genera una clara incompatibilidad para soportar esfuerzos de forma conjunta. Esta incompatibilidad conduce a fallos relacionados con el despegue del material compuesto del sustrato de hormigón. En vigas de hormigón reforzadas a flexión o a cortante, el despegue del material compuesto es un fenómeno que frecuentemente condiciona la capacidad portante del elemento. Existen dos zonas potenciales de iniciación del despegue: los extremos y la zona entre fisuras de flexión o de flexión-cortante. En el primer caso, la experiencia a través de los últimos años ha demostrado que se puede evitar prolongando el refuerzo hasta los apoyos o mediante el empleo de algún sistema de anclaje. Sin embargo, las recomendaciones para evitar el segundo caso de despegue aún se encuentran lejos de poder prever el fallo de forma eficiente. La necesidad de medir la adherencia experimentalmente de materiales FRP adheridos al hormigón ha dado lugar a desarrollar diversos métodos por la comunidad de investigadores. De estas campañas experimentales surgieron modelos para el pronóstico de la resistencia de adherencia, longitud efectiva y relación tensión-deslizamiento. En la presente tesis se propone un ensayo de beam-test, similar al utilizado para medir la adherencia de barras de acero, para determinar las características de adherencia del FRP al variar la resistencia del hormigón y el espesor del adhesivo. A la vista de los resultados, se considera que este ensayo puede ser utilizado para investigar diferentes tipos de adhesivos y otros métodos de aplicación, dado que representa con mayor realidad el comportamiento en vigas reforzadas. Los resultados experimentales se trasladan a la comprobación del fallo por despegue en la región de fisuras de flexión o flexión cortante en vigas de hormigón presentando buena concordancia. Los resultados condujeron a la propuesta de que la limitación de la deformación constituye una alternativa simple y eficiente para prever el citado modo de fallo. Con base en las vigas analizadas, se propone una nueva expresión para el cálculo de la limitación de la deformación del laminado y se lleva a cabo una comparación entre los modelos existentes mediante un análisis estadístico para evaluar su precisión. Abstract The use of composite materials for strengthening, repairing or rehabilitating concrete structures has become more and more popular in the last ten years. Irrespective of the type of strengthening used, design is conditioned, among others, by concrete-composite bond failure, normally attributed to stresses at the interface between these two materials. The mechanical properties of concrete and composite materials are very different. Composite materials commonly used in civil engineering possess high tensile strength (both static and long term) and they are linear elastic to failure, which, in contrast to the widely known behavior of concrete, there is a clear incompatibility which leads to bond-related failures. Bond failure in the composite material in bending- or shear-strengthened beams often controls bearing capacity of the strengthened member. Debonding failure of RC beams strengthened in bending by externally-bonded composite laminates takes place either, at the end (plate end debonding) or at flexure or flexure-shear cracks (intermediate crack debonding). In the first case, the experience over the past years has shown that this can be avoided by extending laminates up to the supports or by using an anchoring system. However, recommendations for the second case are still considered far from predicting failure efficiently. The need to experimentally measure FRP bonding to concrete has induced the scientific community to develop test methods for that purpose. Experimental campaigns, in turn, have given rise to models for predicting bond strength, effective length and the stress-slip relationship. The beam-type test proposed and used in this thesis to determine the bonding characteristics of FRP at varying concrete strengths and adhesive thicknesses was similar to the test used for measuring steel reinforcement to concrete bonding conditions. In light of the findings, this test was deemed to be usable to study different types of adhesives and application methods, since it reflects the behavior of FRP in strengthened beams more accurately than the procedures presently in place. Experimental results are transferred to the verification of peeling-off at flexure or flexure-shear cracks, presenting a good general agreement. Findings led to the conclusion that the strain limitation of laminate produces accurate predictions of intermediate crack debonding. A new model for strain limitation is proposed. Finally, a comprehensive evaluation based on a statistical analysis among existing models is carried out in order to assess their accuracy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis analiza la integración del sector de las telecomunicaciones con los de TI y medios que conforman el actual hiper-sector de las TIC, para abordar una propuesta de valor que se plantea a dos niveles. Se expone de un lado, la iniciativa WIMS 2.0, que aborda los aspectos tecnológicos y estratégicos de la convergencia telco e Internet para, posteriormente, definir un nuevo modelo de negocio, que adaptado al nuevo sector integrado y siguiendo paradigmas inéditos como los que plantea la innovación abierta, permita generar nuevos flujos de ingresos en áreas no habituales para los operadores de telecomunicaciones. A lo largo del capítulo 2, el lector encontrará la contextualización del entorno de las comunicaciones de banda ancha desde tres vertientes: los aspectos tecnológicos, los económicos y el mercado actual, todo ello enfocado en una dimensión nacional, europea y mundial. Se establece de esta manera las bases para el desarrollo de los siguientes capítulos al demostrar cómo la penetración de la banda ancha ha potenciado el desarrollo de un nuevo sistema de valor en el sector integrado de las TIC, alrededor del cual surgen propuestas de modelos de negocio originales que se catalogan en una taxonomía propia. En el tercer capítulo se detalla la propuesta de valor de la iniciativa WIMS 2.0, fundada y liderada por el autor de esta tesis. WIMS 2.0, como iniciativa abierta, se dirige a la comunidad como una propuesta de un nuevo ecosistema y como un modelo de referencia integrado sobre el que desplegar servicios convergentes. Adicionalmente, sobre el planteamiento teórico definido se aporta el enfoque práctico que supone el despliegue del modelo de referencia dentro de la arquitectura de un operador como Telefónica. El capítulo 4 muestra el modelo de negocio Innovación 2.0, basado en la innovación abierta con el objetivo de capturar nuevos flujos de ingresos incrementando el portfolio de servicios innovadores gracias a las ideas frescas y brillantes de start-ups. Innovación 2.0 lejos de quedarse en una mera propuesta teórica, muestra sus bondades en el éxito práctico en el mercado que ha validado las hipótesis planteadas. El último capítulo plantea las líneas futuras de investigación tanto en el ámbito de la iniciativa WIMS 2.0 como en el modelo de Innovación 2.0, algunas de las cuales se están comenzando a abordar. 3 Abstract This thesis examines the integration of telecommunications sector with IT and media that make up the current hyper-ICT sector, to address a value proposition that arises at two levels. On one side, WIMS 2.0 initiative, which addresses the technological and strategic aspects of the telco and Internet convergence to later define a new business model, adapted to the new integrated sector and following original paradigms such as those posed by open innovation, which generates new revenue streams in areas not typical for telecom operators. Throughout Chapter 2, the reader will find the contextualization of the broadband communications environment from three aspects: technological, economic and the current market all focused on a national, European and world scale. Thus it establishes the basis for the development of the following chapters by demonstrating how the penetration of broadband has led to the development of a new value system in the integrated sector of the ICT, around which arise proposals of originals business models, which are categorized in a own taxonomy. The third chapter outlines the value proposition of the WIMS 2.0 initiative, founded and led by the author of this thesis. WIMS 2.0, as open initiative, presents to the community a proposal for a new ecosystem and an integrated reference model on which to deploy converged services. Additionally, above the theoretical approach defined, WIMS 2.0 provides the practical approach is provided which is the deployment of the reference model into the architecture of an operator such as Telefónica. Chapter 4 shows the Innovation 2.0 business model, based on open innovation with the goal of capturing new revenue streams by increasing the portfolio of innovative services thanks to the fresh and brilliant ideas from start-ups. Innovation 2.0, far from being a mere theoretical proposition, shows its benefits in the successful deployment in the market, which has validated the hypotheses. The last chapter sets out the future research at both the WIMS 2.0 initiative and Innovation 2.0 model, some of which are beginning to be addressed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la presente tesis se estudian los contenidos geoquímicos de los sedimentos de llanura de inundación en diversas cuencas fluviales seleccionadas con el objetivo de contribuir a un mejor conocimiento de sus condiciones medioambientales. En cada cuenca, se ha muestreado un perfil vertical de llanura de inundación, dividiéndolo en tramos que generalmente corresponden a diferentes episodios de inundación. Estos sedimentos se depositan durante los episodios de crecidas una vez que la corriente sobrepasa los límites del canal. Se caracterizan normalmente por tener un tamaño de grano fino y una estructura en capas horizontales que corresponden a los sucesivos episodios de inundación. Muestran dos ventajas principales con respecto a otros medios de muestreo en geoquímica como suelos o sedimentos de corriente: • Pueden almacenar sedimento antiguo así como actual, con lo que se puede estudiar la historia geoquímica de una zona específica en un mismo punto de muestreo (perfil vertical). • Los sedimentos de llanuras de inundación son capaces de caracterizar grandes áreas de drenaje. El origen de los sedimentos es más diverso que en el sedimento de corriente, debido a las mayores áreas de donde proceden las aguas de las avenidas. Las cuencas han sido seleccionadas según las actividades antropogénicas que en ellas se llevan a cabo, en concreto, actividades urbanas e industriales, minería y agricultura. Así mismo, se han estudiado, como referencia, dos cuencas donde no se espera encontrar ningún tipo de actividad contaminante. Una vez hecha la selección, los sedimentos aluviales de las cuencas se han estudiado cuidadosamente para asegurar que no existen depósitos de acreción lateral en el punto seleccionado. Posteriormente se ha procedido al muestreo del perfil vertical. Las muestras han sido analizadas mediante ICP-MS (ataque total) e INAA para conocer los contenidos totales de los elementos traza y mayoritarios. Los análisis de la fracción extraíble se han llevado a cabo mediante ICP-MS (ataque con agua regia). Así mismo, algunas muestras seleccionadas han sido sometidas a una extracción secuencial para un estudio más detallado. La presencia de materia orgánica ha sido estimada mediante el análisis de Carbono Orgánico Total (TOC). Finalmente, se ha llevado a cabo un análisis de isótopos de Pb en muestras escogidas en los perfiles, con el objetivo de hacer una evaluación ambiental. Los contenidos metálicos aumentan hacia la superficie en algunos de los perfiles, mientras en otros muestran una distribución muy constante exceptuando algún nivel específico con un aumento de los contenidos de la mayoría de los metales. Ha sido posible determinar la influencia de las actividades antropogénicas en algunos de los perfiles. Aquellos que pertenecen a cuencas mineras, urbanas o industrializadas muestran generalmente altos contenidos en elementos metálicos. Es el caso de los perfiles muestreados en los ríos Odiel y Tinto, Besaya, Besós y Manzanares. Algunos de estos perfiles pueden incluso correlacionarse con periodos de tiempo en los que ha tenido lugar una actividad antropogénica más intensa. Los perfiles que mejor se correlacionan con la actividad antropogénica de la cuenca son el perfil de Rivas en el río Manzanares (Madrid), que refleja un crecimiento de la contaminación producida por las actividades urbana e industrial en las últimas décadas, y el río Tinto, que muestra un crecimiento llamativo de los contenidos en su mayoría metálicos que puede estar relacionado con el incremento de la actividad minera que tuvo lugar hace aproximadamente 125 años. El análisis de los isótopos de Pb ha resultado ser una herramienta útil en la evaluación ambiental de estos sedimentos. Con este estudio y mediante la comparación con fuentes naturales y antropogénicas, ha sido posible diferenciar las muestras afectadas por diferentes fuentes de plomo, así como detectar las más afectadas antropogénicamente. ABSTRACT The geochemical composition of overbank sediments of some selected river basins is studied in this thesis in order to contribute to a better knowledge of the environmental conditions surrounding them. In each basin a vertical overbank profile has been sampled, dividing it into stretches that usually correspond to different flood events. The overbank sediments are those deposited during a flood event once the flow spills over the channel banks. They are usually characterized by a very fine grain size and a structure of horizontal layers, which correspond to successive flood events. These sediments show two main advantages regarding other sampling media in geochemistry, like soils or stream sediments: • They can store sediment deposited in the past as well as in current times, so that the history of a specific location can be studied at the very same point (vertical profile). • The overbank sediments are able to characterize a large drainage area. The origin of the sediment is wider than in the stream sediments due to the larger areas where the flood water comes from. The basins have been selected depending on the anthropogenic activities developed in them, namely, urban and industrial activities, mining activities and agricultural activities. As well, two pristine basins have been studied as a reference. Afterwards, the alluvial sediments in the basins have been carefully studied in order to sample a vertical profile and make sure that lateral accretion materials are not present in the profile. The samples have been analysed by ICP-MS (total digestion) and INAA to know the total contents of trace and major elements. Analysis of the mobile fraction has been carried out by ICP-MS (aqua regia); as well some of the samples have been subjected to sequential extraction for a more detailed study. The presence of organic matter has been estimated by the analysis of the Total Organic Carbon (TOC). Finally, a lead isotope analysis of some of the samples in the profiles was carried out in order to make an environmental assessment. Metal contents grow towards the surface in some of the profiles, while others show a very steady distribution, except for some of them with a growth of most of the metals in a specific level. XI It has been possible to determine the influence of the anthropogenic activities in some of the profiles. The ones that belong to mining and urban or industrialized basins show generally high contents of metal elements. This is the case of the profiles sampled in the Odiel and Tinto Rivers, the Besaya River, the Besós River and the Manzanares River. Some of these profiles can even correlate with the periods of time when a more intense activity in their respective basins has taken place. The profiles which best correlate with the anthropogenic activity are the Rivas profile in the Manzanares River, which reflects a growth of the pollution produced by urban and industrial activities in the city of Madrid in the last decades and the Tinto profile, which shows a very dramatic growth of the elemental contents (mostly metals) which can be related to the increase of the mining activities that took place in the last 125 years. The analysis of lead isotopes has turned out to be a powerful tool in the environmental assessment in this type of sediments. With this study and through the comparison with natural and anthropogenic sources, it has been possible to determine samples affected by different sources of lead and to detect the most anthropogenicaly affected ones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El transporte marítimo, responsable de la canalización del 90% de los flujos comerciales internacionales, se organiza en torno a los puertos. Éstos, que resultan plataformas indispensables para el desarrollo de la economía, compiten entre sí para maximizar el tráfico atraído hacia sus instalaciones. El papel estratégico de los puertos tiene un expreso reconocimiento en el contexto de la Unión Europea, tanto desde la óptica del comercio como bajo el prisma del transporte. No en vano, por los puertos europeos transita más del 90 % del comercio de la Unión con terceros países y aproximadamente, el 40 % del tráfico intracomunitario. Los puertos españoles configuran un eje neurálgico en el desarrollo del transporte marítimo a nivel internacional y una plataforma logística para todo el sur de Europa. Sus más de siete mil novecientos kilómetros de costa y un emplazamiento geográfico estratégico, confirman al territorio nacional como un punto de especial interés por sus establecimientos portuarios. La actividad del Sistema Portuario Español con una cifra de negocio de más de 1000 millones de euros, representa anualmente un 20 % del Producto Interior Bruto específico del sector transporte, aporta un 1.1% al Producto Interior Bruto Nacional y genera 145.000 empleos directos e indirectos. Debido a la actual coyuntura económica ahora, más que nunca, la competencia interportuaria se ha intensificado y sólo aquellos puertos que sean capaces de adaptarse a las nuevas necesidades y que puedan prestar unos servicios portuarios de calidad, fiables y a precios competitivos estarán en condiciones de mantener sus tráficos. La entrada en vigor de la Ley 33/2010, de 5 de agosto, de modificación de la Ley 48/2003, de 26 de noviembre, de régimen económico y de prestación de servicios en los puertos de interés general, marca como uno de sus objetivos principales el fomento de la eficiencia y la competitividad de nuestros puertos a través de la promoción de la competencia. La Ley avanza en la liberalización de los servicios portuarios, en particular, destaca el servicio portuario de manipulación de mercancías en donde se introducen algunas modificaciones con las que pretende dotar de transparencia, así como normalizar el acceso a la profesión y a la formación. Surge por tanto, la conveniencia de investigar las condiciones de prestación de los servicios portuarios, su impacto en la competitividad del sistema portuario y sobre cada uno de los agentes que forman parte de la cadena global del transporte marítimo. En primer lugar, la Autoridad Portuaria, como organismo público que tiene entre sus competencias la gestión y control de los servicios portuarios para lograr que se desarrollen en condiciones óptimas de eficacia, economía, productividad y seguridad. Al analizar el sector mediante el modelo de “Cinco Fuerzas de Porter” descubrimos que el creciente poder de los proveedores de servicios portuarios, especialmente el de manipulación de mercancías y el proceso de descentralización en la gestión de los puertos de interés general está restando atractivo y competitividad al sector. Además según la encuesta realizada a los representantes de las Autoridades Portuarias, existe prácticamente unanimidad acerca de la importancia de los servicios portuarios en la competitividad del puerto y la falta de transparencia existente, particularmente en el servicio de manipulación de mercancías. Por otro lado, pone de manifiesto los aspectos considerados más importantes, que son el coste y la fiabilidad en la prestación del servicio. A continuación se investiga la repercusión del coste de los servicios portuarios en el precio final del producto, es decir, cómo inciden éstos en la competitividad del tejido empresarial al que sirven los puertos y su impacto en el consumidor final. Concluyendo que el coste de los servicios portuarios tiene de media un peso del 12 % frente al coste global del transporte marítimo y aproximadamente un 0.5% respecto al precio del producto. Posteriormente se realiza una exhaustiva investigación de las principales empresas prestadoras de servicios portuarios en España, se sintetizan los principales datos y se realiza un análisis de la estructura y evolución del sector. Se observa una tendencia a la integración en grandes grupos empresariales vinculados al sector marítimo y a la concentración sectorial. Siendo conscientes de la importancia de la optimización de los servicios portuarios para las empresas operadoras de terminales y navieras, se ha procedido a contrastar la hipótesis inicial de que el servicio de manipulación de mercancías es el responsable de la mayor parte (65 %) del coste del paso de la mercancía por el puerto. Por tanto, a la vista de los resultados obtenidos, por la importancia manifestada tanto por parte de las Autoridades Portuarias como por las empresas operadoras de terminales, a partir de éste punto se particulariza la investigación para el servicio portuario de manipulación de mercancías. Se selecciona una muestra significativa de empresas estibadoras, se procede a homogeneizar sus cuentas de pérdidas y ganancias y sus balances. Posteriormente se calcula y analiza un elevado número de ratios económico-financieros que tendremos en cuenta a la hora de evaluar una solicitud para el otorgamiento de una licencia para la prestación del servicio de manipulación de mercancías. Asimismo se ha procedido a realizar una cuenta de pérdidas y ganancias y un balance modelo, tanto para la empresa media, construida a partir de los ratios medios, como para una empresa ideal desde el punto de vista empresarial, construida a partir de los mejores ratios obtenidos. Ante la necesidad detectada en el estado del arte de la falta de mecanismos para dotar de transparencia al sector, mediante esta estructura la Autoridad Portuaria dispondrá de una herramienta que le permita objetivizar el proceso de toma de decisiones a la hora de establecer sus condiciones en los Pliegos de Prescripciones Particulares y otorgar las licencias, así como evaluar la rentabilidad de la empresa a lo largo del periodo de prestación del servicio. Por un lado, una empresa prestadora de servicios portuarios, debe obtener una rentabilidad acorde con las expectativas de sus accionistas y como mínimo superior al coste de capital de la misma. Al mismo tiempo, la Administración que tutela la prestación del servicio, la Autoridad Portuaria, debe verificar la viabilidad de la propuesta, pues ello será garantía de éxito de la empresa y por tanto de continuidad de prestación del servicio en el puerto pero también debe asegurar una competitividad en costes. Al proceder a la extracción de conclusiones a partir de los ratios económico-financieros obtenidos para las empresas estibadoras (Ratio medio Beneficios/Ventas=4.68%) se pone de manifiesto que claramente el problema de ineficiencia y sobrecostes no está siendo provocado por unos elevados márgenes de rentabilidad de éstas. Por tanto, se analizan otros agentes integrantes en el proceso y se detecta la particular situación de la mano de obra del estibador portuario. Se investigan las ventajosas condiciones laborales que disfrutan y se proponen una serie de medidas que producirían una mejora en la competitividad del servicio que conllevarían una reducción de un 30 % sobre los costes totales del paso de la mercancía por el puerto. En un sector global como es el marítimo, con un escenario cada vez más dinámico y competitivo, con la presente tesis doctoral se trata de asegurar que los factores clave de éxito identificados se cumplan, siendo uno de éstos el liderazgo en costes, que necesariamente se deberá equilibrar con la viabilidad económica de la empresa en la prestación del servicio de la manera más eficiente y productiva, haciendo el puerto más atractivo tanto para los clientes actuales como potenciales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de la presente tesis se enmarca dentro del estudio del estado de hormigones de presas, desarrollado en los últimos años en el Laboratorio Central del CEDEX, en el que se ratifica que una de las causas más importantes del deterioro de obras hidráulicas en España es la reacción álcali-sílice. La tesis que se presenta pretende contribuir al mejor conocimiento de la reacción álcali sílice con fines normativos preventivos, abordando los aspectos relativos a la identificación de áridos reactivos en el hormigón. El conocimiento de los áridos reactivos en España (origen de la reactividad, tipos de reacción y su comportamiento, así como las herramientas disponibles para su detección) es imprescindible para evitar la futura aparición de esta patología en nuevas estructuras, ya sea evitando el uso de áridos reactivos o tomando las medidas preventivas necesarias si su utilización es inevitable. A partir del Estudio Bibliográfico realizado se han detectado diversas lagunas en la identificación y caracterización de áridos de reacción rápida, cuya característica principal es que son reactivos con concentraciones muy bajas de diferentes componentes reactivos. Para resolver las lagunas identificadas se ha planeado un estudio experimental, consistente en el análisis de áridos cuya reactividad es conocida porque han sido empleados en obras afectadas por la reacción álcali sílice. Sobre el árido grueso extraído de estas estructuras se han realizado una serie de ensayos normalizados (estudio petrográfico, ensayo acelerado de probetas de mortero, ensayo Gel Pat y ensayos químicos). El análisis de los resultados experimentales ha permitido conocer las limitaciones reales en áridos reactivos españoles de las diferentes técnicas existentes, tratando de minimizarlas para áridos cuya reactividad es debida a componentes minoritarios (áridos de reacción rápida). Además, se ha evaluado la utilización de la difracción de rayos X (no normalizada) y la creación de un nuevo ensayo (Gel Pat Modificado). Finalmente, el estudio experimental ha permitido fijar una metodología de ensayo para el estudio de áridos reactivos por su contenido en componentes minoritarios (áridos de reacción rápida). The objective of this Thesis fits into the research program developed in CEDEX the last years and focused on the durability of concrete in Dams. This research work confirms that one of the main problems related to the deterioration of hydraulic structures is the alkali silica reaction. This Thesis aims to contribute to a better understanding of alkali-silica reaction, for preventive regulation purposes, considering the aspects related to the identification of reactive aggregates. The knowledge of Spanish reactive aggregates (origin of the reactivity, types of reaction and their behavior, and the tools available to detect and describe them) is essential to avoid the appearance of this pathology in new structures, either not using the reactive aggregate or taking the necessary preventive measures available in bibliography if the use of the reactive aggregate is inevitable. From the State-of –the-Art developed, several gaps have been detected in the detection and description of rapid reactive aggregates, which main characteristic if that they are reactive with low content of some reactive components. An experimental programme has been designed to solve these gaps, consisting on studying the reactivity of aggregates used in Spanish structures affected by the alkali silica reaction. Several Standard Tests have been carried out on coarse aggregates removed from the affected structures (Petrographic description, Accelerated Mortar Bar Test, Gel Pat Test and Chemical Tests). The analysis of the results obtained in Spanish reactive aggregates allows to know the advantages and limitations of each test, trying to minimize the disadvantages to detect Spanish reactive aggregates because of the minority content of rapid reactive components (rapid reactive aggregates). Moreover, X ray diffraction (not standardized) has been tested to detect rapid reactive aggregates and also a new test has been developed for the same purpose (Optimized Gel Pat Test). Finally, the experimental programme has made possible to define a methodology for detection of Spanish rapid reactive aggregates.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Le Corbusier le hubiera gustado que le recordaran también como pintor. Igual que su compatriota E. L. Boullée, devoto como él de las formas más puras de la geometría, hubiera escrito gustoso, bajo el título de cualquiera de sus libros de Arquitectura, aquella frase: “Yo también soy pintor”. Para él, como para el ilustrado, la Arquitectura comparte una dimensión artística con la Pintura (y con la Escultura, la Música, la Poesía...etc.) que se pone de manifiesto en el proceso creativo y que está encaminada a emocionar al espectador que participa y se involucra en la obra. Arquitectura y Pintura se convierten de este modo en caminos diferentes para llegar a los mismos objetivos. Esta Tesis trata sobre el proceso de creación en la arquitectura de Le Corbusier y de cómo en él se producen continuas incursiones en el mundo de la pintura cubista. Asumiendo que es un tema sobre el que ya se ha escrito mucho ( las bibliografías de Le Corbusier y de Picasso son sin duda las más numerosas entre los artistas de sus respectivos campos) creemos que es posible ofrecer una nueva visión sobre los mecanismos que, tanto el arquitecto como el pintor, utilizaban en su trabajo. Lo que buscamos es desvelar un modo de creación, común entre ambas disciplinas, basado en el análisis de ciertos componentes artísticos capaces de ser ensamblados en composiciones sintéticas siempre nuevas, que inviten al espectador a participar del hecho creativo en una continua actividad cognoscitiva. El proyecto cubista, tanto para Le Corbusier como para Picasso, se alcanza al final de un largo camino como resultado de un profundo estudio de la realidad (en la Arquitectura, social, cultural y económica, y en la Pintura la realidad cotidiana), en el que el motivo, ya sea objeto, espacio ó luz, intenta ser “conocido” en su totalidad a través del filtro personal del artista. Es por lo tanto, algo a lo que se llega, y cuyo resultado, a priori, es desconocido. En cualquier caso, forma parte de una investigación, de un proceso continuo que intencionadamente supera la circunstancia concreta de cada ocasión. Es la coincidencia en los procesos de proyecto lo que unificará arquitecturas en principio tan dispares como la Capilla de Ronchamp, el Tribunal de Justicia de Chandigarh, o el Hospital de Venecia, y son esos procesos los que aquí, a través de varias obras concretas vamos a intentar desvelar. Es cierto que el proyecto presentado al concurso del Palacio de los Soviets de Moscú es un ejercicio brillante de Constructivismo, pero este resultado no se anunciaba al principio. Si analizamos el proceso de proyecto encontramos que inicialmente la propuesta no era muy diferente a la del Centorsoyuz, o incluso a la de la Cité de Refuge o a la del Pavillon Suisse de París. La solución final sólo se alcanzaría después de mover muchísimas veces, las piezas preseleccionadas en el solar. Cuando entendemos el Convento de la Tourette como una versión actualizada del monasterio dominico tradicional estamos haciendo una lectura parcial y engañosa de la idea de proyecto del arquitecto. En los croquis previos del archivo de la Fondation Le Corbusier encontramos otra vez las mismas ideas que en la vieja Cité de Refuge, ahora actualizadas y adaptadas al nuevo fin. Con la Asamblea de Chandigarh las similitudes son obvias e incluso aparece el mismo cubo al que se superpone una pirámide como techo, avanzando hacia el espacio central pero aquí aparece un gran hiperboloide en un interior cerrado. Este hiperboloide fue en el inicio del proyecto un cubo, y después un cilindro. Sólo al final encontró su forma óptima en un volumen de geometría reglada que en su idoneidad podría también valer para otros edificios, por ejemplo para una Iglesia. La comparación que se ha hecho de este volumen con las torres de refrigeración de Ahmedabad es puramente anecdótica pues, como veremos, esta forma se alcanza desde la lógica proyectual que sigue el pensamiento plástico de Le Corbusier, en este caso, en la adaptación del espacio cilíndrico a la luz, pero no como inspiración en las preexistencias. En todas sus obras los mecanismos que se despliegan son, en muchas ocasiones pictóricos (fragmentación analítica del objeto y del espacio, ensamblaje multidimensional, tramas subyacentes de soporte, escenografía intencionada ...etc.) y el programa en cada caso, como el motivo de los cubistas, no es más que una ocasión más para investigar una nueva forma de hacer y de entender, la Arquitectura. Cualquier proyecto del pintor-arquitecto cubista es en realidad un trabajo continuo desarrollado a lo largo de toda su vida, en el que se utilizan, una y otra vez, las mismas palabras de su vocabulario particular y personal. aunque con diferente protagonismo en cada ocasión. Se trata de alcanzar, desde ellas mismas, una perfección que las valide universalmente. Los mismos objetos, los mismos mecanismos, las mismas constantes manipulaciones del espacio y de la luz, se desplegarán, como ingredientes previos con los que trabajar, sobre el tablero de dibujo coincidiendo con el inicio de cada proyecto, para desde aquí hacer que el motivo que se trata de construir emerja, aunque a veces sea de manera incierta e inesperada, como resultado alcanzado al final. Con muchas dudas, a partir de la primera hipótesis planteada, se confirma, se añade o se elimina cada elemento según van apareciendo en el tiempo los condicionantes del solar, del programa o incluso a veces de obsesiones propias del arquitecto. El trabajo que presentamos utiliza un método inductivo que va desde los ejemplos hasta los conceptos. Empezaremos por investigar el proceso de proyecto en una obra concreta y con los mecanismos que en él se utilizan plantearemos una síntesis que los generalice y nos permitan extenderlos al entendimiento de la totalidad de su obra. Se trata en realidad de un método que en sí mismo es cubista: desde la fragmentación del objeto-proyecto procedemos a su análisis desde diversos puntos de vista, para alcanzar después su recomposición en una nueva estructura sintética. Cada mecanismo se analiza de forma independiente siguiendo un cierto orden que correspondería, supuestamente, al trabajo del arquitecto: manipulación del objeto, método compositivo, entendimiento del soporte (lienzo o espacio) y de su geometría implícita, relación con el observador, concepto y materialidad del espacio y de la luz ..etc. recurriendo a la teoría sólo en la medida en que necesitemos de ella para aclarar el exacto sentido con el que son utilizados. En nuestra incursión en el mundo de la pintura, hemos decidido acotar el Cubismo a lo que fue en realidad su periodo heroico y original, que discurrió entre 1907 y 1914, periodo en el que desarrollado casi exclusivamente por los que habían sido sus creadores, Picasso y Braque. Solo en alguna ocasión entraremos en la pintura del “tercer cubista”, Juan Gris para entender el tránsito de los mecanismos de los primeros hasta la pintura purista, pero no es nuestra intención desviar las cuestiones planteadas de un ámbito puramente arquitectónico Resulta difícil hablar del cubismo de Pablo Picasso sin hacerlo comparativamente con el de Georges Braque (para algunos especialistas es éste incluso el auténtico creador de la Vanguardia), siendo necesario enfrentar los mecanismos de ambos pintores para obtener un exacto entendimiento de lo que supuso la Vanguardia. Por eso nos parece interesante estudiar la obra de Le Corbusier en paralelo con la de otro arquitecto de tal manera que los conceptos aparezcan como polaridades entre las que situar los posibles estados intermedios. En este sentido hemos recurrido a James Stirling. Su deuda es clara con Le Corbusier, y sobre todo con el Cubismo, y como vamos a ver, los mecanismos que utiliza en su obra, siendo similares, difieren significativamente. La Tesis adquiere un sentido comparativo y aparecen así atractivas comparaciones Picasso-Le Corbusier, Braque-Stirling que se suman a las ya establecidas Picasso-Braque y Le Corbusier-Stirling. Desde ellas podemos entender mejor lo que supone trabajar con mecanismos cubistas en Arquitectura. Por último, en relación a los dibujos creados expresamente para esta Tesis, hemos de indicar que las manipulaciones que se han hecho de los originales les convierten en elementos analíticos añadidos que aclaran determinadas ideas expresadas en los croquis de sus autores. Algunos están basados en croquis del archivo de la Fondation Le Corbusier (se indican con el número del plano) y otros se han hecho nuevos para explicar gráficamente determinadas ideas. Se completa la parte gráfica con las fotografías de las obras pictóricas, los planos originales e imágenes de los edificios construidos, extraídos de los documentos de la bibliografía citada al final. Nos disponemos pues, a indagar en las obras del Cubismo, en una búsqueda de los mecanismos con los que hacía su arquitectura Le Corbusier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesis Doctoral fue desarrollada en el marco del proyecto Consolider-Ingenio 2010 CSD2008-00068 (TeraSense), financiado por el Ministerio de Ciencia e Innovación de España. Dentro este contexto, el grupo GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM), ha llevado a cabo una serie de estudios, los cuales se centran específicamente en propagación atmosférica bajo condiciones de ausencia de lluvia en 100 y 300 GHz. Durante la primera etapa de esta investigación se ha llevado a cabo la caracterización y estimación de la atenuación total atmosférica y temperatura de brillo en ambas frecuencias, usando para ello perfiles atmosféricos. Con este propósito, se han obtenido datos de sondeos realizados en la estación de Madrid/Barajas, correspondientes a un periodo de 5 años. A partir de esta base de datos, así como de modelos de estimación, y asumiendo la validez de la aproximación de Rayleigh hasta 300 GHz, se han calculado las distribuciones acumuladas anuales de gases, nubes, y atenuación total, además de los correspondientes niveles de temperatura de brillo. Los principales resultados muestran que, a medida que aumenta la frecuencia, el vapor de agua tiene una fuerte influencia negativa, la cual es claramente dominante en 300 GHz. Así mismo, los estadísticos anuales de temperatura de brillo en 100 GHz han mostrado que la estimación de la atenuación total, a partir de medidas radiométricas, podría realizarse durante la mayor parte del tiempo, salvo en condiciones de lluvia. En 300 GHz, esta estimación sería difícil de realizar a partir de esta técnica, siendo posible únicamente durante periodos caracterizados por bajas concentraciones de vapor de agua en la atmósfera y ausencia de precipitaciones. Se ha introducido en esta investigación un método para identificar la presencia de condiciones de lluvia durante la realización de un sondeo, con el objetivo de descartar estos eventos de los estadísticos anuales de atenuación en ambas frecuencias. Este tipo de escenarios son generalmente evitados durante la realización de medidas radiométricas o cálculos basados en datos de sondeos. El procedimiento de detección se basa en el análisis de un conjunto de parámetros, algunos de ellos extraídos de observaciones sinópticas de superficie, además de la definición de un umbral de contenido integrado de agua líquida, ILWC. El funcionamiento del método ha sido evaluado bajo diferentes condiciones climatológicas, correspondientes a tres estaciones diferentes en España, donde se verificó también la existencia de datos pluviométricos. El uso del método ha demostrado que, en ausencia de registros de intensidad de lluvia, puede ser una herramienta útil de detección, cuyo comportamiento es conservador, debido a que el número de eventos que descarta es siempre mayor que el observado por un pluviómetro. Los resultados que se obtienen son buenos cuando se comparan las distribuciones acumuladas anuales de atenuación total obtenidas excluyendo los eventos detectados por el método y por los registros pluviométricos. En colaboración con el Grupo de Microondas y Radar de la UPM, se ha realizado una campaña de medidas radiométricas en 99 GHz, entre el 11 y el 24 de abril de 2012, con el fin de estimar la atenuación total a lo largo de un trayecto inclinado. Las series temporales obtenidas son consistentes con lo que se esperaba de este tipo de medidas: un nivel de referencia de baja atenuación en ausencia de nubes o lluvia, y aparentemente una buena compensación de las variaciones en la ganancia del receptor gracias a un procedimiento manual de calibraciones con carga caliente. Así mismo, se han observado claramente los efectos de la presencia de nubes sobre los resultados, hecho que confirma la mayor sensibilidad de las medidas en esta frecuencia a la presencia de agua líquida, en comparación con medidas simultáneas realizadas por un radiómetro en 19.7 GHz. Finalmente, se han observado un buen nivel de correspondencia entre los valores de atenuación estimados por el radiómetro en 99 GHz y aquellos estimados mediante sondeos meteorológicos, lo cual constituye una conclusión valiosa de cara a futuras campañas de medidas de mayor duración.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis doctoral describe los desarrollos realizados, y finalmente materializados en patentes con registro de la propiedad intelectual, para la integración de las nuevas tecnologías de documentación fotogramétrica y las bases de datos de los barredores láser terrestres, en los procesos de elaboración, redacción y ejecución de proyectos de restauración y rehabilitación arquitectónicos. Los avances tecnológicos aparecidos en control métrico, junto con las técnicas de imagen digital y los desarrollos fotogramétricos, pueden aportar mejoras significativas en el proceso proyectual y permiten aplicar nuevos procedimientos de extracción de datos para generar de forma sencilla, bajo el control directo y supervisión de los responsables del proyecto, la información métrica y documental más adecuada. Se establecen como principios, y por tanto como base para el diseño de dicha herramienta, que los desarrollos aparecidos sí han producido el uso extendido del sistema CAD (como instrumento de dibujo) así como el uso de la imagen digital como herramienta de documentación. La herramienta a diseñar se fundamenta por tanto en la imagen digital (imágenes digitales, imágenes rectificadas, ortofotografías, estéreo- modelos, estereo- ortofotografías) así como su integración en autocad para un tratamiento interactivo. En la aplicación de la fotogrametría a la disciplina arquitectónica, se considera de interés estructurar aplicaciones con carácter integrador que, con mayores capacidades de interactuación y a partir de información veraz y rigurosa, permitan completar o elaborar documentos de interés proyectual, ABSTRACT This doctoral thesis explains the developments carried out, and finally patented with intellectual property rights, for the integration of the new photogrammetric technology documentation and terrestrial scanner databases in the preparation, documentation and implementation processes of restoration projects and architectural renovation. The technological advances in metric control, as well as the digital image techniques and photogrammetric developments, can together bring a significant improvement to the projecting process, and, under the direct control and supervision of those in charge of the project, can allow new data extraction processes to be applied in order to easily generate the most appropriate metric information and documentation. The principles and, therefore, the basis for the design of this tool are that the developments have indeed produced the widespread use of the CAD system (as a drawing instrument) and the use of digital images as a documentation tool. The tool to be designed is therefore based on digital images (rectify images, orthophotos, stereomodels, stereo-orthophotos) as well as its integration in Autocad for interactive processing. In the application of photogrammetry to the architectural discipline, what interests us is to structure applications of an integrative nature which, with a greater capacity for interaction and from accurate and thorough information, enable the completion or elaboration of documents that are of interest to the project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación analiza la capacidad de la materia de albergar información, y propone una clasificación que ordene todas sus manifestaciones. El objetivo de esta tesis es describir estos procedimientos (que son tres y dan lugar a cada uno de sus tres apítulos), y establecer cómo todos los procesos de manipulación de la materia, que dejan algún rastro sobre ella, se producen siguiendo alguno de los mismos. Para llegar a este objetivo, se procura realizar un exhaustivo recorrido a través de numerosas y diversas experiencias de alteración de la materia, para dar lugar a una extensa clasificación que siente las bases para interpretar cualquier otra intervención. Es decir, el objetivo, no es tanto hacer una clasificación de las intervenciones más relevantes de la Historia, sino descubrir una estructura, un orden, una taxonomía en estas actuaciones sobre la materia que permita interpretar cualquier manifestación, tanto del pasado como del futuro. Este estudio pretende abordar un aspecto parcial, aunque fundamental, de la construcción dando prioridad a la materialidad, sin la intención de negar el carácter espacial de la forma arquitectónica. Se concentra en los parámetros relativos a la interpretación de la materia. Se trata de una atención tan cercana al objeto que evita su entendimiento global, para profundizar en las razones parciales específicamente materiales. Se desatiende al conjunto para descifrar el fragmento. En Arquitectura, la materia ha sido desde siempre objeto de investigación, y por lo tanto ha sido receptora y almacén de los avances logrados. El interés principal de esta tesis se concentra en la manipulación de la materia que ha sido llevada a cabo con el propósito de construir, pero el ámbito de la construcción no es exclusivo de la arquitectura, por lo que otras actividades como el arte, y las ciencias naturales aportan aspectos y avances que han sido recogidas asimismo dentro de la investigación. De hecho, muchas de estas actividades ni siquiera están relacionadas con la construcción, pero realizan o desvelan procedimientos relevantes en el campo del trabajo sobre la materia, que hacen necesaria su inclusión. De esta forma se ofrece un acercamiento poliédrico desde puntos de vista interdisciplinares, para describir con rigor las posibilidades contrastadas en construcciones, tanto existentes como aplicaciones potenciales.