10 resultados para FUNCION DE DISTRIBUCION

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Plant proteolysis is a metabolic process where specific enzymes called peptidases degrade proteins. In plants, this complex process involves broad metabolic networks and different sub-cellular compartments. Several types of peptidases take part in the proteolytic process, mainly cysteine-, serine-, aspartyl- and metallo- peptidases. Among the cysteine-peptidases, the papain-like or C1A peptidases (family C1, clan CA) are extensively present in land plants and are classified into catepsins L-, B-, H- and Flike. The catalytic mechanism of these C1A peptidases is highly conserved and involves the three amino acids Cys, His and Asn in the catalytic triad, and a Gln residue which seems essential for maintaining an active enzyme conformation. These proteins are synthesized as inactive precursors, which comprise an N-terminal signal peptide, a propeptide, and the mature protein. In barley, we have identified 33 cysteine-peptidases from the papain-like family, classifying them into 8 different groups. Five of them corresponded to cathepsins L-like (5 subgroups), 1 cathepsin B-like group, 1 cathepsin F-like group and 1 cathepsin H-like group. Besides, C1A peptidases are the specific targets of the plant proteinaceous inhibitors known as phytocystatins (PhyCys). The cystatin inhibitory mechanism is produced by a tight and reversible interaction with their target enzymes. In barley, the cystatin gene family is comprised by 13 members. In this work we have tried to elucidate the role of the C1A cysteine-peptidases and their specific inhibitors (cystatins) in the germination process of the barley grain. Therefore, we selected a representative member of each group/subgroup of C1A peptidases (1 cathepsin B-like, 1 cathepsin F-like, 1 cathepsin H-like and 5 cathepsins L-like). The molecular characterization of the cysteine-peptidases was done and the peptidase-inhibitor interaction was analyzed in vitro and in vivo. A study in the structural basis for specificity of pro-peptide/enzyme interaction in barley C1A cysteine-peptidases has been also carried out by inhibitory assays and the modeling of the three-dimensional structures. The barley grain maturation produces the accumulation of storage proteins (prolamins) in the endosperm which are mobilized during germination to supply the required nutrients until the photosynthesis is fully established. In this work, we have demonstrated the participation of the cysteine-peptidases and their inhibitors in the degradation of the different storage protein fractions (hordeins, albumins and globulins) present in the barley grain. Besides, transgenic barley plants overexpressing or silencing cysteine-peptidases or cystatins were obtained by Agrobacterium-mediated transformation of barley immature embryos to analyze their physiological function in vivo. Preliminary assays were carried out with the T1 grains of several transgenic lines. Comparing the knock-out and the overexpressing lines with the WT, alterations in the germination process were detected and were correlated with their grain hordein content. These data will be validated with the homozygous grains that are being produced through the double haploid technique by microspore culture. Resumen La proteólisis es un proceso metabólico por el cual se lleva a cabo la degradación de las proteínas de un organismo a través de enzimas específicas llamadas proteasas. En plantas, este complejo proceso comprende un entramado de rutas metabólicas que implican, además, diferentes compartimentos subcelulares. En la proteólisis participan numerosas proteasas, principalmente cisteín-, serín-, aspartil-, y metalo-proteasas. Dentro de las cisteín-proteasas, las proteasas tipo papaína o C1A (familia C1, clan CA) están extensamente representadas en plantas terrestres, y se clasifican en catepsinas tipo L, B, H y F. El mecanismo catalítico de estas proteasas está altamente conservado y la triada catalítica formada por los aminoácidos Cys, His y Asn, y a un aminoácido Gln, que parece esencial para el mantenimiento de la conformación activa de la proteína. Las proteasas C1A se sintetizan como precursores inactivos y comprenden un péptido señal en el extremo N-terminal, un pro-péptido y la proteína madura. En cebada hemos identificado 33 cisteín-proteasas de tipo papaína y las hemos clasificado filogenéticamente en 8 grupos diferentes. Cinco de ellos pertenecen a las catepsinas tipo L (5 subgrupos), un grupo a las catepsinas tipo-B, otro a las catepsinas tipo-F y un último a las catepsinas tipo-H. Las proteasas C1A son además las dianas específicas de los inhibidores protéicos de plantas denominados fitocistatinas. El mecanismo de inhibición de las cistatinas está basado en una fuerte interacción reversible. En cebada, se conoce la familia génica completa de las cistatinas, que está formada por 13 miembros. En el presente trabajo se ha investigado el papel de las cisteín-proteasas de cebada y sus inhibidores específicos en el proceso de la germinación de la semilla. Para ello, se seleccionó una proteasa representante de cada grupo/subgrupo (1 catepsina tipo- B, 1 tipo-F, 1 tipo-H, y 5 tipo-L, una por cada subgrupo). Se ha llevado a cabo su caracterización molecular y se ha analizado la interacción enzima-inhibidor tanto in vivo como in vitro. También se han realizado estudios sobre las bases estructurales que demuestran la especificidad en la interacción enzima/propéptido en las proteasas C1A de cebada, mediante ensayos de inhibición y la predicción de modelos estructurales de la interacción. Finalmente, y dado que durante la maduración de la semilla se almacenan proteínas de reserva (prolaminas) en el endospermo que son movilizadas durante la germinación para suministrar los nutrientes necesarios hasta que la nueva planta pueda realizar la fotosíntesis, en este trabajo se ha demostrado la participación de las cisteínproteasas y sus inhibidores en la degradación de las diferentes tipos de proteínas de reserva (hordeinas, albúmins y globulinas) presentes en el grano de cebada. Además, se han obtenido plantas transgénicas de cebada que sobre-expresan o silencian cistatinas y cisteín-proteasas con el fin de analizar la función fisiológica in vivo. Se han realizado análisis preliminares en las semillas T1 de varias líneas tránsgenicas de cebada y al comparar las líneas knock-out y las líneas de sobre-expresión con las silvestres, se han detectado alteraciones en la germinación que están además correlacionadas con el contenido de hordeinas de las semillas. Estos datos serán validados en las semillas homocigotas que se están generando mediante la técnica de dobles haploides a partir del cultivo de microesporas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Developing countries are experiencing unprecedented levels of economic growth. As a result, they will be responsible for most of the future growth in energy demand and greenhouse gas (GHG) emissions. Curbing GHG emissions in developing countries has become one of the cornerstones of a future international agreement under the United Nations Framework Convention for Climate Change (UNFCCC). However, setting caps for developing countries’ GHG emissions has encountered strong resistance in the current round of negotiations. Continued economic growth that allows poverty eradication is still the main priority for most developing countries, and caps are perceived as a constraint to future growth prospects. The development, transfer and use of low-carbon technologies have more positive connotations, and are seen as the potential path towards low-carbon development. So far, the success of the UNFCCC process in improving the levels of technology transfer (TT) to developing countries has been limited. This thesis analyses the causes for such limited success and seeks to improve on the understanding about what constitutes TT in the field of climate change, establish the factors that enable them in developing countries and determine which policies could be implemented to reinforce these factors. Despite the wide recognition of the importance of technology and knowledge transfer to developing countries in the climate change mitigation policy agenda, this issue has not received sufficient attention in academic research. Current definitions of climate change TT barely take into account the perspective of actors involved in actual climate change TT activities, while respective measurements do not bear in mind the diversity of channels through which these happen and the outputs and effects that they convey. Furthermore, the enabling factors for TT in non-BRIC (Brazil, Russia, India, China) developing countries have been seldom investigated, and policy recommendations to improve the level and quality of TTs to developing countries have not been adapted to the specific needs of highly heterogeneous countries, commonly denominated as “developing countries”. This thesis contributes to enriching the climate change TT debate from the perspective of a smaller emerging economy (Chile) and by undertaking a quantitative analysis of enabling factors for TT in a large sample of developing countries. Two methodological approaches are used to study climate change TT: comparative case study analysis and quantitative analysis. Comparative case studies analyse TT processes in ten cases based in Chile, all of which share the same economic, technological and policy frameworks, thus enabling us to draw conclusions on the enabling factors and obstacles operating in TT processes. The quantitative analysis uses three methodologies – principal component analysis, multiple regression analysis and cluster analysis – to assess the performance of developing countries in a number of enabling factors and the relationship between these factors and indicators of TT, as well as to create groups of developing countries with similar performances. The findings of this thesis are structured to provide responses to four main research questions: What constitutes technology transfer and how does it happen? Is it possible to measure technology transfer, and what are the main challenges in doing so? Which factors enable climate change technology transfer to developing countries? And how do different developing countries perform in these enabling factors, and how can differentiated policy priorities be defined accordingly? vi Resumen Los paises en desarrollo estan experimentando niveles de crecimiento economico sin precedentes. Como consecuencia, se espera que sean responsables de la mayor parte del futuro crecimiento global en demanda energetica y emisiones de Gases de Efecto de Invernadero (GEI). Reducir las emisiones de GEI en los paises en desarrollo es por tanto uno de los pilares de un futuro acuerdo internacional en el marco de la Convencion Marco de las Naciones Unidas para el Cambio Climatico (UNFCCC). La posibilidad de compromisos vinculantes de reduccion de emisiones de GEI ha sido rechazada por los paises en desarrollo, que perciben estos limites como frenos a su desarrollo economico y a su prioridad principal de erradicacion de la pobreza. El desarrollo, transferencia y uso de tecnologias bajas en carbono tiene connotaciones mas positivas y se percibe como la via hacia un crecimiento bajo en carbono. Hasta el momento, la UNFCCC ha tenido un exito limitado en la promocion de transferencias de tecnologia (TT) a paises en desarrollo. Esta tesis analiza las causas de este resultado y busca mejorar la comprension sobre que constituye transferencia de tecnologia en el area de cambio climatico, cuales son los factores que la facilitan en paises en desarrollo y que politicas podrian implementarse para reforzar dichos factores. A pesar del extendido reconocimiento sobre la importancia de la transferencia de tecnologia a paises en desarrollo en la agenda politica de cambio climatico, esta cuestion no ha sido suficientemente atendida por la investigacion existente. Las definiciones actuales de transferencia de tecnologia relacionada con la mitigacion del cambio climatico no tienen en cuenta la diversidad de canales por las que se manifiestan o los efectos que consiguen. Los factores facilitadores de TT en paises en desarrollo no BRIC (Brasil, Rusia, India y China) apenas han sido investigados, y las recomendaciones politicas para aumentar el nivel y la calidad de la TT no se han adaptado a las necesidades especificas de paises muy heterogeneos aglutinados bajo el denominado grupo de "paises en desarrollo". Esta tesis contribuye a enriquecer el debate sobre la TT de cambio climatico con la perspectiva de una economia emergente de pequeno tamano (Chile) y el analisis cuantitativo de factores que facilitan la TT en una amplia muestra de paises en desarrollo. Se utilizan dos metodologias para el estudio de la TT a paises en desarrollo: analisis comparativo de casos de estudio y analisis cuantitativo basado en metodos multivariantes. Los casos de estudio analizan procesos de TT en diez casos basados en Chile, para derivar conclusiones sobre los factores que facilitan u obstaculizan el proceso de transferencia. El analisis cuantitativo multivariante utiliza tres metodologias: regresion multiple, analisis de componentes principales y analisis cluster. Con dichas metodologias se busca analizar el posicionamiento de diversos paises en cuanto a factores que facilitan la TT; las relaciones entre dichos factores e indicadores de transferencia tecnologica; y crear grupos de paises con caracteristicas similares que podrian beneficiarse de politicas similares para la promocion de la transferencia de tecnologia. Los resultados de la tesis se estructuran en torno a cuatro preguntas de investigacion: .Que es la transferencia de tecnologia y como ocurre?; .Es posible medir la transferencia de tecnologias de bajo carbono?; .Que factores facilitan la transferencia de tecnologias de bajo carbono a paises en desarrollo? y .Como se puede agrupar a los paises en desarrollo en funcion de sus necesidades politicas para la promocion de la transferencia de tecnologias de bajo carbono?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del presente proyecto Variante de la CV-50. Tramo Variante Norte de Benaguasil - Autovia A-3 es dar satisfaccion a una importante demanda social de transporte terrestre existente en esta zona. Permitiendo, como hemos comentado antes, que la infraestructura se transforme en un arco distribuidor exterior al Area Metropolitana de Valencia, conectando a su vez, algunas zonas de mayor potencial productivo de la Comunidad Valenciana, y aliviando, al mismo tiempo, las congestiones de trafico de los cinturones mas interiores, como es el caso de la A-7, que genera grandes congestiones en su enlace con la Carretera de Valencia o A-3. Con la construccion de esta infraestructura se conseguira expulsar el trafico de los núcleos de poblacion de Cheste y Villamarxant, en los que la actual carretera CV-50 ha quedado, con el paso del tiempo y crecimiento de las poblaciones, recogida dentro de ellas. Con esto se logra mayor tranquilidad y calidad de vida de los vecinos, tanto en aspectos visuales, acusticos y medioambientales. A su vez, se consigue reducir el consumo de combustible que supone el paso de vehiculos ligeros y pesados por los centros de poblacion, asi como la importante perdida de productividad que suponen los tiempos de espera en los nucleos de las poblaciones, la congestion innecesaria y los retrasos, que quedaran suprimidos en la circulacion por la nueva autovia, disenada para una velocidad de proyecto de 120 km/h. En resumen, el presente proyecto dotara de una mejor comunicacion a los municipios de Cheste, Villamarxant, Benaguasil y nucleos urbanos de los alrededores y de una importante descongestion a la Autovia A-3, la cual posee un trafico mas alto a medida que se acerca a Valencia, produciendose las retenciones mas importantes en el nudo de la A-3 con la A-7. La nueva autovia Variante de la CV-50 desviara gran parte de este trafico de la A-3, haciendo funcion de anillo distribuidor como la nombrada A-7. Siempre se tiene en cuenta la maxima de invertir los recursos publicos en aquellas actuaciones que mas beneficien a la sociedad; esto toma especial importancia en epocas como la actual, de escasez de recursos publicos que sufrimos. No debieran emplearse inversiones salvo en aquellas actuaciones debidamente justificadas. En nuestro caso, nos encontramos con una infraestructura de gran envergadura, no solo en un futuro a medio plazo, sino en estos momentos. Es preciso adelantarse a la realizacion de los nuevos desarrollos urbanos previstos en los respectivos PGOU, y dotar de accesibilidad antes de la llegada de la poblacion. En caso de no realizarse la infraestructura y esperar a la ampliacion de los municipios, se crearan nuevas congestiones y se agudizaran algunas ya existentes; y se entrara en una dinamica de perdidas de combustible, perdidas economicas de tiempo, accesibilidad… que podria haberse evitado con una adecuada planificacion. Por tanto, nuestra actuacion se enmarca dentro de una problematica de interes provincial. El principal objetivo es que la infraestructura se transforme en un arco distribuidor exterior al Area Metropolitana de Valencia y que conecte algunas zonas de mayor potencial productivo de la Comunidad Valenciana. Y ello, sobre todo, por el crecimiento excepcional que es previsible que sufran en los proximos anos, como se estudia en el anejo de trafico. Sin embargo, el proyecto tiene repercusiones a nivel autonomico y nacional. A nivel autonomico porque su funcion de anillo distribuidor desviara el trafico de la A-3 que tenga direccion a Castellon sin necesidad de acercarse mas kilometros a la ciudad de Valencia, y a nivel nacional porque afecta a la autovia A-3, que es de interes general y es muy importante garantizar un adecuado aprovechamiento de esta via.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

funcion mitocondrial en fibras rápidas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los extensos tallares envejecidos de quercíneas mediterráneas son el resultado de una intensa gestión, consistente en la aplicación de cortas de matarrasa con turnos cortos durante largos períodos de tiempo. La pérdida de valor de leña y carbón vegetal provocó a partir de los años sesenta el abandono de dicha gestión. La ausencia de tratamientos de regeneración hace que muchas de estas masas presenten graves problemas selvícolas y ecológicos, así como falta de producciones directas. En este trabajo presentamos los resultados obtenidos tras ejecutar resalveos de conversión de diferente peso en tallares envejecidos de encina (Quercus ilex subsp. ballota) y quejigo (Q. faginea) situados en Guadalajara. El dispositivo experimental de parcelas permanents se instaló e inventarió en 1994. En 1995 se aplicaron resalveos de pesos variables entre 0 % (control) y 100 % de area basimétrica extraída. En 2011 se han realizado nuevos inventarios que nos permiten analizar, 15 años después del tratamiento, cuál ha sido la respuesta de diversos indices de espesura en funcion del peso de resalveo aplicado. También se analiza la aparición de masas mixtas como consecuencia de la incorporación, tras los resalveos, de regeneración de pino a partir de ejemplares aislados dispersos en la zona.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este documento está descrito detalladamente el trabajo realizado para completar todos objetivos marcados para este Trabajo de Fin de Grado, que tiene como meta final el desarrollo de un dashboard configurable de gestión y administración para instancias de OpenStack. OpenStack es una plataforma libre y de código abierto utilizada como solución de Infraestructura como Servicio (Infrastructure as a Service, IaaS) en clouds tanto públicos, que ofrecen sus servicios cobrando el tiempo de uso o los recursos utilizados, como privados para su utilización exclusiva en el entorno de una empresa. El proyecto OpenStack se inició como una colaboración entre la NASA y RackSpace, y a día de hoy es mantenido por las empresas más potentes del sector tecnológico a través de la Fundación OpenStack. La plataforma OpenStack permite el acceso a sus servicios a través de una Interfaz de Linea de Comandos (Command Line Interface, CLI), una API RESTful y una interfaz web en forma de dashboard. Esta última es ofrecida a través del servicio Horizon. Este servicio provee de una interfaz gráfica para acceder, gestionar y automatizar servicios basados en cloud. El dashboard de Horizon presente algunos problemas como que: solo admite opciones de configuración mediante código Python, lo que hace que el usuario no tenga ninguna capacidad de configuración y que el administrador esté obligado a interactuar directamente con el código. no tiene soporte para múltiples regiones que permitan que un usuario pueda distribuir sus recursos por distintos centros de datos en diversas localizaciones como más le convenga. El presente Trabajo de Fin de Grado, que es la fase inicial del proyecto FI-Dash, pretende solucionar estos problemas mediante el desarrollo de un catálogo de widget de la plataformaWireCloud que permitirán al usuario tener todas las funcionalidades ofrecidas por Horizon a la vez que le ofrecen capacidades de configuración y añaden funcionalidades no presentes en Horizon como el soporte de múltiples regiones. Como paso previo al desarrollo del catálogo de widgets se ha llevado a cabo un estudio de las tecnologías y servicios ofrecidos por OpenStack, así como de las herramientas que pudieran ser necesarias para la realización del trabajo. El proceso de desarrollo ha sido dividido en distintas fases de acuerdo con los distintos componentes que forman parte del dashboard cada uno con una funcion de gestion sobre un tipo de recurso distinto. Las otras fases del desarrollo han sido la integración completa del dashboard en la plataforma WireCloud y el diseño de una interfaz gráfica usable y atractiva.---ABSTRACT---Throughout this document it is described the work performed in order to achieve all of the objectives set for this Final Project, which has as its main goal the development of a configurable dashboard for managing and administrating OpenStack instances. OpenStack is a free and open source platform used as Infrastructure as a Service (IaaS) for both public clouds, which offer their services through payments on time or resources used, and private clouds for use only in the company’s environment. The OpenStack project started as a collaboration between NASA and Rackspace, and nowadays is maintained by the most powerful companies in the technology sector through the OpenStack Foundation. The OpenStack project provides access to its services through a Command Line Interface (CLI), a RESTful API and a web interface as dashboard. The latter is offered through a service called Horizon. This service provides a graphical interface to access, manage and automate cloud-based services. Horizon’s dashboard presents some problems such as: Only supports configuration options using Python code, which grants the user no configuration capabilities and forces the administrator to interact directly. No support for multiple regions that allow a user to allocate his resources by different data centers in different locations at his convenience. This Final Project, which is the initial stage of the FI-Dash project, aims to solve these problems by developing a catalog of widgets for the WireCloud platform that will allow the user to have all the features offered by Horizon while offering configuration capabilities and additional features not present in Horizon such as support for multiple regions. As a prelude to the development of the widget catalog, a study of technologies and services offered by OpenStack as well as tools that may be necessary to carry out the work has been conducted. The development process has been split in phases matching the different components that are part of the dashboard, having each one of them a function of management of one kind of resource. The other development phases have been the achieving of full integration with WireCloud and the design of a graphical interface that is both usable and atractive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El litoral ha constituido a lo largo de la historia una importante fuente de recursos económicos además de un punto estratégico para la defensa del territorio. El comercio, la pesca o la industria de la sal han propiciado la formación de poblaciones y ciudades al borde del mar. La costa funcionó como un ámbito defensivo, peligroso e insalubre durante siglos donde el mar modulaba el frente costero sin grandes interacciones con un entorno prácticamente deshabitado. A mediados del siglo XIX, las innovaciones técnicas y la pacificación definitiva del Mediterráneo permiten poner en valor sus características naturales y de oportunidad. Sin perder del todo su valor defensivo, el litoral resurge como recurso productivo y como lugar de ocio y disfrute de la población. El valor estratégico de la costa quedará también reflejado en el marco normativo. El derecho civil moderno recuperará el concepto de Dominio público Marítimo Terrestre a través de la Ley de Aguas de 1866 que regulará también los usos y las limitaciones en la propiedad privada litoral. Desde ese momento, las transformaciones económicas, sociales, jurídicas y ambientales van a provocar un cambio significativo en la relación entre la sociedad y la costa que dará paso a la construcción del espacio litoral que hemos heredado. Desde la triple perspectiva del litoral como sistema físico ambiental, sistema económico, productivo y cultural, y sistema administrativo y legal, el principal objetivo de la tesis será reconstruir el proceso de transformación del litoral consecuencia de la evolución en la forma de producción del espacio, de área defensiva a recurso productivo, y desde mediados del siglo XIX hasta principios del siglo XXI. Sin embargo, la construcción del litoral no ha sido homogénea ni constante a lo largo del tiempo. Ha estado sujeta a los distintos vaivenes económicos y sociales pero también a los cambios en el modelo territorial definido por el marco legal vigente, así como a los reajustes del propio sistema físico. Como instrumento sociopolítico, el marco legal regula las presiones del sistema económico sobre el medio, apostando por una visión frente a otra, y posibilitando el grado de transformación final. Así, el conocimiento sobre el territorio en el que se interviene y la definición del modelo de litoral por parte de los poderes públicos irán configurando el espacio físico, económico y social desarrollado en la costa. Para la reconstrucción del proceso de construcción del litoral, la tesis define cuatro fases diferentes y aplica las hipótesis y la metodología a la costa de Cartagena. Se presenta gráficamente la evolución en los tres sistemas en cada una de las fases, y se recompone el relato histórico a través de los hitos más relevantes para el proceso. En cada una de las fases, el nuevo modelo intentará dar respuesta a todo aquello que no funcionó o se quedó a medias en el periodo anterior. Las crisis económicas provocan la ralentización de la actividad productiva y, consecuentemente, de las transformaciones en el territorio. Servirán para establecer, en principio, un cambio de paradigma en la lectura y gestión del litoral que acabará traduciéndose en un nuevo texto legislativo en materia de costas (1969, 1988 y 2013). La reforma de la normativa responde a una nueva forma de entender, ordenar, gestionar e intervenir en el territorio, donde se modulan las pautas pero también la intensidad en la intervención. Pero nace condicionada por el litoral heredado: los derechos generados durante la vigencia del marco legal anterior; el modelo económico y sus presiones y expectativas sobre el litoral; y el medio físico en el que se acumulan los procesos de degradación no resueltos y los nuevos riesgos. Así, las conclusiones de la tesis ponen de manifiesto la necesidad de una visión compleja e integral sobre el litoral, en la que el urbanismo y la ordenación del territorio serán fundamentales para afrontar los nuevos retos en su construcción a futuro. ABSTRACT The littoral has been throughout history an important source of economic resources and a strategic point for the defense of territory. Trade, fishing or salt industry have led to the formation of towns and cities on the edge of the sea. The coast served as a defensive, dangerous and unhealthy place where the sea modulated for centuries the waterfront without major interactions with a virtually uninhabited environment. In the mid-nineteenth century, technical innovations and the final pacification of the Mediterranean allowed to value its natural features and opportunities. Without entirely losing its defensive value, the coast emerges as a productive resource and as a place of leisure and enjoyment of people. The strategic value of the coast will also be reflected in the legal framework. The concept of maritime-terrestrial public domain will be recovered by the modern civil law and the law of waters of 1866 governs the uses and limitations of private ownership of the coast. Since then, the economic, social, legal and environmental changes will to cause a significant change in the relationship between society and the coast that will give way to the construction of littoral space inherited. From the triple perspective of the littoral as a physical environmental system, an economic, productive and cultural system, and an administrative and legal system, the main objective of the thesis is to rebuild its process of transformation, as a result of the evolution in the way that space is produced, from defensive zone to productive resource, and from the middle of the nineteenth century until the beginning of the twenty-first century. However, the construction of the coast has not been uniform nor constant over time. It has been subject to different economic and social fluctuations and also to changes in the territorial model defined by the legal framework in force, as well as to readjustments of the physical system itself. As socio-political instrument, the legal framework regulates the pressure of the economic system on the environment, it bets on a vision over another and facilitates the final degree of transformation. Thus, the knowledge on the territory that is being intervened and the definition of the model of shoreline by public authorities will configure the physical, economic and social space developed on the coast. For the reconstruction of the littoral building process, the thesis defines four different phases and applies the hypothesis and methodology to the coast of Cartagena. It introduces graphically the evolution of the three systems in each of the phases and it recomposes the historical account through of the most important milestones for the process. In each phase, the new model will attempt to answer everything that did not work or was half in the previous period. Economic crises cause a slowdown in productive activity and, consequently, in the changes of territory. They serve to establish, in principle, a paradigm shift for reading and managing the littoral, eventually resulting in new legal texts on coasts matter (1969, 1988 and 2013). The reform of legislation responds to a new way for understanding, arranging, managing and intervening on the territory, where the guidelines and also the intervention intensity are modulated. But it is born conditioned by the inherited coast: the rights generated under previous legal framework; the economic model and its pressures and expectations on the littoral; and the physical environment which accumulates degradation processes unresolved and new risks. Thus, the thesis conclusions highlight the need for a complex and comprehensive view on the littoral, where urban planning and land-use planning will be key to meet the future challenges in its construction.