35 resultados para metodologías activas
Resumo:
Las metodologías para el desarrollo de productos se han convertido en herramientas de vital importancia en el ámbito del desarrollo software debido a que su implantación nos permite estructurar, planificar y controlar el proceso de desarrollo completo de un determinado proyecto y obtener como resultado un producto final exitoso. Por tanto, la elección de una metodología para su implantación en una determinada empresa, es un proceso que requiere especial atención, ya que del éxito o el fracaso de su establecimiento dependerán en gran medida los resultados de los diversos procesos de desarrollo de esa entidad. El trabajo de fin de grado extractado en este documento, tiene como objetivo principal realizar un estudio sobre algunas de las diversas metodologías basadas en líneas de productos software (LPS) presentes en el mercado, tales como el modelo TWIN, el modelo WATCH, el modelo ESPLEP o el modelo SEI. Dicho estudio y la posterior comparativa de los modelos, persigue el propósito de adaptar y concretar alguna de estas metodologías al ciclo de vida de desarrollo habitual en el mercado de la ingeniería de software y más concretamente a los productos desarrollados por la empresa everis. Sin embargo, tras la realización de la comparativa, se llego a la conclusión de que las diferentes características que ofrecen las metodologías a estudio, no satisfacen por completo las necesidades específicas demandadas por everis. Por este motivo, al no poder adaptar ninguno de los modelos, el objetivo principal paso a ser la creación de una metodología propia que aunara las características más importantes de cada uno de los modelos estudiados y se compaginara con las particularidades proporcionadas por el modelo COM exclusivo de everis, obteniendo como resultado un modelo propio de desarrollo ágil, basado en líneas de productos software. Por último, una vez creada la nueva metodología, se buscaba alcanzar dos objetivos finales. El primero es la realización de un pequeño estudio con el propósito de conocer las diversas herramientas “open source” que puedan servir como base o apoyo para la metodología. Y el segundo, realizar un estudio de aplicabilidad del nuevo modelo en un proyecto simulado con el fin de comprobar su efectividad.
Resumo:
La tesis destaca la influencia que ejerció la teoría, las técnicas y la metodología de proyecto de los principales tratados de la época renacentista en la concepción, diseño y realización de algunos de los más importantes jardines de la época. Los tratados de Vitruvio, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio establecen una nueva estética y una nueva visión del mundo, basadas en la geometría elemental y en los números simples. En la Grecia antigua, Platón y Pitágoras intuyeron la necesidad existencial del hombre de apoyarse en unas leyes seguras de orden superior. Sus teorías sobre las leyes del Universo son retomadas y aplicadas en el arte y en el jardín por Vitruvio y por los tratadistas del Renacimiento. Según los tratadistas, la estética es el núcleo generador del que se activan la información y las leyes hacia todos los campos del conocimiento y de la vida social y, por lo tanto, la finalidad de los tratados es buscar, a través de un procedimiento científico y racional, las reglas de la belleza. Las leyes estéticas formuladas por los tratadistas examinados se aplican con el mismo rigor y respeto ya sea al paisaje que al jardín, exaltando el elemento natural al igual que el construido (la ciudad y la arquitectura). De los tratados renacentistas se han extraídos términos y conceptos que ayudan a revalorizar, reinterpretar e integrar en el debate los temas del paisaje y del jardín. La tesis sostiene que: 1) una idea moderna de jardín se tiene que fundar en la historia; 2) que la historia es indispensable incluso para enfrentar el problema del mantenimiento y de la restauración de los jardines históricos; 3) que la teoría y las ideas que tienen valor, así como nos enseña Alberti, producen obras que también tienen valor; 4) la influencia de la estética de los tratadistas se encuentra incluso en algunos importantes jardines de época moderna y contemporánea. El capítulo 1 contiene la definición de tratado y la concepción estética del Renacimiento, analizada por medio de: a) la idea de ciencia y b) a través de las pinturas. Los capítulos 2 y 3 contienen respectivamente los principios teóricos de los tratados y el diseño, la metodología, las técnicas constructivas y los métodos de representación del proyecto según los tratadistas. Estos capítulos resultan propedéuticos de los capítulos siguientes por proporcionar el instrumento de lectura e interpretación de los jardines renacentistas y modernos. El capítulo 4 destaca la gran influencia de los tratados sobre las villas y jardines renacentistas y describe sus elementos. El último capítulo, el quinto, contiene un análisis de algunos jardines modernos. Entre ellos: Chiswick, la Villa “I Tatti”, Sutton Place, y la Villa “Il Roseto” que renuevan y prosiguen, en nuestra opinión, la lección de los tratadistas. El primer anexo contiene la propuesta de líneas de investigación que surgen a la luz de la tesis, y el segundo anexo contiene las noticias biográficas de los tratadistas examinados. ABSTRACT The thesis investigates the influence exercised by the theory, techniques and project methodology contained in the most relevant essays on art and architecture of the Renaissance on the concept, design and making of some of the most important gardens of that time. The essays of Vitruvius, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio established a new concept of aesthetics and a vision of the world based on basic geometry and simple numbers. In ancient Greece, Plato and Pythagoras understood that humans needed “superior laws” to anchor their existences. Their theories on laws of the Universe were adopted and applied in art and gardening by Vitruvius and Renaissance essays authors. According to the authors of these essays, aesthetics represents the core generating information and laws that branch out toward all the fields of knowledge and social life. Therefore, the purpose of art and architecture essays consists in exploring, through a scientific and rational process, the rules of beauty. The laws of aesthetics proposed by the authors apply to landscaping and gardening with the same rigor and exalt the natural component as much as the artificial one (city and architecture). Several terms and concepts are also extracted that, despite their age, still help us to understand and enrich the contemporary debate revolving around landscaping and gardening. The thesis argues that: 1) the modern idea of gardening must be based on history; 2) history is fundamental even to address the topics of maintenance and restoration of historical gardens; 3) like Leon Battista Alberti maintains, valid theory and ideas produce valuable works; 4) the influence played by aesthetics on authors can be found in many important modern and contemporary gardens. Chapter 1 contains the definition of essay and of the Renaissance concept of aesthetics, analyzed by: a) the idea of science and 2) the analysis of some paintings of the period. Chapters 2 and 3 discuss respectively the theoretical principles of the essays and the design, methodology, construction techniques and the methods of representation of the project according to the authors. These chapters are preparatory toward the following chapters and provide us with the keys necessary to read and interpret Renaissance and modern gardens. Chapter 4 highlights the great influence exercised by those authors on the planning of important villas and gardens from the Renaissance while describing their elements. The 5th and final chapter analyzes some modern gardens among which Chiswick, Villa “I Tatti”, Sutton Place, Villa “Il Roseto”. These villas renew and in our opinion carry on the lesson of the essays written in the Renaissance. The first addendum suggests future lines of research derived from the thesis, while the second addendum contains biographical information regarding the authors examined.
Resumo:
En el presente trabajo se desarrolla una metodología para caracterizar fallas activas como fuentes sísmicas independientes en combinación con zonas sismogenéticas tipo área de cara a la estimación probabilista poissoniana de la peligrosidad sísmica. Esta metodología está basada en el reparto de la tasa de momento sísmico registrada en una región entre las fuentes potencialmente activas subyacentes (fallas activas modelizadas de forma independiente y una zonificación sismogenética), haciendo especial hincapié en regiones de sismicidad moderada y fallas de lento movimiento. Se desarrolla una aplicación de la metodología en el sureste de España, incorporando al cálculo 106 fuentes sísmicas independientes: 95 de tipo falla (catalogadas como fallas activas en la base de datos QAFI) y 11 zonas sismogenéticas de tipo área. Del mismo modo, se estima la peligrosidad sísmica con el método clásico zonificado y se comparan los resultados, analizando la influencia de la inclusión de las fallas de forma independiente en la estimación de la peligrosidad. Por último, se desarrolla una aplicación de la metodología propuesta en la estimación de la peligrosidad sísmica considerando un modelo temporal no poissoniano. La aplicación se centra en la falla de Carboneras, mostrando la repercusión que puede tener este cambio de modelo temporal en la estimación final de la peligrosidad. ABSTRACT A new methodology of seismic source characterization to be included in poissonian, probabilistic seismic hazard assessments, is developed in this work. Active faults are considered as independent seismogenic sources in combination with seismogenic area sources. This methodology is based in the distribution of the seismic moment rate recorded in a region between the potentially active underlying seismic sources that it contains (active faults modeled independently and an area-source seismic model), with special emphasis on regions with moderate seismicity and faults with slow deformation rates. An application of the methodology is carried out in the southeastern part of Spain, incorporating 106 independent seismic sources in the computations: 95 of fault type (catalogued as active faults in the Quaternary Active Fault Database, QAFI) and 11 of area-source type. At the same time, the seismic hazard is estimated following the classical area-source method. The results obtained using both methodologies (the classical one and the one proposed in this work9 are compared, analyzing the influence of the inclusion of faults as independent sources in hazard estimates. Finally, an application of the proposed methodology considering a non-poissonian time model is shown. This application is carried out in the Carboneras fault and shows the repercussion that this change of time model has in the final hazard estimates.
Resumo:
En este trabajo se presenta una experiencia sobre la aplicación de diversas metodologías de apoyo cuyo objetivo principal es ofrecer a los alumnos de la Escuela Técnica Superior de Ingenieros Navales (ETSIN) de la Universidad Politécnica de Madrid (UPM) pertenecientes a un Plan de Estudios en extinción (Plan 2002) y del que ya han dejado e recibir clases presenciales en los primeros cursos, las herramientas adecuadas por medio de la plataforma virtual Moodle, para que puedan prepararse con garantías de éxito los exámenes finales de estas asignaturas, evitando cambiar obligatoriamente de plan de estudios. Se pretende dar a conocer a los profesores de las asignaturas sin docencia, la posibilidad de diseñar una metodología con tres niveles distintos de aprendizaje, solicitar el alta en el espacio virtual de enseñanza de aquellas asignaturas que no figuren en la plataforma virtual y poner a disposición del alumno el material necesario para lograr superar la asignatura. Los objetivos principales para el alumno son posibilitar el aprendizaje autónomo mediante recursos docentes y actividades alojados en la plataforma virtual, de forma que pueda estudiar la asignatura según el nivel de seguimiento que exija la misma.
Resumo:
La evaluación de riesgos examina la prevención analizando probabilidad de que se produzca un daño en base a exposición al peligro. Diversas metodologías analizan trabajo y entorno, dependiendo del tipo de empresa, de trabajo, cantidad de trabajadores, localización, etc., evaluando independientemente riesgos específicos de seguridad, higiene, ergonomía y psicosociología. Se basan en valoraciones subjetivas de causas y consecuencias de accidentes. Como los puestos de trabajo en edificación son muy variables en el tiempo, con interdependencias y desplazamientos por la obra, se ha realizado una investigación teórico-analítica de metodologías de evaluación de riesgos laborales, proponiéndose una nueva adaptada a obras de edificación y a factores de riesgo reales. Se denomina nivel de la acción preventiva y se basa en la tolerancia del riesgo, añadiendo el factor de la realidad constructiva, y en los riesgos de complejidad de obra, entorno social y respuesta económica del contratista.
Resumo:
La documentación en los proyectos software presenta una serie de problemas que afectan a la calidad del producto y al proceso software. Con frecuencia, la documentación es considerada sólo como un volumen adicional de información disponible para la organización y el equipo de desarrollo, que ralentiza la ejecución del proyecto. En este sentido, el papel de la documentación en un proyecto se concibe como una de las actividades más costosas y que consumen más tiempo y que luego no se utiliza de forma extensiva. La documentación queda, en muchos casos, relegada a un segundo plano y es poco valorada frente a la comunicación cara a cara. Existe además una relación entre la calidad de la documentación y el proceso software. Se plantean dificultades en la adopción de buenas prácticas de proceso software y el impacto del exceso de documentación percibido por parte de los gestores de proyectos en los que se quiere abordad un programa de mejora del proceso software. Recordemos que la calidad de la documentación está muy relacionada con la utilización de la misma que puedan hacer los desarrolladores. Esta tesis aborda el problema planteando un cambio de punto de vista en el proceso software, en el que la documentación pasa de ser un sub producto de las actividades y tareas del proceso a ser el elemento que vertebra el propio proceso. En este nuevo punto de vista, la definición de los propios documentos, sus propiedades y relaciones permiten establecer y guiar procesos software de cualquier tipo. Para ello, desarrolla un metamodelo para definición de metodologías centradas en documentos. Este metamodelo se confronta con una serie atributos de calidad de la documentación software para comprobar que existe una mejora sobre estos, y, por consiguiente se mejora la calidad de la documentación software en general. Por último se utiliza este metamodelo centrado en documentos para describir una metodología ágil (Scrum) y validar la capacidad y flexibilidad del metamodelo utilizando el cambio de punto de vista sobre el proceso software planteado en esta tesis. ABSTRACT The documentation in software projects has a number of problems affecting the quality of the product and the software process. Often, documentation is considered only as an additional volume of information available to the organization and development team, which slows project execution. In this sense, the role of documentation in a project is conceived as one of the most expensive activities and more time-consuming and then not used extensively. The documentation is, in many cases, relegated to the background and is undervalued compared to face-to-face communication. There is also a relationship between the quality of the documentation and software process. There are difficulties in adopting good practices of software process and the impact of excess documentation perceived by project managers in Software Process Improvement activities. We have to remember that quality of the documentation is closely related to the use of it that can make developers. This thesis addresses the problem considering a change of view on the software process, in which the documentation happens to be a by-product of the activities and tasks of the process to be the element that structures the process itself. Through this new view, the definition of the documents themselves, their properties and relationships, allow us to establish processes and guidance for develop software of any kind. To achieve this target, a metamodel for defining document-centric methodologies has been developed. This metamodel confronts a number of quality attributes software documentation to prove that there is an improvement on these, and therefore the quality of the software documentation is improved. Finally this document-centric metamodel is used to describe an agile methodology (Scrum) to validate the capability and flexibility of the metamodel, using the proposed change of view on the software process described in this thesis.
Resumo:
Dada la importancia de conocer la humedad del suelo de forma precisa y en tiempo real, se ha realizado este trabajo de investigación cuyo objetivo principal ha sido seleccionar un Balance Hídrico del Suelo (BHS) diario y validar sus estimaciones de humedad del suelo frente a medidas obtenidas “in situ”, aplicándolo a tres emplazamientos seleccionados en la zona centro con características edáficas y climáticas diferentes, y de este modo estimar con cierta precisión la humedad del suelo como Agua Disponible (AD) para las plantas y a su vez permitir la realización de estudios climáticos. Los observatorios meteorológicos seleccionados fueron: Guadalajara/El Serranillo en la zona aluvial del río Henares; Colmenar Viejo/Base Famet en la rampa sur del Guadarrama sobre rocas metamórficas; y Radiosondeo/Madrid(Barajas) en arenas arcósicas de grano grueso. Se realizó una caracterización morfológica y un estudio de las propiedades físicas, químicas e hidrofísicas de los suelos en cada emplazamiento. El suelo de Guadalajara, Xerorthent Típico presenta una secuencia genética de horizontes (Ap-AC-C1-C2) siendo su clase textural entre franco-arenosa a franca, con menos del 2% de elementos gruesos, presencia de caliza a lo largo de todo el perfil, destacando la homogeneidad en vertical y horizontal de sus propiedades. El suelo de Colmenar, Xerorthent Dystrico, presenta una secuencia genética de horizontes (A-C-C/R) apareciendo el horizonte C/R entre 20-30 cm; y la roca aproximadamente a unos 30 cm; destacando en este perfil su acidez y el alto contenido de elementos gruesos. El suelo de Radiosondeo, Haploxeralf Típico, presenta la secuencia normal de horizontes de los alfisoles (A-Bt1-Bt2-C/Bt); destacando su heterogeneidad principalmente en el plano horizontal, con presencia del Bt a diferentes profundidades en un corto espacio longitudinal. En una primera fase de experimentación (2007-2008) se seleccionaron BHS diarios que sólo utilizaban como datos de entrada la información de variables meteorológicas y el valor del Agua Disponible Total (ADT) para cada tipo de suelo y profundidad. Se probaron BHS diarios con agotamiento exponencial y directo de la reserva, utilizando la evapotranspiración de referencia de Penman-Monteith recomendada por FAO. Al mismo tiempo que se disponía de los datos estimados de humedad de suelo mediante diferentes BHS diarios en los tres emplazamientos, también se realizó una monitorización de la humedad del suelo “in situ” mediante el método gravimétrico, con adaptación de dicha metodología a la problemática de cada suelo, para determinar en cada fecha tanto la humedad del suelo como su contenido de AD para una profundidad de 0 a 30 cm. Se tomaron en cada fecha de muestreo 5 muestras para la profundidad 0- 10 cm, otras cinco para 10-20 cm y otras cinco para 20-30 cm, realizándose el correspondiente tratamiento estadístico de los datos. El ADT se calculó a partir de los datos de capacidad de campo y punto de marchitez obtenidos en laboratorio con membrana de Richards. Los resultados de esta primera fase permitieron conocer que el BHS exponencial diario era el que mejor estimaba el AD en Guadalajara considerando la capacidad de campo a una presión de 33 kPa, mientras que en Colmenar se debían considerar para un mejor ajuste, 10 kPa en lugar de 33 kPa. En el observatorio de Radiosondeo debido a que en cada fecha de muestreo la profundidad en la que aparecía el horizonte Bt era diferente, no se pudo demostrar si el BHS exponencial diario tenía un buen comportamiento. En una segunda fase de experimentación (2009-2012) y con el objeto de aminorar los problemas encontrados en Radiosondeo para la medida de humedad del suelo por el método gravimétrico, se procedió a la instalación y utilización de diferentes sensores de medida de humedad de suelo en el mismo observatorio: TDR (time domain reflectometry - TRIME T3 de IMKO); FDR capacitivo (frecuency domain reflectometry - ECH2O EC-20 de DECAGON) y otros. Esta segunda fase de experimentación tuvo una duración de 4 años y se compararon las medidas de humedad de suelo obtenidas a partir de los sensores con las estimadas del BHS exponencial hasta una profundidad de 0 a 85 cm. En laboratorio se realizaron calibraciones específicas de los sensores TDR y FDR para cada uno de los horizontes más diferenciados del Haploxeralf Típico, utilizando diferentes tipos de regresión. Los valores de humedad de suelo con el equipo TDR, corregidos mediante la calibración específica de laboratorio, fueron los que más se ajustaron a las medidas realizadas por método gravimétrico “in situ”, por lo que se utilizó el TDR para las comparaciones con los valores obtenidos del BHS exponencial diario durante los cuatro años de esta segunda fase experimental. Se realizaron diferentes estimaciones del ADT, partiendo de datos de laboratorio y/o de datos procedentes de humedad de los sensores en campo. Los resultados mostraron de nuevo la conveniencia de utilizar el BHS exponencial diario, pero en este caso, con la estimación del ADT realizada a partir de las gráficas de los sensores. Mediante la utilización de los datos de humedad del BHS exponencial diario se han realizado comparaciones con el mismo tipo de balance pero utilizando un periodo semanal o mensual en lugar de diario, para conocer las diferencias. Los valores obtenidos con periodicidad mensual han dado valores de AD inferiores a los balances calculados semanalmente o diariamente. Por último se ha comprobado que los resultados de un BHS exponencial diario pueden complementar la información que se obtiene del Índice de Precipitación Estandarizado (SPI) y pueden mejorar el estudio de la sequía agrícola. ABSTRACT Due to the importance of a better knowledge of soil water at real time and in a more precisely way, this research work has being carried out with the main objective of selecting a daily Soil Water Balance (SWB) to estimate soil water content, and validate it in comparison to “in situ” measurements. Three locations, differing in soil and climate characteristics, were selected in central Spain in order to estimate with certain acuity soil water as plant-Available Water (AW) and to serve as a tool for the climatic studies. The selected places near meteorology stations were: Guadalajara/El Serranillo an alluvium of the Henares watershed; Colmenar Viejo/Base Famet, in the south raised area of the Guadarrama river basin, over metamorphic rocks; and Radiosondeo/Madrid (Barajas) in coarse arkosic sandstone. Morphology characterization, physical, chemical and hydrologic soil properties were studied in each area. In Guadalajara the soil is a Typic Xerorthent with a (Ap-AC-C1- C2) genetic horizon sequence, loam-sandy to loam textural class, less than 2% of rock fragments, presence of equivalent CaCO3 through the whole profile, outstanding the vertical and horizontal homogeneity of the properties. In Colmenar the soil is represented by a Dystric Xerorthent with a (A-C-C/R) genetic horizon sequence, the C/R is 20-30 cm deep where rock outcrops are approximately at 30 cm; a characteristic feature of this profile is its high acidity and high rock fragments content. In Radiosondeo the soil is represented by a Typic Haploxeralf, with the usual alfisol genetic horizon sequence (A-Bt1-Bt2-C/Bt); outstanding its horizontal heterogeneity, “the variability of the Bt (clay enriched horizon) depth in short distances”. In a first experimental stage (2007-2008), the daily SWB chosen was that which only uses as input data the information from the meteorology variables and plant-Total Available Water (TAW) for each soil type and depth. Different daily SWB (with exponential or direct plant-Available Water depletion) were applied, using the Penman- Monteith reference evapotranspiration (ETo) recommended by FAO. At the same time as soil water content was estimated from the different daily SWB at the three locations, also soil water content was being monitored by “in situ” gravimetric methodology, adapting it to each soil characteristic, to determine every time soil water content and AW to a depth of 0 to 30 cm. In each sampling date, 5 samples for each depth were taken: 0-10 cm; 10-20 cm and 20-30 cm and the data were submitted to the corresponding statistical analysis. The TAW was calculated based on field capacity (FC) and permanent wilting point (PWP) data obtained from laboratory by the Richards pressure plate. Results from this first experimental stage show that the daily exponential SWB was the one which better estimated the AW in Guadalajara considering field capacity at -33 kPa, though in Colmenar, field capacity at -10 kPa must be considered instead of -33 kPa for a better estimation. In Radiosondeo due to the fact that the Bt horizon depth varied in different sampling dates, it could not be established if the daily exponential SWB had a good performance. In a second experimental stage (20019-2012) and with the objective of minimizing the problems encountered in Radiosondeo for measuring “in situ” soil water content by the gravimetric method, the installation of different sensors for measuring soil water content were established and used in the same field location: TDR (time domain reflectometry - TRIME T3 from IMKO), capacitance FDR (frecuency domain reflectometry - ECH2O EC-20 from DECAGON) and others. This second experimental stage lasted 4 years in order to compare the soil water measures from the sensors with the estimations by the exponential SWB form 0 to 85 cm soil depths. At laboratory, specific calibrations for TDR and FDR sensors of the Typic Haploxeralf more differentiated horizons were done using different types of regressions. The results showed that soil water data obtained by the TDR equipment, corrected by the specific laboratory calibration, best fitted to “in situ” gravimetric soil water measures. In this way TDR was used for comparing to the daily exponential SWB during the four years of this second experimentation stage. Various estimations for obtaining TAW were tested; based on laboratory data – and/or on the data obtained of the soil water content field sensors. Results confirmed again, the convenience of using the daily exponential SWB, though in this case, with the TAW obtained from the field sensors graphics. Soil water estimated by exponential SWB on daily basis was compared to weekly and monthly periods, in order to know their reliability. The results obtained for a monthly period gave less AW than the ones obtained in a weekly or daily period. Finally it has been proved that the results obtained from the exponential SWB in a daily bases can be used as a useful tool in order to give complementary information to the SPI (Precipitation Standardized Index) and to help in agricultural drought studies.
Resumo:
Esta tesis doctoral propone una metodología de estimación de demanda de tráfico de Internet basada en la caracterización de perfiles de usuario de Internet, con el objetivo de analizar el rendimiento y dimensionamiento de una red de acceso. Se realiza un exhaustivo análisis del estado del arte clasificado en tres partes. La primera parte se encuentra relacionada con la caracterización de usuarios en Internet. Incluye un estudio de las metodologías de extracción de conocimiento basado en técnicas de minería de datos, y un análisis de modelos teóricos y estudios previos de usuarios de Internet. En la segunda parte, se incluye un análisis de modelos teóricos para caracterizar fuentes de tráfico de aplicaciones de Internet, así como un estudio comparativo de los modelos de tráfico ON/OFF para un conjunto de aplicaciones representativas de Internet. En la última parte, se incluye un estudio de las arquitecturas de redes de acceso más relevantes y se propone un modelo genérico de arquitectura de red de acceso. Esta tesis doctoral define un marco metodológico basado en Procesos de Descubrimiento de Conocimiento (KDPs), con el que extraer, identificar y caracterizar, a los usuarios de Internet a partir de fuentes de información estadística. Se ha aplicado esta metodología a los usuarios residenciales en España y se ha identificado una distinción clara entre No-Usuarios (47%) y Usuarios de Internet (53%). Dentro de los usuarios de Internet se han extraído 4 perfiles de usuarios: Esporádicos (16%), Instrumentales (10%), Sociales (14%) y Avanzados (13%). Esta metodología también ha sido aplicada a años anteriores con el fin de realizar un pronóstico de la evolución de la tipología de usuarios de Internet en España. A continuación, se propone un método de estimación de demanda de tráfico basado en los perfiles de usuario de Internet identificados, con el objetivo de analizar el rendimiento de la red de acceso subyacente. Esta metodología se encuentra basada en 3 modelos: red de acceso, tráfico de red y perfiles de usuario y aplicaciones. Por último, la tesis presenta un modelo y una herramienta de simulación con la que se implementa el método de estimación de demanda anteriormente descrito. El modelo y la herramienta de simulación han sido validados frente a un modelo analítico mediante el uso de un escenario simplificado basado en fuentes de tráfico ON/OFF homogéneas. Mediante el uso de la herramienta de simulación desarrollada, se aplica la metodología de estimación de demanda a dos casos de uso, que se corresponden a dos escenarios de redes de acceso idénticas, a excepción de la caracterización de los usuarios de la misma. En el primer caso de uso, la red de acceso se caracteriza por los perfiles de usuario residenciales de Internet identificados para el año 2012, y en el segundo caso de uso, se utiliza el pronóstico de evolución de perfiles de usuario de Internet para el año 2017. Se concluye con una comparación del rendimiento de la red de acceso para ambos casos de uso, a partir del análisis del Grado de Servicio (GoS) de ambos escenarios.
Resumo:
Exposición de análisis, evaluación y diagnóstico de edificios municipales con la participación de personas con discapacidad cognitiva formadas como técnicos de apoyo. Desarrollo de un proyecto basado en las necesidades de los ciudadanos y la introducción de un lenguaje basado en iconos internacionales (pictogramas, colores, bandas de encaminamiento)
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.
Resumo:
The development of this Master's Thesis is aimed at modeling active for estimating seismic hazard in Haití failures. It has been used zoned probabilistic method, both classical and hybrid, considering the incorporation of active faults as independent units in the calculation of seismic hazard. In this case, the rate of seismic moment is divided between the failures and the area seismogenetic same region. Failures included in this study are the Septentrional, Matheux and Enriquillo fault. We compared the results obtained by both methods to determine the importance of considering the faults in the calculation. In the first instance, updating the seismic catalog, homogenization, completeness analysis and purification was necessary to obtain a catalog ready to proceed to the estimation of the hazard. With the seismogenic zoning defined in previous studies and the updated seismic catalog, they are obtained relations Gutenberg-Richter recurrence of seismicity, superficial and deep in each area. Selected attenuation models were those used in (Benito et al., 2011), as the tectonic area of study is very similar to that of Central America. Its implementation has been through the development of a logical in which each branch is multiplied by an index based on the relevance of each combination of models. Results are presented as seismic hazard maps for return periods of 475, 975 and 2475 years, and spectral acceleration (SA) in structural periods: 0.1 - 0.2 - 0.5 - 1.0 and 2.0 seconds, and the difference accelerations between maps obtained by the classical method and the hybrid method. Maps realize the importance of including faults as separate items in the calculation of the hazard. The morphology of the zoned maps presented higher values in the area where the superficial and deep zone overlap. In the results it can determine that the minimum values in the zoned approach they outweigh the hybrid method, especially in areas where there are no faults. Higher values correspond to those obtained in fault zones by the hybrid method understanding that the contribution of the faults in this method is very important with high values. The maximum value of PGA obtained is close to Septentrional in 963gal, near to 460 gal in Matheux, and the Enriquillo fault line value reaches 760gal PGA in the Eastern segment and Western 730gal in the segment. This compares with that obtained in the zoned approach in this area where the value of PGA obtained was 240gal. These values are compared with those obtained by Frankel et al., (2011) with those have much similarity in values and morphology, in contrast to those presented by Benito et al., (2012) and the Standard Seismic Dominican Republic
Resumo:
En la presente Tesis se ha llevado a cabo el contraste y desarrollo de metodologías que permitan mejorar el cálculo de las avenidas de proyecto y extrema empleadas en el cálculo de la seguridad hidrológica de las presas. En primer lugar se ha abordado el tema del cálculo de las leyes de frecuencia de caudales máximos y su extrapolación a altos periodos de retorno. Esta cuestión es de gran relevancia, ya que la adopción de estándares de seguridad hidrológica para las presas cada vez más exigentes, implica la utilización de periodos de retorno de diseño muy elevados cuya estimación conlleva una gran incertidumbre. Es importante, en consecuencia incorporar al cálculo de los caudales de diseño todas la técnicas disponibles para reducir dicha incertidumbre. Asimismo, es importante hacer una buena selección del modelo estadístico (función de distribución y procedimiento de ajuste) de tal forma que se garantice tanto su capacidad para describir el comportamiento de la muestra, como para predecir de manera robusta los cuantiles de alto periodo de retorno. De esta forma, se han realizado estudios a escala nacional con el objetivo de determinar el esquema de regionalización que ofrece mejores resultados para las características hidrológicas de las cuencas españolas, respecto a los caudales máximos anuales, teniendo en cuenta el numero de datos disponibles. La metodología utilizada parte de la identificación de regiones homogéneas, cuyos límites se han determinado teniendo en cuenta las características fisiográficas y climáticas de las cuencas, y la variabilidad de sus estadísticos, comprobando posteriormente su homogeneidad. A continuación, se ha seleccionado el modelo estadístico de caudales máximos anuales con un mejor comportamiento en las distintas zonas de la España peninsular, tanto para describir los datos de la muestra como para extrapolar a los periodos de retorno más altos. El proceso de selección se ha basado, entre otras cosas, en la generación sintética de series de datos mediante simulaciones de Monte Carlo, y el análisis estadístico del conjunto de resultados obtenido a partir del ajuste de funciones de distribución a estas series bajo distintas hipótesis. Posteriormente, se ha abordado el tema de la relación caudal-volumen y la definición de los hidrogramas de diseño en base a la misma, cuestión que puede ser de gran importancia en el caso de presas con grandes volúmenes de embalse. Sin embargo, los procedimientos de cálculo hidrológico aplicados habitualmente no tienen en cuenta la dependencia estadística entre ambas variables. En esta Tesis se ha desarrollado un procedimiento para caracterizar dicha dependencia estadística de una manera sencilla y robusta, representando la función de distribución conjunta del caudal punta y el volumen en base a la función de distribución marginal del caudal punta y la función de distribución condicionada del volumen respecto al caudal. Esta última se determina mediante una función de distribución log-normal, aplicando un procedimiento de ajuste regional. Se propone su aplicación práctica a través de un procedimiento de cálculo probabilístico basado en la generación estocástica de un número elevado de hidrogramas. La aplicación a la seguridad hidrológica de las presas de este procedimiento requiere interpretar correctamente el concepto de periodo de retorno aplicado a variables hidrológicas bivariadas. Para ello, se realiza una propuesta de interpretación de dicho concepto. El periodo de retorno se entiende como el inverso de la probabilidad de superar un determinado nivel de embalse. Al relacionar este periodo de retorno con las variables hidrológicas, el hidrograma de diseño de la presa deja de ser un único hidrograma para convertirse en una familia de hidrogramas que generan un mismo nivel máximo en el embalse, representados mediante una curva en el plano caudal volumen. Esta familia de hidrogramas de diseño depende de la propia presa a diseñar, variando las curvas caudal-volumen en función, por ejemplo, del volumen de embalse o la longitud del aliviadero. El procedimiento propuesto se ilustra mediante su aplicación a dos casos de estudio. Finalmente, se ha abordado el tema del cálculo de las avenidas estacionales, cuestión fundamental a la hora de establecer la explotación de la presa, y que puede serlo también para estudiar la seguridad hidrológica de presas existentes. Sin embargo, el cálculo de estas avenidas es complejo y no está del todo claro hoy en día, y los procedimientos de cálculo habitualmente utilizados pueden presentar ciertos problemas. El cálculo en base al método estadístico de series parciales, o de máximos sobre un umbral, puede ser una alternativa válida que permite resolver esos problemas en aquellos casos en que la generación de las avenidas en las distintas estaciones se deba a un mismo tipo de evento. Se ha realizado un estudio con objeto de verificar si es adecuada en España la hipótesis de homogeneidad estadística de los datos de caudal de avenida correspondientes a distintas estaciones del año. Asimismo, se han analizado los periodos estacionales para los que es más apropiado realizar el estudio, cuestión de gran relevancia para garantizar que los resultados sean correctos, y se ha desarrollado un procedimiento sencillo para determinar el umbral de selección de los datos de tal manera que se garantice su independencia, una de las principales dificultades en la aplicación práctica de la técnica de las series parciales. Por otra parte, la aplicación practica de las leyes de frecuencia estacionales requiere interpretar correctamente el concepto de periodo de retorno para el caso estacional. Se propone un criterio para determinar los periodos de retorno estacionales de forma coherente con el periodo de retorno anual y con una distribución adecuada de la probabilidad entre las distintas estaciones. Por último, se expone un procedimiento para el cálculo de los caudales estacionales, ilustrándolo mediante su aplicación a un caso de estudio. The compare and develop of a methodology in order to improve the extreme flow estimation for dam hydrologic security has been developed. First, the work has been focused on the adjustment of maximum peak flows distribution functions from which to extrapolate values for high return periods. This has become a major issue as the adoption of stricter standards on dam hydrologic security involves estimation of high design return periods which entails great uncertainty. Accordingly, it is important to incorporate all available techniques for the estimation of design peak flows in order to reduce this uncertainty. Selection of the statistical model (distribution function and adjustment method) is also important since its ability to describe the sample and to make solid predictions for high return periods quantiles must be guaranteed. In order to provide practical application of previous methodologies, studies have been developed on a national scale with the aim of determining a regionalization scheme which features best results in terms of annual maximum peak flows for hydrologic characteristics of Spanish basins taking into account the length of available data. Applied methodology starts with the delimitation of regions taking into account basin’s physiographic and climatic characteristics and the variability of their statistical properties, and continues with their homogeneity testing. Then, a statistical model for maximum annual peak flows is selected with the best behaviour for the different regions in peninsular Spain in terms of describing sample data and making solid predictions for high return periods. This selection has been based, among others, on synthetic data series generation using Monte Carlo simulations and statistical analysis of results from distribution functions adjustment following different hypothesis. Secondly, the work has been focused on the analysis of the relationship between peak flow and volume and how to define design flood hydrographs based on this relationship which can be highly important for large volume reservoirs. However, commonly used hydrologic procedures do not take statistical dependence between these variables into account. A simple and sound method for statistical dependence characterization has been developed by the representation of a joint distribution function of maximum peak flow and volume which is based on marginal distribution function of peak flow and conditional distribution function of volume for a given peak flow. The last one is determined by a regional adjustment procedure of a log-normal distribution function. Practical application is proposed by a probabilistic estimation procedure based on stochastic generation of a large number of hydrographs. The use of this procedure for dam hydrologic security requires a proper interpretation of the return period concept applied to bivariate hydrologic data. A standard is proposed in which it is understood as the inverse of the probability of exceeding a determined reservoir level. When relating return period and hydrological variables the only design flood hydrograph changes into a family of hydrographs which generate the same maximum reservoir level and that are represented by a curve in the peak flow-volume two-dimensional space. This family of design flood hydrographs depends on the dam characteristics as for example reservoir volume or spillway length. Two study cases illustrate the application of the developed methodology. Finally, the work has been focused on the calculation of seasonal floods which are essential when determining the reservoir operation and which can be also fundamental in terms of analysing the hydrologic security of existing reservoirs. However, seasonal flood calculation is complex and nowadays it is not totally clear. Calculation procedures commonly used may present certain problems. Statistical partial duration series, or peaks over threshold method, can be an alternative approach for their calculation that allow to solve problems encountered when the same type of event is responsible of floods in different seasons. A study has been developed to verify the hypothesis of statistical homogeneity of peak flows for different seasons in Spain. Appropriate seasonal periods have been analyzed which is highly relevant to guarantee correct results. In addition, a simple procedure has been defined to determine data selection threshold on a way that ensures its independency which is one of the main difficulties in practical application of partial series. Moreover, practical application of seasonal frequency laws requires a correct interpretation of the concept of seasonal return period. A standard is proposed in order to determine seasonal return periods coherently with the annual return period and with an adequate seasonal probability distribution. Finally a methodology is proposed to calculate seasonal peak flows. A study case illustrates the application of the proposed methodology.
Resumo:
El desarrollo de la Ingeniería Civil en el siglo XXI debe estar dirigido a proporcionar de forma simultánea tanto las necesidades funcionales del proyecto como la conservación y sostenibilidad del territorio. Para que este proceso se pueda realizar de forma eficiente debe integrarse a los promotores (públicos y privados), a la administración y a los ciudadanos y sus asociaciones en el mecanismo de gestión y documentación del proyecto. Las directrices de la Unión Europea y el nuevo marco legislativo actual (Ley 21/2013) está orientado en esta dirección, pero las herramientas que estamos utilizando en este momento no cumplen adecuadamente estas necesidades. La norma UNE 157921:2006 y sucesivas debería renovarse contemplando tanto el nuevo marco legislativo como sobre todo la nueva realidad tecnológica para la gestión de la documentación técnica y científica mediante los lenguajes extensibles, la integración de bases de datos, las herramientas de participación social y las herramientas de protección y conservación del territorio todo ello a lo largo del ciclo de vida del proyecto En esta tesis vamos a presentar los trabajos que estamos realizando de análisis y propuesta de metodologías para la normalización de los informes de evaluación ambiental. que permita la gestión, documentación y participación social ABSTRACT The development of Civil Engineering in the XXI century should be leading towards a simultaneous sustenance of both the functional needs of the project, and the conservation and sustainability of the territory. Public and private promoters should collaborate with administration, citizens and their associations in the management mechanism and project documentation, in order to perform this process efficiently. The guidelines of the European Union and the current legislative framework (Law 21/2013) are oriented towards this, but the tools which are being used at the moment do not adequately meet the mentioned needs. The UNE 157921: 2006 and successive should be renewed in order to contemplate both the new legislative framework and the new technological reality for the management of technical and scientific documentation by the extensible languages, integration of databases, tools of social participation and tools protection and conservation of land all along the project life cycle. The analysis and proposal of different methodologies for the standardisation of environmental assessment reports, which admits for the correct management, documentation and social participation, will be presented in this paper.
Resumo:
El presente estudio se fundamenta en la investigación-acción-participativa (IAP), para buscar alternativas que tiendan al desarrollo local de un territorio. Se centra en la cuenca hidrográfica del rio Manglaralto-Santa Elena-Ecuador, aplicando un sistema metodológico participativo que considera las características peculiares del territorio, que se analizan geoespacialmente reconociendo la influencia de la dinámica de sus cambios y observando los móviles que la propiciaban. A través de mecanismos participativos, se conectan los aspectos técnicos para el conocimiento y el aprovechamiento racional del acuífero costero, con los valores de los habitantes del territorio, para mejorar su abastecimiento de agua y crear nuevas condiciones y oportunidades en el camino del desarrollo local, vislumbrando la sostenibilidad. Cabe indicar que el ente administrativo y propulsor es la Junta de Agua Potable Regional Manglaralto (JAPRM). La hipótesis del estudio considera, que los métodos participativos generan en la comunidad una respuesta basada en su identidad y sus deseos de mejorar, que propiciará una gestión del acuífero costero que conlleve al desarrollo local. Otra hipótesis complementaria estipula que las estrategias del gobierno respecto al turismo propicia un crecimiento en la demanda del agua del acuífero. En Manglaralto-Ecuador, una parroquia de 30.000 habitantes aproximadamente, donde la JAPRM, administra y suministra agua a 23.586 habitantes que cuenta en su organización, llevada por 6 representantes de las comunidades rurales que la conforman, empezaron hace 7 años a buscar una forma de lograr un cambio, de tener agua para el desarrollo de la comunidad. Buscaron ayuda por diferentes medios, políticos, económicas, sociales y encontraron como base fundamental a la cooperación con el Organismo Internacional de Energía Atómica (OIEA) y la Escuela Superior Politécnica del Litoral (ESPOL) para entrelazar aspectos técnicos, ambientales, sociales y culturales. La gestión del acuífero costero, desde la perspectiva del IAP repercute en el desarrollo de Manglaralto. También se realiza un análisis geoespacial-geoestadístico, para vislumbrar aspectos de cambios en el territorio ligados al crecimiento turístico, que afectan a la demanda del recurso agua proveniente del acuífero costero bajo la administración de la JAPRM. La tesis presenta el modelo integral y propio de la comunidad de Manglaralto, que refleja una evolución que alcanzó un apogeo en 2011 y parte del 2012, con 9 pozos de agua que daban servicio los 365 días del año, 24 horas al día ininterrumpidamente. Las condiciones externas (promociones turísticas de la ruta del Spondylus) han repercutido en nuevas problemáticas (crecimiento elevado de la demanda del agua). El acuífero costero se convierte en el emblema y móvil de solución, gracias a la gestión integral y a la interacción IAP que se amolda a la evolución de las condiciones, buscando soluciones para la comunidad y su entorno. El modelo integral del territorio con la participación de sus pobladores, considera el aspecto turístico, como un agente que propicia la mayor demanda del agua. Situación a la que hay que dar respuesta mediante la observación-reflexión en el ciclo del IAP para generar nuevas directrices estratégicas y gestionar el desarrollo local. ABSTRACT The present study is based on the participatory action research (PAR) methodology in order to look for alternatives which tend to the local development of a territory. It focuses on the Manglaralto hydrographic river basin located in Santa Elena-Ecuador through the application of the participatory methodology which considers the peculiar characteristics of the territory. These are geospatially analyzed recognizing the influence of its dynamic of changes and observing the causes that originated them. Through the use of participatory mechanisms, technical aspects are connected for stimulating knowledge and rational use of the coastal aquifer with the values of inhabitants of the territory to improve the water supply and create new conditions of sustainability. It is important to point out that the administrative organism and promoter is the Manglaralto Regional Fresh Water Board (JAPRM). In Manglaralto-Ecuador, a parish of approximately 30,000 inhabitants, the MRFWB manages and supplies water to 23.586 inhabitants. This organization is composed by 6 representatives of rural communities. It started 7 years ago looking for a way to achieve a change, from obtaining water to developing the community. They seeked for help in different fields such as: political, economic and social and they found International Atomic Energy Agency (IAEA) and Escuela Superior Politécnica del Litoral (ESPOL) as a fundamental basis for cooperation to bond technical, environmental, social and cultural aspects. Management of coastal aquifer, from the PAR perspective affects the development of Manglaralto. Also, a geospatial and geostatistical analysis is carried out to distinguish change aspects in territories related to touristy growth which affects the demand of water obtained from the coastal aquifer under the management of the MRFWB. The thesis presents a comprehensive model that belongs to the Manglaralto community and reveals an evolution that reached a peak in 2011 and part of 2012, with 9 water wells that operated the 365 days of the year 24 hours a day without interruption. The external conditions (touristic packages of Spondylus route) have created new problems (higher demand of water). The coastal aquifer is a symbol and solution, thanks to the comprehensive management and PAR interaction which fits the evolution of conditions, looking for solutions for the community and its surroundings. The comprehensive model of territory with the participation of inhabitants considers the touristic aspect as an agent which brings about a higher demand of water. This situation requests a response through the observation-reflection in the PAR cycle to generate new strategic guidelines and promote the local development.
Resumo:
Contexto: La adopción y adaptación de las metodologías ágiles ha sido objeto de estudio en la comunidad y diversas aproximaciones han sido propuestas como solución al problema. La mayoría de las organizaciones comienzan introduciendo prácticas ágiles de manera progresiva, las cuales, junto a las buenas prácticas ya existentes, conforman una nueva metodología ágil adaptada. El problema más importante con el que se enfrentan las organizaciones al adaptar una metodología ágil, son las necesidades específicas del contexto de cada proyecto, porque a pesar de haber definido la adaptación de la metodología en base a las buenas prácticas y procesos existentes en la organización, las condiciones particulares del proyecto y del equipo que lo va a desarrollar, exigen adaptaciones específicas. Otro aspecto importante a resolver es el poder implantar esta adopción y adaptación en toda la organización. Las metodologías ágiles no incluyen actividades que asistan a las organizaciones a solucionar este problema, porque su esfuerzo lo centran en el equipo y el proyecto. Objetivo: El objetivo principal de este trabajo de investigación consiste en “definir un marco de trabajo de adaptación de metodologías ágiles orientado a contextos que permita su implantación en toda la organización a través de ciclos de mejora basados en la reutilización de experiencias adquiridas”. Este marco de trabajo permitirá organizar, gestionar y validar la adaptación de las metodologías ágiles, desplegando en toda la organización las experiencias adquiridas, incorporando pequeñas mejoras en el proceso, y facilitando su reutilización. Todo esto, con el apoyo de la alta dirección. Método: Este trabajo se inició con una investigación exploratoria acompañada de una revisión sistemática para conocer el estado del arte del objeto de estudio, detectando las principales carencias y necesidades de resolución, a partir de las cuales, se delimitó el alcance del problema. Posteriormente, se definieron las hipótesis de investigación y se planteó una solución al problema a través de la definición del marco de trabajo, cuyos resultados fueron evaluados y validados a través de la realización de un caso de estudio. Finalmente, se obtuvieron las conclusiones y se establecieron las líneas futuras de investigación. Resolución: El marco de trabajo presenta una alternativa de adaptación de las metodologías ágiles orientada a contextos, y facilita su implantación en toda la organización. El marco de trabajo idéntica los contextos en los que se desarrollan los proyectos y analiza la causa de los problemas que afectan a la consecución de los objetivos de negocio en cada contexto. Posteriormente, identifica las acciones de adaptación requeridas para reducir o eliminar estas causas y las incorpora en la definición de la metodología ágil, creando de esta manera, una metodología adaptada para cada contexto manteniendo un nivel de agilidad aceptable. Cuando se inicia un nuevo proyecto, se identifica su contexto y se aplica la metodología ágil adaptada definida para dicho contexto. Al final de cada iteración, se analizan las medidas obtenidas y se las compara con la media aplicando una técnica para la evaluación de la consecución de los objetivos. En base a esta comparativa, y a la experiencia adquirida por el equipo, se realizan ajustes en las acciones de adaptación para intentar conseguir una mejora en la siguiente iteración. Una vez finalizado el proyecto, se conoce el impacto de los resultados conseguidos y se puede determinar si se ha alcanzado una mejora en el contexto del proyecto. De ser así, la metodología adaptada es almacenada en un repositorio de experiencias para poder ser reutilizada por otros equipos de desarrollo de la organización. Resultados: El trabajo de investigación fue evaluado y validado satisfactoriamente a través de su experimentación en un caso de estudio, aprobando las hipótesis establecidas. Los aportes y principales resultados de esta investigación son: Definición de un marco de trabajo integral de adaptación de metodologías ágiles, con capacidad de facilitar su implantación en toda la organización. Procedimiento para identificar contextos o escenarios de adaptación. Procedimiento para definir unidades de adaptación a partir de los inhibidores de los objetivos de negocio de la organización. Técnica para analizar la consecución de objetivos en propuestas de mejora de procesos. Conclusiones: Son tres las ventajas principales que han quedado evidenciadas durante la realización del trabajo de investigación: El marco de trabajo proporciona un mecanismo capaz de optimizar el rendimiento de la metodología ágil adaptada al orientar el proceso a las necesidades específicas del contexto del proyecto. El marco de trabajo permite conservar el conocimiento empírico adquirido por el equipo de desarrollo al registrarlo como experiencia adquirida para la organización. El marco de trabajo optimiza y reduce los tiempos del proceso de implantación de la metodología ágil adaptada en otros equipos de la organización. ABSTRACT Context: The adoption and tailoring of agile methods has been studied in the community and various approaches have been proposed as a solution. Most organizations start introducing agile practices gradually, which ones, together with existing good practices, make a new agile method tailored. When an organization starts to adapt an agile method, the context-specific needs of each project are the main trouble, because even though the agile method tailored has been defined based on best practices and processes in the organization, the specific conditions of the project and its team, require specific adaptations. Another important aspect to be solved is to implement this adoption and adaptation throughout all the organization. Agile methods do not include specific activities for helping organizations to solve this problem, because their effort is focused on the team and the project. Objective: The main objective of this research is to “define a tailoring framework for agile methods oriented to contexts that allows its deployment throughout all the organization using improvement cycles based on the reuse of lessons learned”. This framework will allow organize, manage and validate the tailoring of agile methods, adding small improvements in the process, and facilitating reuse. All this, with the support of senior management. Method: This work began with an exploratory investigation accompanied by a systematic review to determine the state of the art about the object of study, after major gaps and needs resolution were identified, and the scope of the problem was delimited. Subsequently, the research hypotheses were defined and the framework was developed for solving the research problem. The results were evaluated and validated through a case study. Finally, conclusions were drawn and future research were established. Resolution The framework presents an alternative for tailoring agile methodologies and facilitates its implementation throughout all the organization. The framework identifies the contexts or scenarios in which software development projects are developed and analyses the causes of the problems affecting the achievement of business goals in each context. Then the adaptation actions required to reduce or eliminate these causes are defined and incorporated into the definition of agile method. Thus, a method tailored for each context is created. When a new project is started, the context in which it will be developed is identified and the tailored agile method to that context is applied. At the end of each iteration of the project, the measurements obtained are analysed and compared with the historical average of context to analyse the improvement in business goals. Based on this comparison, and the experience gained by the project team, adjustments are made in adaptation actions to try to achieve an improvement in the next iteration. Once the project is completed, the impact of the achieved results are known and it can determine if it has reached an improvement in the context of the project. If so, the tailored agile method is stored in a repository of experiences to be reused by other development teams in the organization. Results The goal of this research was successfully evaluated and validated through experimentation in a case study, so the research hypotheses were approved. The contributions and main results of this research are: A framework for tailoring agile methods, that allows its deployment throughout all the organization. A procedure for identifying adaptation scenarios or contexts. A procedure for defining adaptation units from inhibitors of the business goals of the organization. A technique for analysing the achievement of goals in process improvement proposals. Conclusions: There are three main advantages that have been highlighted during the research: The framework provides a mechanism to optimize the performance of agile methods because it guides the process based on the specific needs of the project context. The framework preserves the empirical knowledge acquired by the development team because it registers this empirical knowledge as experience for the organization. The framework streamlines and shortens the process of deploying the tailored agile method to other teams in your organization.