930 resultados para Cuartel de la Montaña 4-F
Resumo:
El cambio climático global se presenta como un sensible aumento de las temperaturas medias a nivel global. Las investigaciones recientes estiman que, en el oeste Argentino particularmente en la provincia de Mendoza, se presentará como una inminente reducción en las dotaciones de agua. Todos los agentes sociales y en particular los agentes sociales implicados en el sistema agrícolaproductivo se verán afectados de manera diferencial. Entre estos agentes, los poderosos protagonistas de la 'nueva vitivinicultura' se han instalado en lo alto de la montaña con fincas sumamente tecnificadas, viñedos de altísima performance y mercados asegurados por sus vinculaciones internacionales. De este modo, y en términos técnicos, se aseguran aguas de buena calidad, cantidades adecuadas, y climas frescos (esto es especialmente importante ante un escenario de aumento promedio de las temperaturas). En términos individuales esta estrategia resulta muy beneficiosa para poderosos agentes involucrados en este campo. Dichos agentes, que se adaptaron o nacieron del proceso de reconversión productiva de los años '90, resultan grandes estrategas ante escenarios cambiantes, sin embargo, esta estrategia (si bien tiene en cuenta factores de largo plazo como el cambio climático) no constituye una racionalidad novedosa. Por el contrario, su estrategia de adaptación al cambio climático se basa en la profundización de la racionalidad instrumental propia de agentes empresarios
Resumo:
El bicentenario argentino es una buena oportunidad para analizar las propuestas de educación política producidas en tiempos de la emancipación y en el primer centenario. La pedagogía ilustrada propiciaba una educación crítica, aunque tuvo pocos efectos prácticos, pues sus propósitos quedaron truncos por las guerras. La pedagogía del centenario enfatizó el compromiso cívico como lealtad a la patria mediante dispositivos institucionales de homogeneización y moldeamiento de las emociones para afirmar la identidad nacional. En el presente, es conveniente revisar la vigencia de ambos postulados, redefinir su legitimidad y alcances, al mismo tiempo que incluir el desarrollo de la creatividad como virtud política.
Resumo:
Índice
Resumo:
Antecedentes Europa vive una situación insostenible. Desde el 2008 se han reducido los recursos de los gobiernos a raíz de la crisis económica. El continente Europeo envejece con ritmo constante al punto que se prevé que en 2050 habrá sólo dos trabajadores por jubilado [54]. A esta situación se le añade el aumento de la incidencia de las enfermedades crónicas, relacionadas con el envejecimiento, cuyo coste puede alcanzar el 7% del PIB de un país [51]. Es necesario un cambio de paradigma. Una nueva manera de cuidar de la salud de las personas: sustentable, eficaz y preventiva más que curativa. Algunos estudios abogan por el cuidado personalizado de la salud (pHealth). En este modelo las prácticas médicas son adaptadas e individualizadas al paciente, desde la detección de los factores de riesgo hasta la personalización de los tratamientos basada en la respuesta del individuo [81]. El cuidado personalizado de la salud está asociado a menudo al uso de las tecnologías de la información y comunicación (TICs) que, con su desarrollo exponencial, ofrecen oportunidades interesantes para la mejora de la salud. El cambio de paradigma hacia el pHealth está lentamente ocurriendo, tanto en el ámbito de la investigación como en la industria, pero todavía no de manera significativa. Existen todavía muchas barreras relacionadas a la economía, a la política y la cultura. También existen barreras puramente tecnológicas, como la falta de sistemas de información interoperables [199]. A pesar de que los aspectos de interoperabilidad están evolucionando, todavía hace falta un diseño de referencia especialmente direccionado a la implementación y el despliegue en gran escala de sistemas basados en pHealth. La presente Tesis representa un intento de organizar la disciplina de la aplicación de las TICs al cuidado personalizado de la salud en un modelo de referencia, que permita la creación de plataformas de desarrollo de software para simplificar tareas comunes de desarrollo en este dominio. Preguntas de investigación RQ1 >Es posible definir un modelo, basado en técnicas de ingeniería del software, que represente el dominio del cuidado personalizado de la salud de una forma abstracta y representativa? RQ2 >Es posible construir una plataforma de desarrollo basada en este modelo? RQ3 >Esta plataforma ayuda a los desarrolladores a crear sistemas pHealth complejos e integrados? Métodos Para la descripción del modelo se adoptó el estándar ISO/IEC/IEEE 42010por ser lo suficientemente general y abstracto para el amplio enfoque de esta tesis [25]. El modelo está definido en varias partes: un modelo conceptual, expresado a través de mapas conceptuales que representan las partes interesadas (stakeholders), los artefactos y la información compartida; y escenarios y casos de uso para la descripción de sus funcionalidades. El modelo fue desarrollado de acuerdo a la información obtenida del análisis de la literatura, incluyendo 7 informes industriales y científicos, 9 estándares, 10 artículos en conferencias, 37 artículos en revistas, 25 páginas web y 5 libros. Basándose en el modelo se definieron los requisitos para la creación de la plataforma de desarrollo, enriquecidos por otros requisitos recolectados a través de una encuesta realizada a 11 ingenieros con experiencia en la rama. Para el desarrollo de la plataforma, se adoptó la metodología de integración continua [74] que permitió ejecutar tests automáticos en un servidor y también desplegar aplicaciones en una página web. En cuanto a la metodología utilizada para la validación se adoptó un marco para la formulación de teorías en la ingeniería del software [181]. Esto requiere el desarrollo de modelos y proposiciones que han de ser validados dentro de un ámbito de investigación definido, y que sirvan para guiar al investigador en la búsqueda de la evidencia necesaria para justificarla. La validación del modelo fue desarrollada mediante una encuesta online en tres rondas con un número creciente de invitados. El cuestionario fue enviado a 134 contactos y distribuido en algunos canales públicos como listas de correo y redes sociales. El objetivo era evaluar la legibilidad del modelo, su nivel de cobertura del dominio y su potencial utilidad en el diseño de sistemas derivados. El cuestionario incluía preguntas cuantitativas de tipo Likert y campos para recolección de comentarios. La plataforma de desarrollo fue validada en dos etapas. En la primera etapa se utilizó la plataforma en un experimento a pequeña escala, que consistió en una sesión de entrenamiento de 12 horas en la que 4 desarrolladores tuvieron que desarrollar algunos casos de uso y reunirse en un grupo focal para discutir su uso. La segunda etapa se realizó durante los tests de un proyecto en gran escala llamado HeartCycle [160]. En este proyecto un equipo de diseñadores y programadores desarrollaron tres aplicaciones en el campo de las enfermedades cardio-vasculares. Una de estas aplicaciones fue testeada en un ensayo clínico con pacientes reales. Al analizar el proyecto, el equipo de desarrollo se reunió en un grupo focal para identificar las ventajas y desventajas de la plataforma y su utilidad. Resultados Por lo que concierne el modelo que describe el dominio del pHealth, la parte conceptual incluye una descripción de los roles principales y las preocupaciones de los participantes, un modelo de los artefactos TIC que se usan comúnmente y un modelo para representar los datos típicos que son necesarios formalizar e intercambiar entre sistemas basados en pHealth. El modelo funcional incluye un conjunto de 18 escenarios, repartidos en: punto de vista de la persona asistida, punto de vista del cuidador, punto de vista del desarrollador, punto de vista de los proveedores de tecnologías y punto de vista de las autoridades; y un conjunto de 52 casos de uso repartidos en 6 categorías: actividades de la persona asistida, reacciones del sistema, actividades del cuidador, \engagement" del usuario, actividades del desarrollador y actividades de despliegue. Como resultado del cuestionario de validación del modelo, un total de 65 personas revisó el modelo proporcionando su nivel de acuerdo con las dimensiones evaluadas y un total de 248 comentarios sobre cómo mejorar el modelo. Los conocimientos de los participantes variaban desde la ingeniería del software (70%) hasta las especialidades médicas (15%), con declarado interés en eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), medicina personalizada (5%), sistemas basados en pHealth (15%), informática médica (10%) e ingeniería biomédica (8%) con una media de 7.25_4.99 años de experiencia en estas áreas. Los resultados de la encuesta muestran que los expertos contactados consideran el modelo fácil de leer (media de 1.89_0.79 siendo 1 el valor más favorable y 5 el peor), suficientemente abstracto (1.99_0.88) y formal (2.13_0.77), con una cobertura suficiente del dominio (2.26_0.95), útil para describir el dominio (2.02_0.7) y para generar sistemas más específicos (2_0.75). Los expertos también reportan un interés parcial en utilizar el modelo en su trabajo (2.48_0.91). Gracias a sus comentarios, el modelo fue mejorado y enriquecido con conceptos que faltaban, aunque no se pudo demonstrar su mejora en las dimensiones evaluadas, dada la composición diferente de personas en las tres rondas de evaluación. Desde el modelo, se generó una plataforma de desarrollo llamada \pHealth Patient Platform (pHPP)". La plataforma desarrollada incluye librerías, herramientas de programación y desarrollo, un tutorial y una aplicación de ejemplo. Se definieron cuatro módulos principales de la arquitectura: el Data Collection Engine, que permite abstraer las fuentes de datos como sensores o servicios externos, mapeando los datos a bases de datos u ontologías, y permitiendo interacción basada en eventos; el GUI Engine, que abstrae la interfaz de usuario en un modelo de interacción basado en mensajes; y el Rule Engine, que proporciona a los desarrolladores un medio simple para programar la lógica de la aplicación en forma de reglas \if-then". Después de que la plataforma pHPP fue utilizada durante 5 años en el proyecto HeartCycle, 5 desarrolladores fueron reunidos en un grupo de discusión para analizar y evaluar la plataforma. De estas evaluaciones se concluye que la plataforma fue diseñada para encajar las necesidades de los ingenieros que trabajan en la rama, permitiendo la separación de problemas entre las distintas especialidades, y simplificando algunas tareas de desarrollo como el manejo de datos y la interacción asíncrona. A pesar de ello, se encontraron algunos defectos a causa de la inmadurez de algunas tecnologías empleadas, y la ausencia de algunas herramientas específicas para el dominio como el procesado de datos o algunos protocolos de comunicación relacionados con la salud. Dentro del proyecto HeartCycle la plataforma fue utilizada para el desarrollo de la aplicación \Guided Exercise", un sistema TIC para la rehabilitación de pacientes que han sufrido un infarto del miocardio. El sistema fue testeado en un ensayo clínico randomizado en el cual a 55 pacientes se les dio el sistema para su uso por 21 semanas. De los resultados técnicos del ensayo se puede concluir que, a pesar de algunos errores menores prontamente corregidos durante el estudio, la plataforma es estable y fiable. Conclusiones La investigación llevada a cabo en esta Tesis y los resultados obtenidos proporcionan las respuestas a las tres preguntas de investigación que motivaron este trabajo: RQ1 Se ha desarrollado un modelo para representar el dominio de los sistemas personalizados de salud. La evaluación hecha por los expertos de la rama concluye que el modelo representa el dominio con precisión y con un balance apropiado entre abstracción y detalle. RQ2 Se ha desarrollado, con éxito, una plataforma de desarrollo basada en el modelo. RQ3 Se ha demostrado que la plataforma es capaz de ayudar a los desarrolladores en la creación de software pHealth complejos. Las ventajas de la plataforma han sido demostradas en el ámbito de un proyecto de gran escala, aunque el enfoque genérico adoptado indica que la plataforma podría ofrecer beneficios también en otros contextos. Los resultados de estas evaluaciones ofrecen indicios de que, ambos, el modelo y la plataforma serán buenos candidatos para poderse convertir en una referencia para futuros desarrollos de sistemas pHealth. ABSTRACT Background Europe is living in an unsustainable situation. The economic crisis has been reducing governments' economic resources since 2008 and threatening social and health systems, while the proportion of older people in the European population continues to increase so that it is foreseen that in 2050 there will be only two workers per retiree [54]. To this situation it should be added the rise, strongly related to age, of chronic diseases the burden of which has been estimated to be up to the 7% of a country's gross domestic product [51]. There is a need for a paradigm shift, the need for a new way of caring for people's health, shifting the focus from curing conditions that have arisen to a sustainable and effective approach with the emphasis on prevention. Some advocate the adoption of personalised health care (pHealth), a model where medical practices are tailored to the patient's unique life, from the detection of risk factors to the customization of treatments based on each individual's response [81]. Personalised health is often associated to the use of Information and Communications Technology (ICT), that, with its exponential development, offers interesting opportunities for improving healthcare. The shift towards pHealth is slowly taking place, both in research and in industry, but the change is not significant yet. Many barriers still exist related to economy, politics and culture, while others are purely technological, like the lack of interoperable information systems [199]. Though interoperability aspects are evolving, there is still the need of a reference design, especially tackling implementation and large scale deployment of pHealth systems. This thesis contributes to organizing the subject of ICT systems for personalised health into a reference model that allows for the creation of software development platforms to ease common development issues in the domain. Research questions RQ1 Is it possible to define a model, based on software engineering techniques, for representing the personalised health domain in an abstract and representative way? RQ2 Is it possible to build a development platform based on this model? RQ3 Does the development platform help developers create complex integrated pHealth systems? Methods As method for describing the model, the ISO/IEC/IEEE 42010 framework [25] is adopted for its generality and high level of abstraction. The model is specified in different parts: a conceptual model, which makes use of concept maps, for representing stakeholders, artefacts and shared information, and in scenarios and use cases for the representation of the functionalities of pHealth systems. The model was derived from literature analysis, including 7 industrial and scientific reports, 9 electronic standards, 10 conference proceedings papers, 37 journal papers, 25 websites and 5 books. Based on the reference model, requirements were drawn for building the development platform enriched with a set of requirements gathered in a survey run among 11 experienced engineers. For developing the platform, the continuous integration methodology [74] was adopted which allowed to perform automatic tests on a server and also to deploy packaged releases on a web site. As a validation methodology, a theory building framework for SW engineering was adopted from [181]. The framework, chosen as a guide to find evidence for justifying the research questions, imposed the creation of theories based on models and propositions to be validated within a scope. The validation of the model was conducted as an on-line survey in three validation rounds, encompassing a growing number of participants. The survey was submitted to 134 experts of the field and on some public channels like relevant mailing lists and social networks. Its objective was to assess the model's readability, its level of coverage of the domain and its potential usefulness in the design of actual, derived systems. The questionnaires included quantitative Likert scale questions and free text inputs for comments. The development platform was validated in two scopes. As a small-scale experiment, the platform was used in a 12 hours training session where 4 developers had to perform an exercise consisting in developing a set of typical pHealth use cases At the end of the session, a focus group was held to identify benefits and drawbacks of the platform. The second validation was held as a test-case study in a large scale research project called HeartCycle the aim of which was to develop a closed-loop disease management system for heart failure and coronary heart disease patients [160]. During this project three applications were developed by a team of programmers and designers. One of these applications was tested in a clinical trial with actual patients. At the end of the project, the team was interviewed in a focus group to assess the role the platform had within the project. Results For what regards the model that describes the pHealth domain, its conceptual part includes a description of the main roles and concerns of pHealth stakeholders, a model of the ICT artefacts that are commonly adopted and a model representing the typical data that need to be formalized among pHealth systems. The functional model includes a set of 18 scenarios, divided into assisted person's view, caregiver's view, developer's view, technology and services providers' view and authority's view, and a set of 52 Use Cases grouped in 6 categories: assisted person's activities, system reactions, caregiver's activities, user engagement, developer's activities and deployer's activities. For what concerns the validation of the model, a total of 65 people participated in the online survey providing their level of agreement in all the assessed dimensions and a total of 248 comments on how to improve and complete the model. Participants' background spanned from engineering and software development (70%) to medical specialities (15%), with declared interest in the fields of eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), Personalized Medicine (5%), Personal Health Systems (15%), Medical Informatics (10%) and Biomedical Engineering (8%) with an average of 7.25_4.99 years of experience in these fields. From the analysis of the answers it is possible to observe that the contacted experts considered the model easily readable (average of 1.89_0.79 being 1 the most favourable scoring and 5 the worst), sufficiently abstract (1.99_0.88) and formal (2.13_0.77) for its purpose, with a sufficient coverage of the domain (2.26_0.95), useful for describing the domain (2.02_0.7) and for generating more specific systems (2_0.75) and they reported a partial interest in using the model in their job (2.48_0.91). Thanks to their comments, the model was improved and enriched with concepts that were missing at the beginning, nonetheless it was not possible to prove an improvement among the iterations, due to the diversity of the participants in the three rounds. From the model, a development platform for the pHealth domain was generated called pHealth Patient Platform (pHPP). The platform includes a set of libraries, programming and deployment tools, a tutorial and a sample application. The main four modules of the architecture are: the Data Collection Engine, which allows abstracting sources of information like sensors or external services, mapping data to databases and ontologies, and allowing event-based interaction and filtering, the GUI Engine, which abstracts the user interface in a message-like interaction model, the Workow Engine, which allows programming the application's user interaction ows with graphical workows, and the Rule Engine, which gives developers a simple means for programming the application's logic in the form of \if-then" rules. After the 5 years experience of HeartCycle, partially programmed with pHPP, 5 developers were joined in a focus group to discuss the advantages and drawbacks of the platform. The view that emerged from the training course and the focus group was that the platform is well-suited to the needs of the engineers working in the field, it allowed the separation of concerns among the different specialities and it simplified some common development tasks like data management and asynchronous interaction. Nevertheless, some deficiencies were pointed out in terms of a lack of maturity of some technological choices, and for the absence of some domain-specific tools, e.g. for data processing or for health-related communication protocols. Within HeartCycle, the platform was used to develop part of the Guided Exercise system, a composition of ICT tools for the physical rehabilitation of patients who suffered from myocardial infarction. The system developed using the platform was tested in a randomized controlled clinical trial, in which 55 patients used the system for 21 weeks. The technical results of this trial showed that the system was stable and reliable. Some minor bugs were detected, but these were promptly corrected using the platform. This shows that the platform, as well as facilitating the development task, can be successfully used to produce reliable software. Conclusions The research work carried out in developing this thesis provides responses to the three three research questions that were the motivation for the work. RQ1 A model was developed representing the domain of personalised health systems, and the assessment of experts in the field was that it represents the domain accurately, with an appropriate balance between abstraction and detail. RQ2 A development platform based on the model was successfully developed. RQ3 The platform has been shown to assist developers create complex pHealth software. This was demonstrated within the scope of one large-scale project, but the generic approach adopted provides indications that it would offer benefits more widely. The results of these evaluations provide indications that both the model and the platform are good candidates for being a reference for future pHealth developments.
Resumo:
Revisada y concluida por el P. Miquel Bartolome Salon aparece en la pag. [4]
Resumo:
Med Capital Partners (MCP en adelante) es un empresa de asesoramiento financiero independiente (EAFI) que ofrecerá servicios de asesoramiento personalizado tanto a clientes particulares como a empresas, complementando su oferta con otros servicios auxiliares, que le permitan brindar a sus clientes una solución integral. MCP ha sido fundada por tres socios con formación y experiencia específica en el ámbito objeto del negocio, pero multidisciplinar para ofrecer un amplio espectro de servicios de calidad tanto en la Región de Murcia, donde va a establecer su sede, como en el resto de territorio nacional. MCP se crea con la firme misión de ofrecer servicios de asesoramiento y consulta financieros para la gestión y planificación patrimonial de calidad, de forma independiente y transparente y con la motivación de ser el médico de cabecera financiero de familias, particulares y empresas de todos los ámbitos, basándonos en arraigados valores entre los que predominan la transparencia, la independencia y la discreción. Una vez analizados los factores externos y haber realizado los planes de marketing, operaciones y financiero, nos encontramos en disposición de determinar que: 1.Existe un gran número de clientes potenciales. 2.Los factores político, social y legal favorecen la creación de este tipo de empresas. 3.Hay pocos competidores establecidos hasta la fecha. 4.No necesita complicadas infraestructuras ni requiere elevados gastos de aprovisionamiento. 5.Desde el año 2, se obtienen resultados positivos. La propuesta de valor de MCP está focalizada en ofrecer un servicio de calidad al menor precio posible, fijando una política de tarifas inferior a la media nacional y a la de nuestros competidores más cercanos, así como un esquema de precios descendentes para aquellos clientes que depositen su confianza en nosotros y renueven su contrato de asesoramiento continuado o contraten un combo de servicios. En términos operativos, el establecimiento de MCP requiere relativamente poco capital inicial, permitiendo ofrecer los primeros dividendos a los socios en un corto espacio temporal y teniendo desde el primer momento, un sueldo que les permita dedicarse plenamente al funcionamiento de MCP. En definitiva, creemos que MCP puede dar respuesta a una gran oportunidad de negocio existente en un sector en alza y en un mercado de arranque en el que hay una gran riqueza y poca cultura de inversión asesorada. ---ABSTRACT---Med Capital Partners (MCP) is an invest services company, which is established according to an EAFI structure. MCP will offer a custom-made service not only to individual clients but also to enterprises, with a wide range of supplementary services, including industrial strategy projects and all kind of financial processes demanded. MCP has been founded by three partners with proved training and specific experience based on the financial field but multitask and different between them, in order to offer various quality services in Región de Murcia, where it is going to be based, and also all around Spain. MCP is built with the firm mission of offering assessment and financial consulting quality services, helping with the patrimonial management and planning, doing it in an independent and transparent way, and always driving by the motivation of being the family doctor of individual and enterprise of sectors. To make it possible, MCP has deep values as excellence, wisdom and discretion. Once we have analyzed external factors and having made marketing, operations and financial plans, we are ready to determinate: 1.There is a big amount of potential customers. 2.Political, social and legal factors favor the formation of this type of business. 3.There are not many established competitors until now. 4.MCP does not need complex infrastructures either raised initial investment. 5.From year 2 and on, MCP is profitable. The value proposition of MCP is to focus on developing quality services with affordable fees, fixing a price policy under any other Spanish EAFI. MCP wants to build processes according to reality, working with reachable expectations and on real times. MCP is committed to the creation of stable, sustainable and consistent structures to adapt themselves to the individual risk profile of the customers, taking care of all of them. MCP wants to build a close relationship with clients and has developed a descending fee policy. MCP establishment does not require high initial resources and it is profitable in a short time, allowing investors to get their first dividends. Summarizing, we can say MCP is the answer of a big business opportunity within a rising and wealth market that only need a little help to emerge.
Resumo:
An architecture of light and shadows is proposed for this airport for the twenty-first century. A great concrete and stone box to frame the incredible view south towards a red mountain that rests Sphinx-like over the Atlantic. = Se propone para este aeropuerto para el siglo XXI una arquitectura construída con la luz y con las sombras. Una gran caja de hormigón que enmarca un maravilloso paisaje: el océano atlántico al sur con la montaña roja que se acuesta sobre el mar como si de una esfinge se tratara.
Self assembled and ordered group III nitride nanocolumnar structures for light emitting applications
Resumo:
El objetivo de este trabajo es un estudio profundo del crecimiento selectivo de nanoestructuras de InGaN por epitaxia de haces moleculares asistido por plasma, concentrandose en el potencial de estas estructuras como bloques constituyentes en LEDs de nueva generación. Varias aproximaciones al problema son discutidas; desde estructuras axiales InGaN/GaN, a estructuras core-shell, o nanoestructuras crecidas en sustratos con orientaciones menos convencionales (semi polar y no polar). La primera sección revisa los aspectos básicos del crecimiento auto-ensamblado de nanocolumnas de GaN en sustratos de Si(111). Su morfología y propiedades ópticas son comparadas con las de capas compactas de GaN sobre Si(111). En el caso de las columnas auto-ensambladas de InGaN sobre Si(111), se presentan resultados sobre el efecto de la temperatura de crecimiento en la incorporación de In. Por último, se discute la inclusión de nanodiscos de InGaN en las nanocolumnas de GaN. La segunda sección revisa los mecanismos básicos del crecimiento ordenado de nanoestructuras basadas en GaN, sobre templates de GaN/zafiro. Aumentando la relación III/V localmente, se observan cambios morfológicos; desde islas piramidales, a nanocolumnas de GaN terminadas en planos semipolares, y finalmente, a nanocolumnas finalizadas en planos c polares. Al crecer nanodiscos de InGaN insertados en las nanocolumnas de GaN, las diferentes morfologias mencionadas dan lugar a diferentes propiedades ópticas de los nanodiscos, debido al diferente carácter (semi polar o polar) de los planos cristalinos involucrados. La tercera sección recoge experimentos acerca de los efectos que la temperatura de crecimiento y la razón In/Ga tienen en la morfología y emisión de nanocolumnas ordenadas de InGaN crecidas sobre templates GaN/zafiro. En el rango de temperaturas entre 650 y 750 C, la incorporacion de In puede modificarse bien por la temperatura de crecimiento, o por la razón In/Ga. Controlar estos factores permite la optimización de la longitud de onda de emisión de las nanocolumnas de InGaN. En el caso particular de la generación de luz blanca, se han seguidos dos aproximaciones. En la primera, se obtiene emisión amarilla-blanca a temperatura ambiente de nanoestructuras donde la región de InGaN consiste en un gradiente de composiciones de In, que se ha obtenido a partir de un gradiente de temperatura durante el crecimiento. En la segunda, el apilamiento de segmentos emitiendo en azul, verde y rojo, consiguiendo la integración monolítica de estas estructuras en cada una de las nanocolumnas individuales, da lugar a emisores ordenados con un amplio espectro de emisión. En esta última aproximación, la forma espectral puede controlarse con la longitud (duración del crecimiento) de cada uno de los segmentos de InGaN. Más adelante, se presenta el crecimiento ordenado, por epitaxia de haces moleculares, de arrays de nanocolumnas que son diodos InGaN/GaN cada una de ellas, emitiendo en azul (441 nm), verde (502 nm) y amarillo (568 nm). La zona activa del dispositivo consiste en una sección de InGaN, de composición constante nominalmente y longitud entre 250 y 500 nm, y libre de defectos extendidos en contraste con capas compactas de InGaN de similares composiciones y espesores. Los espectros de electroluminiscencia muestran un muy pequeño desplazamiento al azul al aumentar la corriente inyectada (desplazamiento casi inexistente en el caso del dispositivo amarillo), y emisiones ligeramente más anchas que en el caso del estado del arte en pozos cuánticos de InGaN. A continuación, se presenta y discute el crecimiento ordenado de nanocolumnas de In(Ga)N/GaN en sustratos de Si(111). Nanocolumnas ordenadas emitiendo desde el ultravioleta (3.2 eV) al infrarrojo (0.78 eV) se crecieron sobre sustratos de Si(111) utilizando una capa compacta (“buffer”) de GaN. La morfología y eficiencia de emisión de las nanocolumnas emitiendo en el rango espectral verde pueden ser mejoradas ajustando las relaciones In/Ga y III/N, y una eficiencia cuántica interna del 30% se deriva de las medidas de fotoluminiscencia en nanocolumnas optimizadas. En la siguiente sección de este trabajo se presenta en detalle el mecanismo tras el crecimiento ordenado de nanocolumnas de InGaN/GaN emitiendo en el verde, y sus propiedades ópticas. Nanocolumnas de InGaN/GaN con secciones largas de InGaN (330-830 nm) se crecieron tanto en sustratos GaN/zafiro como GaN/Si(111). Se encuentra que la morfología y la distribución espacial del In dentro de las nanocolumnas dependen de las relaciones III/N e In/Ga locales en el frente de crecimiento de las nanocolumnas. La dispersión en el contenido de In entre diferentes nanocolumnas dentro de la misma muestra es despreciable, como indica las casi identicas formas espectrales de la catodoluminiscencia de una sola nanocolumna y del conjunto de ellas. Para las nanocolumnas de InGaN/GaN crecidas sobre GaN/Si(111) y emitiendo en el rango espectral verde, la eficiencia cuántica interna aumenta hasta el 30% al disminuir la temperatura de crecimiento y aumentar el nitrógeno activo. Este comportamiento se debe probablemente a la formación de estados altamente localizados, como indica la particular evolución de la energía de fotoluminiscencia con la temperatura (ausencia de “s-shape”) en muestras con una alta eficiencia cuántica interna. Por otro lado, no se ha encontrado la misma dependencia entre condiciones de crecimiento y efiencia cuántica interna en las nanoestructuras InGaN/GaN crecidas en GaN/zafiro, donde la máxima eficiencia encontrada ha sido de 3.7%. Como alternativa a las nanoestructuras axiales de InGaN/GaN, la sección 4 presenta resultados sobre el crecimiento y caracterización de estructuras core-shell de InGaN/GaN, re-crecidas sobre arrays de micropilares de GaN fabricados por ataque de un template GaN/zafiro (aproximación top-down). El crecimiento de InGaN/GaN es conformal, con componentes axiales y radiales en el crecimiento, que dan lugar a la estructuras core-shell con claras facetas hexagonales. El crecimiento radial (shell) se ve confirmado por medidas de catodoluminiscencia con resolución espacial efectuadas en un microscopio electrónico de barrido, asi como por medidas de microscopía de transmisión de electrones. Más adelante, el crecimiento de micro-pilares core-shell de InGaN se realizó en pilares GaN (cores) crecidos selectivamente por epitaxia de metal-orgánicos en fase vapor. Con el crecimiento de InGaN se forman estructuras core-shell con emisión alrededor de 3 eV. Medidas de catodoluminiscencia resuelta espacialmente indican un aumento en el contenido de indio del shell en dirección a la parte superior del pilar, que se manifiesta en un desplazamiento de la emisión de 3.2 eV en la parte inferior, a 3.0 eV en la parte superior del shell. Este desplazamiento está relacionado con variaciones locales de la razón III/V en las facetas laterales. Finalmente, se demuestra la fabricación de una estructura pin basada en estos pilares core-shell. Medidas de electroluminiscencia resuelta espacialmente, realizadas en pilares individuales, confirman que la electroluminiscencia proveniente del shell de InGaN (diodo lateral) está alrededor de 3.0 eV, mientras que la emisión desde la parte superior del pilar (diodo axial) está alrededor de 2.3 eV. Para finalizar, se presentan resultados sobre el crecimiento ordenado de GaN, con y sin inserciones de InGaN, en templates semi polares (GaN(11-22)/zafiro) y no polares (GaN(11-20)/zafiro). Tras el crecimiento ordenado, gran parte de los defectos presentes en los templates originales se ven reducidos, manifestándose en una gran mejora de las propiedades ópticas. En el caso de crecimiento selectivo sobre templates con orientación GaN(11-22), no polar, la formación de nanoestructuras con una particular morfología (baja relación entre crecimiento perpedicular frente a paralelo al plano) permite, a partir de la coalescencia de estas nanoestructuras, la fabricación de pseudo-templates no polares de GaN de alta calidad. ABSTRACT The aim of this work is to gain insight into the selective area growth of InGaN nanostructures by plasma assisted molecular beam epitaxy, focusing on their potential as building blocks for next generation LEDs. Several nanocolumn-based approaches such as standard axial InGaN/GaN structures, InGaN/GaN core-shell structures, or InGaN/GaN nanostructures grown on semi- and non-polar substrates are discussed. The first section reviews the basics of the self-assembled growth of GaN nanocolumns on Si(111). Morphology differences and optical properties are compared to those of GaN layer grown directly on Si(111). The effects of the growth temperature on the In incorporation in self-assembled InGaN nanocolumns grown on Si(111) is described. The second section reviews the basic growth mechanisms of selectively grown GaNbased nanostructures on c-plane GaN/sapphire templates. By increasing the local III/V ratio morphological changes from pyramidal islands, to GaN nanocolumns with top semi-polar planes, and further to GaN nanocolumns with top polar c-planes are observed. When growing InGaN nano-disks embedded into the GaN nanocolumns, the different morphologies mentioned lead to different optical properties, due to the semipolar and polar nature of the crystal planes involved. The third section reports on the effect of the growth temperature and In/Ga ratio on the morphology and light emission characteristics of ordered InGaN nanocolumns grown on c-plane GaN/sapphire templates. Within the growth temperature range of 650 to 750oC the In incorporation can be modified either by the growth temperature, or the In/Ga ratio. Control of these factors allows the optimization of the InGaN nanocolumns light emission wavelength. In order to achieve white light emission two approaches are used. First yellow-white light emission can be obtained at room temperature from nanostructures where the InGaN region is composition-graded by using temperature gradients during growth. In a second approach the stacking of red, green and blue emitting segments was used to achieve the monolithic integration of these structures in one single InGaN nanocolumn leading to ordered broad spectrum emitters. With this approach, the spectral shape can be controlled by changing the thickness of the respective InGaN segments. Furthermore the growth of ordered arrays of InGaN/GaN nanocolumnar light emitting diodes by molecular beam epitaxy, emitting in the blue (441 nm), green (502 nm), and yellow (568 nm) spectral range is reported. The device active region, consisting of a nanocolumnar InGaN section of nominally constant composition and 250 to 500 nm length, is free of extended defects, which is in strong contrast to InGaN layers (planar) of similar composition and thickness. Electroluminescence spectra show a very small blue shift with increasing current, (almost negligible in the yellow device) and line widths slightly broader than those of state-of-the-art InGaN quantum wells. Next the selective area growth of In(Ga)N/GaN nanocolumns on Si(111) substrates is discussed. Ordered In(Ga)N/GaN nanocolumns emitting from ultraviolet (3.2 eV) to infrared (0.78 eV) were then grown on top of GaN-buffered Si substrates. The morphology and the emission efficiency of the In(Ga)N/GaN nanocolumns emitting in the green could be substantially improved by tuning the In/Ga and total III/N ratios, where an estimated internal quantum efficiency of 30 % was derived from photoluminescence data. In the next section, this work presents a study on the selective area growth mechanisms of green-emitting InGaN/GaN nanocolumns and their optical properties. InGaN/GaN nanocolumns with long InGaN sections (330-830nm) were grown on GaN/sapphire and GaN-buffered Si(111). The nanocolumn’s morphology and spatial indium distribution is found to depend on the local group (III)/N and In/Ga ratios at the nanocolumn’s top. A negligible spread of the average indium incorporation among different nanostructures is found as indicated by similar shapes of the cathodoluminescence spectra taken from single nanocolumns and ensembles of nanocolumns. For InGaN/GaN nanocolumns grown on GaN-buffered Si(111), all emitting in the green spectral range, the internal quantum efficiency increases up to 30% when decreasing growth temperature and increasing active nitrogen. This behavior is likely due to the formation of highly localized states, as indicated by the absence of a complete s-shape behavior of the PL peak position with temperature (up to room temperature) in samples with high internal quantum efficiency. On the other hand, no dependence of the internal quantum efficiency on the growth conditions is found for InGaN/GaN nanostructures grown on GaN/sapphire, where the maximum achieved efficiency is 3.7%. As alternative to axial InGaN/GaN nanostructures, section 4 reports on the growth and characterization of InGaN/GaN core-shell structures on an ordered array of top-down patterned GaN microrods etched from a GaN/sapphire template. Growth of InGaN/GaN is conformal, with axial and radial growth components leading to core-shell structures with clear hexagonal facets. The radial InGaN growth (shell) is confirmed by spatially resolved cathodoluminescence performed in a scanning electron microscopy as well as in scanning transmission electron microscopy. Furthermore the growth of InGaN core-shell micro pillars using an ordered array of GaN cores grown by metal organic vapor phase epitaxy as a template is demonstrated. Upon InGaN overgrowth core-shell structures with emission at around 3.0 eV are formed. With spatially resolved cathodoluminescence, an increasing In content towards the pillar top is found to be present in the InGaN shell, as indicated by a shift of CL peak position from 3.2 eV at the shell bottom to 3.0 eV at the shell top. This shift is related to variations of the local III/V ratio at the side facets. Further, the successful fabrication of a core-shell pin diode structure is demonstrated. Spatially resolved electroluminescence measurements performed on individual micro LEDs, confirm emission from the InGaN shell (lateral diode) at around 3.0 eV, as well as from the pillar top facet (axial diode) at around 2.3 eV. Finally, this work reports on the selective area growth of GaN, with and without InGaN insertion, on semi-polar (11-22) and non-polar (11-20) templates. Upon SAG the high defect density present in the GaN templates is strongly reduced as indicated by TEM and a dramatic improvement of the optical properties. In case of SAG on non-polar (11-22) templates the formation of nanostructures with a low aspect ratio took place allowing for the fabrication of high-quality, non-polar GaN pseudo-templates by coalescence of the nanostructures.
Resumo:
Resumen: Descripción: habitante de la montaña de Sacros de cuerpo entero y de pie. Lleva bastón y gorro
Resumo:
"Puesta en música y dedicada a la referida Colectividad por Salvador Giner"
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.