951 resultados para Su mejor alumno


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A las migraciones de intelectuales como consecuencia de la Guerra Civil española, iniciadas ya en 1936, se sumaron posteriormente las de universitarios que desarrollaron su tarea allende las fronteras. Entre ellos, Ignacio Soldevila Durante, valenciano, quien se instaló en la ciudad de Québec en 1956. Dos años antes había dirigido una carta al escritor Max Aub, del que con el tiempo se convertiría en amigo y en su mejor especialista. El epistolario Aub-Soldevila (1954-1972) pone sobre el tapete, entre otros datos, detalles biográficos y elementos relacionados con la obra del escritor y con aquellas decisivas décadas del pasado siglo; asimismo, enuncia rasgos definitorios de cuantos la guerra arrojó a las playas del éxodo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La caracterización socioeconómica de la Provincia de Santa Cruz, en el marco del subsistema regional de la Patagonia Austral, releva a los sectores económicos que componen sus respectivas estructuras de producción, así como la adaptación de la región a los cambios operados en la economía, particularmente a partir de la reestructuración de los años ochenta. El agrupamiento de sus principales sectores de acuerdo con una tipología descriptiva construida sobre la base de su temporalidad de surgimiento/desarrollo histórico ha permitido clasificarlos en " tradicionales" y "emergentes". En el primer grupo se destaca la preeminencia que ha tenido el sector agropecuario, particularmente a través de la actividad ganadera ovina. En la evolución de esta actividad se reconocen tres períodos claramente diferenciados: uno inicial de desarrollo y auge del ovino (1880-1940); otro de consolidación (1940-1980); y un tercero de declinación y crisis (1980 a 2001) cuyos años más difíciles se extendieron entre 1994 y 2000. El poblamiento de la Provincia de Santa Cruz ha estado fuertemente ligado a la actividad ganadera ovina, originada hacia 1890 de la mano de diversas corrientes migratorias apoyadas por una política nacional de ocupación territorial. Y la evolución del empleo rural provincial ha acompañado la tendencia de la actividad en cada período. Es así como creció significativamente en los años del poblamiento, se estabilizó en la consolidación y tuvo una abrupta caída a partir del comienzo de la crisis. La misma provocó, entre otras cosas, el abandono de establecimientos, la diversificación de productores que se emplearon en actividades no agropecuarias como fuente de ingresos alternativa o complementaria, y consiguientemente, una fuerte reducción de la mano de obra rural ocupada -siendo que, en su mejor época y según datos de censos nacionales y provinciales, más del 50 de la fuerza laboral provincial trabajaba en las diferentes actividades ganaderas de entonces. A partir del año 2002, e impulsada por la salida del régimen de convertibilidad, se modifica sustantivamente la rentabilidad de las explotaciones, dando comienzo a una lenta recuperación, aunque en un escenario muy distinto a los de años anteriores. Pese a una demanda sostenida, con precios en alza y con mejores resultados económicos, la pérdida de la cultura ovina tradicional y de las características de los sistemas históricos de producción y la aparición de otras actividades económicas extra agropecuarias han producido un éxodo de la oferta laboral rural hacia los centros urbanos, lo que plantea un problema que trasciende la coyuntura hacia lo estructural

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Han transcurrido diez años desde la modificación de los planes de estudios de las carreras históricas de la Facultad de Ciencias Exactas (Farmacia, Bioquímica, Química), como así también de la creación de nuevas carreras y la implementación de un ciclo básico común a la mayoría de ellas. Diez años desde que las asignaturas anuales, con examen final y teóricos optativos fueron reemplazadas por cursos teórico-prácticos semestrales y obligatorios, aprobables por promoción. El objetivo del presente trabajo fue el análisis, desde la percepción de alumnos, de ciertas problemáticas que los docentes hemos detectado en el transcurso de estos años, fundamentalmente relacionadas a la articulación de contenidos entre los ciclos básico y superior, a las consecuencias de la falta de instancias integradoras de contenidos y a otras dificultades para el aprendizaje. La metodología de trabajo consistió en la realización de una encuesta, pre-testeada en un grupo de prueba, cuyo análisis detallado permitió extraer interesantes conclusiones respecto al objetivo planteado: los alumnos notan cierta falta de articulación entre los ciclos, creen necesaria la existencia de instancias integradoras e identifican la falta de tiempo y la pedagogía de la enseñanza como los principales obstáculos para su mejor desempeño académico

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La siguiente ponencia, es una profundización de otras, presentadas en diferentes eventos académicos. A su vez, la misma, procede de la participación en dos trabajos de corte académico: la enseñanza de natación en el Profesorado de Educación Física y el ser integrante de un trabajo de investigación, que dirige la profesora María Lucía Gayol. También son motivo de mis reflexiones el estar finalizando mi Tesis de Maestría. Mediante este trabajo se intenta analizar cuáles y cómo son las metodologías de trabajo de los profesores en Educación Física que trabajan en natación. Para ello se realizará un recorrido por diferentes paradigmas y discursos, comparando y caracterizando distintas teorías de la enseñanza que tienen que ver por un lado con las tradicionales y por otro, con las más actuales, nombrando elementos que las constituyen, diferencian y las acercan. Mi preocupación por indagar acerca de las formas de enseñar esta disciplina constitutiva de la Educación Física me llevó a formularme algunas preguntas: ¿Cómo enseñar a nadar?, ¿Qué saberes seleccionan los docentes para enseñar?, ¿qué maneras o formas de enseñar caracterizan las prácticas de los docentes de natación? ¿Cómo construyen los profesores de natación su metodología de trabajo? ¿Cuáles son las teorías en las que se apoyan para dar sus prácticas? Para esta oportunidad compartiré con la audiencia, algunas reflexiones acerca de la enseñanza de esta especialidad. La práctica acuática, llamada por algunos autores "actividades acuáticas" es una práctica corporal relacionada con el dominio del medio acuático que requiere, para ser realizada, la adquisición de habilidades, por tanto se vincula con intervenciones de enseñantes y concomitantemente de aprendices. De todas las prácticas acuáticas, la más conocida ha sido la natación. También la natación es un deporte. Parlebas (1998: 371) señala que desde esta perspectiva la natación, ..."es una actividad competitiva,... (individual)...reglada e institucionalizada". Abordar la problemática de la enseñanza nos llevará a profundizar en cuestiones vinculadas con estrategias didácticas que despliega el enseñante al intervenir en el proceso de aprendizaje de su/s alumno/s. Al respecto analizaremos a las estrategias considerando la incidencia del proceso de formación profesional, su propia biografía y representaciones y configuraciones que se van construyendo en los mismos contextos en los que le toca intervenir y formar parte

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Han transcurrido diez años desde la modificación de los planes de estudios de las carreras históricas de la Facultad de Ciencias Exactas (Farmacia, Bioquímica, Química), como así también de la creación de nuevas carreras y la implementación de un ciclo básico común a la mayoría de ellas. Diez años desde que las asignaturas anuales, con examen final y teóricos optativos fueron reemplazadas por cursos teórico-prácticos semestrales y obligatorios, aprobables por promoción. El objetivo del presente trabajo fue el análisis, desde la percepción de alumnos, de ciertas problemáticas que los docentes hemos detectado en el transcurso de estos años, fundamentalmente relacionadas a la articulación de contenidos entre los ciclos básico y superior, a las consecuencias de la falta de instancias integradoras de contenidos y a otras dificultades para el aprendizaje. La metodología de trabajo consistió en la realización de una encuesta, pre-testeada en un grupo de prueba, cuyo análisis detallado permitió extraer interesantes conclusiones respecto al objetivo planteado: los alumnos notan cierta falta de articulación entre los ciclos, creen necesaria la existencia de instancias integradoras e identifican la falta de tiempo y la pedagogía de la enseñanza como los principales obstáculos para su mejor desempeño académico

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La siguiente ponencia, es una profundización de otras, presentadas en diferentes eventos académicos. A su vez, la misma, procede de la participación en dos trabajos de corte académico: la enseñanza de natación en el Profesorado de Educación Física y el ser integrante de un trabajo de investigación, que dirige la profesora María Lucía Gayol. También son motivo de mis reflexiones el estar finalizando mi Tesis de Maestría. Mediante este trabajo se intenta analizar cuáles y cómo son las metodologías de trabajo de los profesores en Educación Física que trabajan en natación. Para ello se realizará un recorrido por diferentes paradigmas y discursos, comparando y caracterizando distintas teorías de la enseñanza que tienen que ver por un lado con las tradicionales y por otro, con las más actuales, nombrando elementos que las constituyen, diferencian y las acercan. Mi preocupación por indagar acerca de las formas de enseñar esta disciplina constitutiva de la Educación Física me llevó a formularme algunas preguntas: ¿Cómo enseñar a nadar?, ¿Qué saberes seleccionan los docentes para enseñar?, ¿qué maneras o formas de enseñar caracterizan las prácticas de los docentes de natación? ¿Cómo construyen los profesores de natación su metodología de trabajo? ¿Cuáles son las teorías en las que se apoyan para dar sus prácticas? Para esta oportunidad compartiré con la audiencia, algunas reflexiones acerca de la enseñanza de esta especialidad. La práctica acuática, llamada por algunos autores "actividades acuáticas" es una práctica corporal relacionada con el dominio del medio acuático que requiere, para ser realizada, la adquisición de habilidades, por tanto se vincula con intervenciones de enseñantes y concomitantemente de aprendices. De todas las prácticas acuáticas, la más conocida ha sido la natación. También la natación es un deporte. Parlebas (1998: 371) señala que desde esta perspectiva la natación, ..."es una actividad competitiva,... (individual)...reglada e institucionalizada". Abordar la problemática de la enseñanza nos llevará a profundizar en cuestiones vinculadas con estrategias didácticas que despliega el enseñante al intervenir en el proceso de aprendizaje de su/s alumno/s. Al respecto analizaremos a las estrategias considerando la incidencia del proceso de formación profesional, su propia biografía y representaciones y configuraciones que se van construyendo en los mismos contextos en los que le toca intervenir y formar parte

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A las migraciones de intelectuales como consecuencia de la Guerra Civil española, iniciadas ya en 1936, se sumaron posteriormente las de universitarios que desarrollaron su tarea allende las fronteras. Entre ellos, Ignacio Soldevila Durante, valenciano, quien se instaló en la ciudad de Québec en 1956. Dos años antes había dirigido una carta al escritor Max Aub, del que con el tiempo se convertiría en amigo y en su mejor especialista. El epistolario Aub-Soldevila (1954-1972) pone sobre el tapete, entre otros datos, detalles biográficos y elementos relacionados con la obra del escritor y con aquellas decisivas décadas del pasado siglo; asimismo, enuncia rasgos definitorios de cuantos la guerra arrojó a las playas del éxodo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La caracterización socioeconómica de la Provincia de Santa Cruz, en el marco del subsistema regional de la Patagonia Austral, releva a los sectores económicos que componen sus respectivas estructuras de producción, así como la adaptación de la región a los cambios operados en la economía, particularmente a partir de la reestructuración de los años ochenta. El agrupamiento de sus principales sectores de acuerdo con una tipología descriptiva construida sobre la base de su temporalidad de surgimiento/desarrollo histórico ha permitido clasificarlos en " tradicionales" y "emergentes". En el primer grupo se destaca la preeminencia que ha tenido el sector agropecuario, particularmente a través de la actividad ganadera ovina. En la evolución de esta actividad se reconocen tres períodos claramente diferenciados: uno inicial de desarrollo y auge del ovino (1880-1940); otro de consolidación (1940-1980); y un tercero de declinación y crisis (1980 a 2001) cuyos años más difíciles se extendieron entre 1994 y 2000. El poblamiento de la Provincia de Santa Cruz ha estado fuertemente ligado a la actividad ganadera ovina, originada hacia 1890 de la mano de diversas corrientes migratorias apoyadas por una política nacional de ocupación territorial. Y la evolución del empleo rural provincial ha acompañado la tendencia de la actividad en cada período. Es así como creció significativamente en los años del poblamiento, se estabilizó en la consolidación y tuvo una abrupta caída a partir del comienzo de la crisis. La misma provocó, entre otras cosas, el abandono de establecimientos, la diversificación de productores que se emplearon en actividades no agropecuarias como fuente de ingresos alternativa o complementaria, y consiguientemente, una fuerte reducción de la mano de obra rural ocupada -siendo que, en su mejor época y según datos de censos nacionales y provinciales, más del 50 de la fuerza laboral provincial trabajaba en las diferentes actividades ganaderas de entonces. A partir del año 2002, e impulsada por la salida del régimen de convertibilidad, se modifica sustantivamente la rentabilidad de las explotaciones, dando comienzo a una lenta recuperación, aunque en un escenario muy distinto a los de años anteriores. Pese a una demanda sostenida, con precios en alza y con mejores resultados económicos, la pérdida de la cultura ovina tradicional y de las características de los sistemas históricos de producción y la aparición de otras actividades económicas extra agropecuarias han producido un éxodo de la oferta laboral rural hacia los centros urbanos, lo que plantea un problema que trasciende la coyuntura hacia lo estructural

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La riqueza de propiedades y posibilidades de movimiento que se derivan de la columna vertebral tomadas en su conjunto son las causas que me han estimulado, para intentar buscar más respuestas, a todas mis actuales incógnitas, que en este presente trabajo pretendo contestar, con los medios de que dispongo, y en la medida que mejor pueda. La tarea, sé de antemano que no es fácil, y no menos corta, debida a la aparente complejidad, pero creo que apoyándome en una apropiada metodología, y centrándome, única y exclusivamente en los puntos que me interesan, puedo lograr los pasos que me lleven a los objetivos finales que persigo. Después de recopilar todos los datos posibles de anatomía, que hacían referencia al raquis, me llevó un cierto tiempo, hasta llegar al ordenamiento de todas las ideas que había adquirido. Esto me hizo llegar a la conclusión de que el planteamiento más adecuado, sería, por un lado un estudio anatómico desde un punto de vista descriptivo de las diferentes partes y elementos que constituyen el eje del cuerpo, para por otro lado y posteriormente, entender mejor las distintas propiedades y funciones mecánicas de este eje raquídeo. Para realizar este trabajo hemos consultado y estudiado numerosas publicaciones de autores, anatomistas prestigiosos tanto clásicos como modernos, tratando de condensar sus teorías o sus exposiciones, que hacen referencia al tema elegido. Todo cuanto queda resumido creemos que contiene interés para cualquier profesor de Educación Física y Deportes. Mi intención no ha sido nunca sacar unas conclusiones prácticas nuevas no descubiertas; y si el de haber empleado un medio o camino a seguir que yo creo conveniente aplicarlo para obtener los datos que persigo, de este raquis tomado en conjunto. Precisamente por este enfoque de abordar el tema en conjunto, he tenido que hacer continuas citas entre los diferentes puntos del sumario,puesto que es muy difícil separar los diferentes aspectos o puntos tomados en cada apartado debido a su constante interrelación. El principal aspecto de la columna vertebral que estudiaremos es su increíble y contradictoria, doble función estótico-dinámica. Intentaremos pues en el contenido de este trabajo, adentrarnos lo más posible en el estudio de esta doble función para su mejor comprensión. Con el deseo de exponer el tema de una manera lo más racional posible, he dividido el estudio en seis capítulos. El primero en el que nos encontramos, es una breve introducción y visión en conjunto del tema. En el segundo hago una síntesis de la formación y del desarrollo de la columna vertebral, que creo de sumo interés debido a su tardío y largo proceso de osificación y formación. En el tercer capítulo realizo una descripción anatómica de todo el raquis que creo de absoluta necesidad para la comprensión de los siguientes apartados. Posteriormente se describe el raquis en conjunto, , funciones, curvaturas, movilidad, así como un breve análisis de movimientos. El quinto capítulo estudia la postura muy atrayente a mi modo de ver, derivada de la evolución de la estación bípeda, asi como algunas consideraciones muy generales de las lesiones de columna debido a su numerosa, cuantía, y por último, hago una síntesis general asi como unas conclusiones finales. Para finalizar quiero manifestar mi profundo agradecimiento al Profesor de Anatomía Dr. Anitua Solano por su entera ayuda, sin su dirección no hubiera sido posible la realización de este trabajo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente trabajo se enmarca dentro del proyecto “Operación de Autopistas Seguras, Inteligentes y Sostenibles (OASIS)”, cuyo principal objetivo es definir la autopista del futuro, aquella que en su operación presentará niveles notablemente altas de seguridad, servicio al usuario y sostenibilidad. Para lograrlo, uno de los parámetros a tener en cuenta es la conservación y optimización del paisaje por el que discurren. Esta tesis desarrolla una metodología de valoración del paisaje de las autopistas, aplicando dicha metodología a diversos tramos de las autopistas gestionadas por empresas del proyecto (OHL Concesiones, Iridium y Abertis). El estudio se ha llevado a cabo en más de 2.000 km de autopistas, identificando los diferentes paisajes vistos desde la carretera y elaborando un catálogo de fotografías digitalizadas y georreferenciadas de los paisajes; desarrollando y aplicando una novedosa metodología de valoración de la calidad del paisaje; determinando las diferencias entre el paisaje percibido desde las autopistas por medio de fotografías y mediante la utilización de mapas representativos de paisaje; identificando los elementos de diseño paisajístico (puentes, estaciones de servicio, etc.) y estableciendo alternativas para su mejor adecuación paisajística; y estimando el impacto que provocan estas infraestructuras al observarse desde fuera. Es de esperar que las conclusiones extraídas de este proyecto permitan una mejor integración paisajística de las autopistas del futuro, convirtiéndose en instrumentos para mostrar paisajes de mayor calidad, y reduciendo el impacto como elementos modificadores del territorio. Summary This work is within the framework of the project "Operation of Safe, Intelligent and Sustainable Highways (OASIS)," whose main objective is to define the highway of the future, which in its operation will present significantly high levels of safety, customer service and sustainability. To achieve this, one of the parameters to consider is landscape conservation and improvement along highways. This thesis develops a methodology for assessing the landscape of highways, applying the model to different stretches of highway managed by project companies (OHL Concessions, Iridium and Abertis). The study was carried out in more than 2.000 km of highways, identifying the different landscapes seen from the road and developing a catalog of digitized and georeferenced photographs of landscapes; developing and applying a new methodology for assessing the quality of the landscape; determining the differences between the landscape seen from highways through photographs and use of landscape maps; identifying the landscape design elements (bridges, service area, etc.) and providing alternatives for better landscape; and integration estimating the impact that cause these infrastructures when viewed from outside. It is expected that the conclusions extract from this project allow to better landscape integrate of the future highways, become instruments to show higher quality landscapes, reducing the impact as modifiers´ elements of the territory.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente proyecto parte de un programa utilizado en las prácticas de laboratorio en la asignatura Antenas y Compatibilidad Electromagnética del sexto semestre llamado SABOR, que pretende ser actualizado para que en las nuevas versiones de los sistemas operativos ofrecidos por la compañía Windows pueda ser operativo. El objetivo principal será diseñar e implementar nuevas funcionalidades así como desarrollar mejoras y corregir errores del mismo. Para su mejor entendimiento se ha creado una herramienta en entorno MATLAB para analizar uno de los tipos más comunes de Apertura que se utilizan actualmente, las bocinas. Dicha herramienta es una interfaz gráfica que tiene como entradas las variables elementales de diseño de la apertura como por ejemplo: dimensiones de la propia bocina o los parámetros generales comunes a todas ellas. A su vez, el software nos genera algunos de los parámetros de salida fundamentales de las antenas: Directividad, Ancho de haz, Centro de fase y Spillover. Para el correcto desarrollo del software se ha realizado numerosas pruebas con el fin de depurar y corregir errores con respecto a la anterior versión del SABOR. Por otra parte se ha hecho también hincapié en la funcionalidad del programa para que sea más intuitivo y evitar complejidades. El tipo de antena que se pretende estudiar es la bocina que consiste en una guía de onda en la cual el área de la sección se va incrementando progresivamente hasta un extremo abierto, que se comporta como una apertura. Se utilizan extensamente en satélites comerciales para coberturas globales desde órbitas geoestacionarias, pero el uso más común es como elemento de radiación para reflectores de antenas. Los tipos de bocinas que se van a examinar en la herramienta son: Sectorial H, Sectorial E, Piramidal, Cónica, Cónica Corrugada y Piramidal Corrugada. El proyecto está desarrollado de manera que pueda servir de información teórico-práctico de todo el software SABOR. Por ello, el documento además de revisar la teoría de las bocinas analizadas, mostrará la información relacionada con la programación orientado a objetos en entorno MATLAB cuyo objetivo propio es adquirir una nueva forma de pensamiento acerca del proceso de descomposición de problemas y desarrollo de soluciones de programación. Finalmente se ha creado un manual de autoayuda para dar soporte al software y se han incluido los resultados de diversas pruebas realizadas para poder observar todos los detalles de su funcionamiento, así como las conclusiones y líneas futuras de acción. ABSTRACT This Project comes from a program used in the labs of the subject Antennas and Electromagnetic Compatibility in the sixth semester called SABOR, which aims to be updated in order to any type of computer running a Windows operating systems(Windows 7 and subsequent versions). The main objectives are design and improve existing functionalities and develop new features. In addition, we will correct mistakes in earlier versions. For a better understanding a new custom tool using MATLAB environment has been created to analyze one of the most common types of apertura antenna which is used for the moment, horns. This tool is a graphical interface that has elementary design variables as a inputs, for example: Dimensions of the own horn or common general parameters of all horns. At the same time, the software generate us some of the fundamental parameters of antennas output like Directivity, Beamwidth, Phase centre and Spillover. This software has been performed numerous tests for the proper functioning of the Software and we have been cared in order to debug and correct errors that were detected in earlier versions of SABOR. In addition, it has also been emphasized the program's functionality in order to be more intuitive and avoiding unnecessary barriers or complexities. The type of antenna that we are going to study is the horn which consists of a waveguides which the section area has been gradually increasing to an open-ended, that behaves as an aperture. It is widely used in comercial satellites for global coverage from geostationary orbits. However, the most common use is radiating element for antenna reflectors. The types of horns which is going to be considered are: Rectangular H-plane sectorial, Rectangular E-plane sectorial, Rectangular Pyramidal, Circular, Corrugated Circular and Corrugated Pyramidal. The Project is developed so that it can be used as practical-theorical information around the SABOR software. Therefore, In addition to thoroughly reviewing the theory document of analyzed horns, it display information related to the object-oriented programming in MATLAB environment whose goal leads us to a new way of thinking about the process of decomposition of problems and solutions development programming. Finally, it has been created a self-help manual in order to support the software and has been included the results of different tests to observe all the details of their operations, as well as the conclusions and future action lines.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde el inicio de los tiempos el ser humano ha tenido la necesidad de comprender y analizar todo lo que nos rodea, para ello se ha valido de diferentes herramientas como las pinturas rupestres, la biblioteca de Alejandría, bastas colecciones de libros y actualmente una enorme cantidad de información informatizada. Todo esto siempre se ha almacenado, según la tecnología de la época lo permitía, con la esperanza de que fuera útil mediante su consulta y análisis. En la actualidad continúa ocurriendo lo mismo. Hasta hace unos años se ha realizado el análisis de información manualmente o mediante bases de datos relacionales. Ahora ha llegado el momento de una nueva tecnología, Big Data, con la cual se puede realizar el análisis de extensas cantidades de datos de todo tipo en tiempos relativamente pequeños. A lo largo de este libro, se estudiarán las características y ventajas de Big Data, además de realizar un estudio de la plataforma Hadoop. Esta es una plataforma basada en Java y puede realizar el análisis de grandes cantidades de datos de diferentes formatos y procedencias. Durante la lectura de estas páginas se irá dotando al lector de los conocimientos previos necesarios para su mejor comprensión, así como de ubicarle temporalmente en el desarrollo de este concepto, de su uso, las previsiones y la evolución y desarrollo que se prevé tenga en los próximos años. ABSTRACT. Since the beginning of time, human being was in need of understanding and analyzing everything around him. In order to do that, he used different media as cave paintings, Alexandria library, big amount of book collections and nowadays massive amount of computerized information. All this information was stored, depending on the age and technology capability, with the expectation of being useful though it consulting and analysis. Nowadays they keep doing the same. In the last years, they have been processing the information manually or using relational databases. Now it is time for a new technology, Big Data, which is able to analyze huge amount of data in a, relatively, small time. Along this book, characteristics and advantages of Big Data will be detailed, so as an introduction to Hadoop platform. This platform is based on Java and can perform the analysis of massive amount of data in different formats and coming from different sources. During this reading, the reader will be provided with the prior knowledge needed to it understanding, so as the temporal location, uses, forecast, evolution and growth in the next years.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las listas de espera son un problema para la mayor parte de los países que cuentan con un Sistema Nacional de Salud. El presente trabajo propone analizar el problema de las listas de espera desde una perspectiva de Decisión Multicriterio. Tras un análisis de las diferentes metodologías existentes, hemos elaborado un modelo de decisión basado en el método AHP (Analytic Hierarchy Process) para la gestión de listas de espera y lo hemos aplicado a un Hospital de la Comunidad de Madrid. La decisión multicriterio MCDM (Multiple Criteria Decision Making) es la teoría que estudia y analiza los problemas de decisión que involucran diferentes criterios. La MCDM enmarca con precisión problemas reales de toma de decisiones, planteados usualmente haciendo uso de varios criterios en conflicto; en los cuales, no será posible obtener en general una solución que asigne a todos los criterios su mejor valor sino que el decisor, aplicando distintas técnicas, deberá decidir la mejor solución a escoger del conjunto de soluciones factibles. El fundamento del AHP radica en descomponer problemas complejos en otros más sencillos y agregar las soluciones de los mismos. Según la propuesta de Saaty, el primer paso para la aplicación de este método es estructurar jerárquicamente el problema en niveles con distintos nodos interconectados. El primer nivel de la jerarquía corresponde al propósito del problema, el nivel/niveles intermedios a los criterios/subcriterios en base a los cuales se forma la decisión y el último corresponde a las alternativas o soluciones factibles del problema. La aplicación del método AHP requiere: -Realizar comparaciones por pares entre los entes de cada nivel jerárquico, en base a la importancia que presentan para el nodo del nivel superior de la jerarquía al que están ligados. Los resultados de estas comparaciones se recogen en forma de matrices de comparación por pares. -Obtener los vectores de prioridad correspondientes a cada una de las matrices de comparación por pares. -Calcular la contribución de cada alternativa al propósito del problema, mediante una agregación multiplicativa entre los niveles jerárquicos y en función de estos valores, ordenar las alternativas y seleccionar lo más conveniente como solución del problema. Como último paso en la metodología AHP debemos señalar que, cualquiera que sea el método empleado para sintetizar la información de dichas matrices para determinar los vectores de prioridad de los entes que se comparan, es posible realizar un análisis de sensibilidad del resultado alcanzado, visualizando y analizando otras posibles soluciones a obtener haciendo cambios en los juicios de valor emitidos por la unidad decisora al construir dichas matrices. El software Expert-Choice permite realizar el análisis de sensibilidad de 5 formas diferentes. En estos análisis se realizan variaciones en el valor de un peso o prioridad y se observa numérica y gráficamente como este cambio afecta a la puntuación de las alternativas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo de investigación presenta los resultados de una revisión sistemática realizada a partir de la recopilación, lectura y análisis de distintas fuentes bibliográficas dentro de un conjunto heterogéneo consistente de 175 estudios que forman la base bibliográfica actual del documento “Cognitive Accessibility User Research” (W3C, 2015a) del W3C. Esta base bibliográfica está compuesta por publicaciones científicas basadas en libros, artículos, conferencias y sitios Web especializados, en los cuales se potencia como objeto particular de análisis, la indagación en la búsqueda de pautas de accesibilidad en las tecnologías Web que apoyen la integración a personas con discapacidad cognitiva. Como parte de este proceso de investigación se ha recopilado y descrito la situación actual, particularmente, de los retos en la utilización de las tecnologías de la información y la comunicación (TIC) en relación a personas con dificultades de aprendizaje o discapacidades cognitivas, tales como la Dislexia, Afasia, Trastorno de Aprendizaje No verbal, Envejecimiento-Demencia, Trastornos por Déficit de Atención con o sin Hiperactividad, Autismo, Síndrome de Down y Discalculia. Como aporte primordial de este Trabajo Fin de Master (TFM), se intenta trazar una línea de criterios que permitan la evaluación objetiva de este tópico, con miras a ofrecer un enfoque práctico y reciente sobre ésta temática, mostrando de forma esquematizada las pautas existentes y sirviendo de síntesis orientativa para el diseño accesible de las TIC con la finalidad de promover un soporte real a personas con los tipo de discapacidad cognitiva en los que se ha enfocado esta investigación. Logrando obtener como resultado principal de este estudio, 36 pautas generales que agrupan las coincidencias del grupo de discapacidades estudiadas y que han sido distribuidas en categorías: texto, navegación y generales, para su mejor interpretación y manejo de la Accesibilidad en las TIC´S para Personas con Discapacidad Cognitiva.---ABSTRACT---This research presents the results of a systematic review from collecting, reading and analysis of different bibliographic sources within a heterogeneous group consisting of 175 studies that form the basis of current literature document "Accessibility User Cognitive Research" (W3C , 2015th) of the W3C. This bibliographic database is composed of scientific publications based on books, articles, lectures and specialized Web sites, in which is enhanced as a particular object of analysis, the inquiry into the search for accessibility guidelines for Web technologies to support integration of people with cognitive disabilities. As part of this research process, the current situation has been collected and described, particularly the challenges in the use of information and communications technology (ICT) in relation to people with learning disabilities or cognitive disabilities, such as Dyslexia, aphasia, nonverbal learning disorder, aging-Dementia, Attention Deficit Disorders with or without hyperactivity, autism, Down syndrome and dyscalculia. As primary contribution of this Master's Thesis (TFM), it tries to draw a line of criteria to allow an objective assessment of this topic, in order to provide a practical and recent focus on this theme, showing schematically existing guidelines and serving as guidance for accessible design of ICT in order to promote a real support to people with cognitive disabilities where this research has focused on. Managing to obtain the main result of this study, 36 general guidelines that group the set of disabilities studied and have been distributed in categories: text, navigation and general, for better interpretation and management of ICTs for Accessibility people with cognitive disabilities.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.