1000 resultados para Satélites artificiales en navegación


Relevância:

100.00% 100.00%

Publicador:

Resumo:

[EN] The last 5 Myr  are characterized by cliamatic variations globally and are reflected in ancient fossiliferous marine deposits visible in the Canary Islands. The fossils contained are identificated as paleoecological and paleoclimatic indicators. The Mio-Pliocene Transit is represented by the coral Siderastrea micoenica Osasco, 1897; the gastropods Rothpletzia rudista Simonelli, 1890; Ancilla glandiformis (Lamarck, 1822); Strombus coronatus Defrance, 1827 and Nerita emiliana Mayer, 1872 and the bivalve Gryphaea virleti Deshayes, 1832 as most characteristic fossils  and typical of a very warm climate and littoral zone. Associated  lava flows  have been dated radiometrically  and provides a range between  8.9 and about 4.2 Kyr. In the mid-Pleistocene, about 400,000 years ago, the called Marine Isotope Stage 11, a strong global warming that caused a sea level rise happens. Remains of the MIS 11  are preserved on the coast of Arucas (Gran Canaria), and associated with a tsunami in Piedra Alta (Lanzarote). These fossilifeorus  deposits contains the bivalve Saccostrea cucullata (Born, 1780), the gastropod Purpurellus gambiensis (Reeve, 1845) and the corals Madracis pharensis (Heller, 1868) and Dendrophyllia cornigera (Lamarck, 1816). Both sites have been dated by K-Ar on pillow lavas (approximately 420,000 years) and by Uranium Series on corals (about 481,000 years) respectively. The upper Pleistocene starts with another strong global warming known as the last interglacial or marine isotope  stage (MIS) 5.5, about 125,000 years ago, which also left marine  fossil deposits exposed in parallel to current in Igueste of San Andrés (Tenerife),  El Altillo, the  city of Las Palmas de Gran Canaria  and Maspalomas (Gran Canaria),  Matas Blancas, the Playitas and Morrojable (Fuerteventura ) and in Playa Blanca and Punta Penedo (Lanzarote ). The fossil coral Siderastrea radians (Pallas , 1766 ) currently living in the Cape Verde Islands , the Gulf of Guinea and the Caribbean has allowed Uranium series dating. The gastropods Strombus bubonius Lamarck, 1822 and Harpa doris (Röding , 1798 ) currently living in the Gulf of Guinea. Current biogeography using synoptic data obtained through satellites provided by the ISS Canary Seas provides data of Ocean Surface Temperature (SST) and Chlorophyll a (Chlor a) . This has allowed the estimation of these sea conditions during interglacials compared to today .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el objeto de ajustar un método de evaluación a campo para facilitar la selección de clones de ajo (Allium sativum L.) con resistencia a Penicillium allii, se realizó un ensayo replicado en el cual se midió la respuesta de tres clones experimentales a la infección, en dos épocas de plantación. Los tratamientos incluyeron combinaciones de presencia o ausencia de: a) desinfección de la "semilla", b) heridas artificiales en los bulbillos, c) inoculación artificial. Los bulbillos con la hoja envolvente se desinfectaron con una solución diluida de hipoclorito de sodio. La inoculación se realizó mediante la inmersión en una solución de 106 esporas•ml-1. Las heridas se realizaron con una lanceta (blood lancet). Los bulbillos se incubaron en cámara húmeda durante 24 horas a 20 °C, antes de plantación. Las variables respuestas computadas fueron las siguientes: número de plantas muertas, y vivas con síntomas y sin síntomas, a los 152 días de plantación en la primera época y 118 días en la segunda; número de bulbos por calibres y rendimiento a cosecha. La información obtenida se analizó a través de correspondencia simple, diferencia de proporciones y análisis paramétricos. Se detectaron mayores diferencias entre los tratamientos en la tasa de sobrevivencia y en la proporción de calibres comerciales en la época tardía. No se observaron diferencias (p < 0,05) del rendimiento en la plantación temprana. La herida fue determinante en el ingreso del patógeno. Los tratamientos quedaron limitados a un testigo: desinfectado, no inoculado y sin herida, y a un tratamiento: desinfectado, con inoculación y herida. Con respecto a la época, resultó conveniente la evaluación en plantaciones tardías porque se expresan mejor las diferencias entre los tratamientos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo principal de esta tesis es el desarrollo de herramientas numéricas basadas en técnicas de onda completa para el diseño asistido por ordenador (Computer-Aided Design,‘CAD’) de dispositivos de microondas. En este contexto, se desarrolla una herramienta numérica basada en el método de los elementos finitos para el diseño y análisis de antenas impresas mediante algoritmos de optimización. Esta técnica consiste en dividir el análisis de una antena en dos partes. Una parte de análisis 3D que se realiza sólo una vez en cada punto de frecuencia de la banda de funcionamiento donde se sustituye una superficie que contiene la metalización del parche por puertas artificiales. En una segunda parte se inserta entre las puertas artificiales en la estructura 3D la superficie soportando una metalización y se procede un análisis 2D para caracterizar el comportamiento de la antena. La técnica propuesta en esta tesis se puede implementar en un algoritmo de optimización para definir el perfil de la antena que permite conseguir los objetivos del diseño. Se valida experimentalmente dicha técnica empleándola en el diseño de antenas impresas de banda ancha para diferentes aplicaciones mediante la optimización del perfil de los parches. También, se desarrolla en esta tesis un procedimiento basado en el método de descomposición de dominio y el método de los elementos finitos para el diseño de dispositivos pasivos de microonda. Se utiliza este procedimiento en particular para el diseño y sintonía de filtros de microondas. En la primera etapa de su aplicación se divide la estructura que se quiere analizar en subdominios aplicando el método de descomposición de dominio, este proceso permite analizar cada segmento por separado utilizando el método de análisis adecuado dado que suele haber subdominios que se pueden analizar mediante métodos analíticos por lo que el tiempo de análisis es más reducido. Se utilizan métodos numéricos para analizar los subdominios que no se pueden analizar mediante métodos analíticos. En esta tesis, se utiliza el método de los elementos finitos para llevar a cabo el análisis. Además de la descomposición de dominio, se aplica un proceso de barrido en frecuencia para reducir los tiempos del análisis. Como método de orden reducido se utiliza la técnica de bases reducidas. Se ha utilizado este procedimiento para diseñar y sintonizar varios ejemplos de filtros con el fin de comprobar la validez de dicho procedimiento. Los resultados obtenidos demuestran la utilidad de este procedimiento y confirman su rigurosidad, precisión y eficiencia en el diseño de filtros de microondas. ABSTRACT The main objective of this thesis is the development of numerical tools based on full-wave techniques for computer-aided design ‘CAD’ of microwave devices. In this context, a numerical technique based on the finite element method ‘FEM’ for the design and analysis of printed antennas using optimization algorithms has been developed. The proposed technique consists in dividing the analysis of the antenna in two stages. In the first stage, the regions of the antenna which do not need to be modified during the CAD process are initially characterized only once from their corresponding matrix transfer function (Generalized Admittance matrix, ‘GAM’). The regions which will be modified are defined as artificial ports, precisely the regions which will contain the conducting surfaces of the printed antenna. In a second stage, the contour shape of the conducting surfaces of the printed antenna is iteratively modified in order to achieve a desired electromagnetic performance of the antenna. In this way, a new GAM of the radiating device which takes into account each printed antenna shape is computed after each iteration. The proposed technique can be implemented with a genetic algorithm to achieve the design objectives. This technique is validated experimentally and applied to the design of wideband printed antennas for different applications by optimizing the shape of the radiating device. In addition, a procedure based on the domain decomposition method and the finite element method has been developed for the design of microwave passive devices. In particular, this procedure can be applied to the design and tune of microwave filters. In the first stage of its implementation, the structure to be analyzed is divided into subdomains using the domain decomposition method; this process allows each subdomains can be analyzed separately using suitable analysis method, since there is usually subdomains that can be analyzed by analytical methods so that the time of analysis is reduced. For analyzing the subdomains that cannot be analyzed by analytical methods, we use the numerical methods. In this thesis, the FEM is used to carry out the analysis. Furthermore the decomposition of the domain, a frequency sweep process is applied to reduce analysis times. The reduced order model as the reduced basis technique is used in this procedure. This procedure is applied to the design and tune of several examples of microwave filters in order to check its validity. The obtained results allow concluding the usefulness of this procedure and confirming their thoroughness, accuracy and efficiency for the design of microwave filters.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lo largo de este proyecto se han tratado las diferentes fases que tienen lugar durante el desarrollo del programa de Diseño y Verificación de una Bocina en Banda C destinada a un satélite comercial de comunicaciones. En un primer lugar, se introduce el proyecto en el mundo real realizando una pequeña aproximación a los satélites artificiales y su historia. Después, en una primera fase, se describen los diversos puntos de la etapa de diseño y los resultados de la simulación de nuestra Antena. Se estudian por separado los diferentes elementos que componen el equipo, y además, se realiza un análisis de los parámetros eléctricos que se deben tener en cuenta durante el diseño para adaptar el comportamiento de la Antena a los requisitos solicitados por el cliente. Antes de realizar la verificación de la Antena, se procede a la definición de los ensayos, que se debe realizar sobre el equipo con el fin de simular las condiciones a las que se verá sometido. Pruebas y medidas, niveles de test, etc. que nos ayudan a demostrar que nuestra Antena está preparada para realizar su misión en el espacio. Se hará una descripción sobre la forma de realizar de los ensayos y de las instalaciones donde se van a llevar a cabo, además del orden que llevaremos durante la campaña. Una vez determinados los test y con la Antena fabricada y lista, se procede a la Verificación de nuestro equipo mediante la Campaña de Ensayos con el objetivo de caracterizar por completo el funcionamiento de nuestra Antena en cualquier circunstancia. Se muestran los resultados obtenidos en los test siguiendo el orden establecido por el Test Plan. Medidas en Laboratorio y Radiación, los test de vibración y las pruebas ambientales en las Cámaras Térmicas de Vacío, y medidas eléctricas en condiciones extremas de temperatura y presión. Y una vez realizada la Campaña, se vuelve a medir la Antena para comprobar el funcionamiento tras soportar todos los ensayos. Se analizan los resultados obtenidos en cada una de las pruebas y se comparan con las simulaciones obtenidas durante la fase de diseño. Finalmente, se realiza un pequeño resumen de los valores más importantes obtenidos durante la Verificación y exponen las Conclusiones que se desprende de dicho proceso. Como último punto del proyecto, se estudian las correcciones y mejoras que se podrán llevar a cabo en futuros programas gracias a lo que hemos aprendido en este proyecto. Abstract This project presents a C Band Horn Antenna for a commercial communications satellite. All the different phases from Design to Verification are presented. First of all, an introduction to artificial satellites and their history is presented to put this project into perspective. Next, the electrical design of the Antenna is presented. Taking into account the theoretical fundamentals, each element that comprises this Antenna was designed. Their electrical performances, obtained from analysis using commercial software, are presented in the simulation results. In the design of each element of the antenna, some critical parameters are set and optimized in order to be compliant with the global requirements requested by the customer. After the design is completed, it is necessary to define the Test Campaign that has to be carried out in order to verify the validity of the designed and manufactured Antenna. Therefore, a Test Plan and the Electrical and Environmental Test Procedures are defined. This Test Campaign must be representative of the same conditions of the real space mission. Considering this, the following are defined: parameters for the network analyzer and radiation patterns measurements; test levels for the environmental test; definition of the RF measurements to be carried out and the temperatures to be applied in the thermal vacuum cycling. If the Antenna surpasses these tests, it will be ready to perform its mission in space over the entire satellite’s life cycle. The facilities where the tests are performed, as well as the sequence of the tests along the campaign are described too. After that, the Test Campaign is performed to fully characterize the Antenna in the space simulated conditions. Following the order established in the Test Plan, a radiation pattern and laboratory parameters are measured to correlate its electrical response with the simulations. Then, vibration and thermal vacuum tests are performed to verify its behavior in extreme environmental conditions. Last, if the final electrical results are the same as the initial ones, it can be stated that the antenna has successfully passed the Test Campaign. And finally, conclusions obtained from the data simulation design and Test Campaign results are presented. Status of Compliance with the specification is shown to demonstrate that the Antenna fulfills the requested requirements. Although the purpose of this project is to design and verify the response of C Band Horn Antenna, it is important to highlight improvements for future developments and the lessons learnt during this project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Para la elección del contenido del trabajo he seguido el mismo esquema utilizado para la presentación de las memorias de las prácticas académicas realizadas para la obtención de la diplomatura en navegación marítima y de la licenciatura en náutica y transporte marítimo. El modelo se basa en realizar un análisis de todos los equipamientos e instrumentación que podemos encontrar a bordo. Si nos fijamos en lo que establece la Orden del Ministerio de Transporte, Turismo y Comunicaciones de 18 de octubre de 1989 podríamos afirmar que la temática del presente trabajo se enmarcará dentro de los epígrafes “Seguridad a bordo, contra incendios, emergencias, supervivencia y salvamento” y “Equipamiento e instrumentación de a bordo”.El trabajo que les presento a continuación analiza el equipamiento del buque Nura Nova. El último de los tres buques en los que he estado embarcado como alumno de puente. El trabajo está dividido en varios apartados principales: Equipos de navegación, protección, comunicación, salvamento, contra incendios, carga y descarga y lucha contra la contaminación. Además de los apartados anteriores que forman el cuerpo central del trabajo, hay otros capítulos secundarios que ayudan a completarlo, como el capítulo que abre el trabajo y que narra brevemente la historia del Nura Nova.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Evaluar la validez de la simulación como técnica de entrenamiento de pilotos de combate. Determinar las características psicológicas principales que influyen en el entrenamiento militar en entornos tecnológicos. Determinar la validez del uso de patrones perceptivos y de respuesta en el entrenamiento de pilotos de combate.. La población la formaban alumnos voluntarios de la asignatura de psicología de la educación de las facultades de Psicología y Filosofía y Letras de la Universidad Autonoma de Barcelona durante el curso 1992-93. La muestra la componían 30 individuos con conocimientos, almenos, básicos en el manejo de microordenadores PC, con alguna experiencia en el uso de simuladores informáticos y con alguna experiencia activa o pasiva de vuelo. . La investigación se divide en dos bloques, el primero de ellos, de corte teórico, analiza, por un lado, la historia de la tecnología militar, así como su incidencia en los conflictos militares contemporaneos. Por otro lado, se analizan los modelos teóricos sobre el procesamiento de la información y se estudian los conceptos de percepción, atención, memoria, capacidad de procesamiento y otras características no cognitivas como la resistencia a la tensión y a la presión, el control emocional y las actitudes. El segundo bloque, de corte empírico, estudia la validez de la simulación como técnica aplicable a la instrucción militar de pilotos de combate, tratándose de determinar las bases psicológicas que permitan mejorar las técnicas de entrenamiento militar en entornos de alta tecnología. Para ello, partiendo de la hipótesis: 'la utilización de un sistema de enseñanza que desarrolle patrones perceptivos y los ligue a patrones de respuesta adecuados permitirá mejores resultados en los aprendizajes y actuaciones de los pilotos de combate que otras metodologías que sólo proporcionen las informaciones teóricas y prácticas ligadas a los aprendizajes de las tareas de los pilotos, se divide la muestra en tres grupos y se procede al entrenamiento diferenciado de los grupos, evaluandose los resultados y analizando estadísticamente los datos obtenidos. . Bibliografía. Simulador de vuelo 'f-29 Retaliator'. Cuestionarios Ad-hoc. . El uso de patrones parece permitir la ejecución de respuestas correctas con más velocidad, tanto en situaciones de combate, como en navegación. No obstante, no parece reducir los niveles de excitabilidad del piloto.. El uso de patrones perceptivos y de respuesta durante el entrenamiento mejora significativamente el rendimiento de los pilotos de combate, pudiendo ser útil para conseguir un significativo ahorro económico y temporal en el entrenamiento de los pilotos, y pudiendo aumentar sus posibilidades de supervivencia en situaciones de combate real. Se sugiere la comprobación de los datos obtenidos y de las conclusiones aportadas mediante un estudio con pilotos de combate reales..

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se analiza la gran producción de cuadernos, fichas y materiales escolares por parte de las editoriales, dirigidos a niños de entre 2 y 6 años, y su uso masivo en los centros educativos, así como el proceso de enseñanza y aprendizaje que estos materiales desencadenan. Para ello, se hace una reflexión acerca de la idoneidad de estos materiales curriculares, con el fin de averiguar en qué medida y de qué manera contribuyen o dificultan el desarrollo infantil. Se exponen los puntos débiles y fuertes en la manera de saber y conocer de la primera infancia, destacando la naturaleza como fuente de vida y de conocimiento, y las relaciones sociales como fuente de construcción de la personalidad, frente a las situaciones educativas artificiales, en las que los niños son sometidos a los intereses y estructura de pensamiento del adulto educador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto continua con el del curso anterior Revista escolar en la www. Los objetivos son mantener la publicación escolar en la web mejorando los contenidos y el diseño; incorporar internet al desarrollo de la actividad escolar del centro mejorando su infraestructura y la formación del profesorado; fomentar la lectura; y potenciar el trabajo en grupo, la interdisciplinariedad y la colaboración profesor-alumno. Para realizarlo profesores y alumnos crean los grupos de dirección y coordinación; maquetación, instituciones y colaboraciones; y documentación y redacción. Se imparte formación en navegación y diseño de páginas web, tratamiento de imágenes y relaciones con instituciones públicas o privadas para obtener colaboración. La revista digital consta se 35 páginas organizadas en las secciones de Astronomía, Ecología, Geología, Rincón Manga, Curso de Guitarra, Cómic, Deportes, y Mitología y Arte. Se crea un carnet de miembro de la revista para acceder al aula y solicitar conexión a internet. Se evalúa la calidad del producto, su presentación y diseño; el cumplimiento de la temporalización proyectada; y la aceptación y colaboración de la comunidad educativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentar de forma sistemática la concepción político-social tönniesiana desde el marco histórico en que se gesta (Alemania a finales del siglo XIX y principios del XX) y valorar la posible aportación de la misma a la discusión actual sobre el Estado de Bienestar. La metodología histórico-procesual que se emplea preside el desarrollo biográfico-intelectual de Tönnies en el capítulo primero; para el capítulo segundo sobre la teoría comunitaria se ha optado por una metodología comprensivo-explicativa y para el resto de los capítulos de la tesis se ha partido de un planteamiento metodológico estructural-racional después de haber analizado la bibliografía y respetando la perspectiva cronológica dentro de los distintos apartados que la componen. 1.- Aproximación biográfico-intelectual: es un hombre preocupado por la decadencia de la moral, se compromete con la constitución científica de la ética desde presupuestos no confesionales. Introvertido, intelectual, pero con sensibilidad social, siente la necesidad de los otros, la alteridad. Con elevado sentido del bien, la verdad y la justicia, ama la ciencia pura, sin orientación utilitaria, y la libertad. 2.- En cuanto a su análisis de la teoría comunitaria a la luz de su obra Comunidad y Sociedad, destaca, sobre todo, el concepto de la vida social y de social del sociólogo frisón. A través de sus conceptos básicos comunidad y sociedad muestra cómo la vida humana, comprendida como un todo, enseña la importancia y la significación del paso de los órganos 'naturales' a los instrumentos 'artificiales'. En la comunidad están el espíritu de familia, las costumbres y la religión uniendo a los sujetos. Comunidad y sociedad son conceptos normales y son resultado de la sociología pura. Su interdependencia constituye un hecho: sin comunidad no podría haber existido la sociedad, pero, además, la comunidad da lugar necesariamente a la sociedad. La teoría sociológica tönniesiana constituye una teoría de la acción humana. Esta teoría comunitaria se encuentra directamente relacionada con su concepción de lo social. Desde su perspectiva sociológica, para el sociólogo la convivencia humana significa más que el meramente estar unos con otros, puesto que indica una procedencia o ascendencia común, así como la propia consideración de vida en común por parte de los individuos que la conforman. 3.- Su concepción político-social: su Política Social ha de entenderse, como una Política de lo Social que favorezca el desarrollo del nuevo Estado; un Estado con forma republicana y carácter democrático que ha de hacer mejores a los hombres, que ha de favorecer que sean sociales. El Estado, así, dejará de verse y de proceder como artefacto e instrumento de la sociedad al servicio de los intereses de la clase más poderosa, la capitalista y el pueblo podrá reconocerse en él y gobernarse a sí mismo en unidades sociales más pequeñas. El Estado ha de garantizar la libertad y protección de los derechos de los ciudadanos, y, particularmente, de los más indefensos que viven sumidos en la inseguridad. La educación se muestra directamente vinculada a la Política Social. La educación profesional, intelectual, cívico-política y moral de los trabajadores, los ciudadanos en general y los futuros políticos garantiza el logro de los objetivos de la Política Social. Además, agentes de la Reforma Social como las organizaciones de trabajadores, las cooperativas, los intelectuales y los hombres de Estado ejercen un importante efecto educativo de carácter beneficioso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la presente carpeta se recogen elementos curriculares básicos de la Formación Profesional en el ámbito de Actividades marítimo-pesqueras. La oferta formativa de esta área es la siguiente: A) Ciclo de Grado Medio : Técnico en Pesca y Transporte Marítimo, Técnico en Operación, Control y Mantenimiento de Máquinas e Instalaciones del Buque, Técnico en Operaciones de Cultivo Acuícola, Técnico en Buceo de Media Profundidad. B) Ciclo de Grado Superior : Técnico Superior en Navegación, Pesca y Transporte Marítimo, Técnico Superior en Supervisión y Control de Máquinas e Instalaciones del Buque, Técnico Superior en Producción Acuícola. Incluye un directorio de empresas del sector y un directorio de instituciones de interés relacionadas con la familia de Actividades Marítimo Pesqueras.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Programa emitido el 1 de junio de 1995

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As estimações das taxas de inflação são de fundamental importância para os gestores, pois as decisões de investimento estão intimamente ligadas a elas. Contudo, o comportamento inflacionário tende a ser não linear e até mesmo caótico, tornando difícil a sua correta estimação. Essa característica do fenômeno pode tornar imprecisos os modelos mais simples de previsão, acessíveis às pequenas organizações, uma vez que muitos deles necessitam de grandes manipulações de dados e/ou softwares especializados. O presente artigo tem por objetivo avaliar, por meio de análise formal estatística, a eficácia das redes neurais artificiais (RNA) na previsão da inflação, dentro da realidade de organizações de pequeno porte. As RNA são ferramentas adequadas para mensurar os fenômenos inflacionários, por se tratar de aproximações de funções polinomiais, capazes de lidar com fenômenos não lineares. Para esse processo, foram selecionados três modelos básicos de redes neurais artificiais Multi Layer Perceptron, passíveis de implementação a partir de planilhas eletrônicas de código aberto. Os três modelos foram testados a partir de um conjunto de variáveis independentes sugeridas por Bresser-Pereira e Nakano (1984), com defasagem de um, seis e doze meses. Para tal, foram utilizados testes de Wilcoxon, coeficiente de determinação R² e o percentual de erro médio dos modelos. O conjunto de dados foi dividido em dois, sendo um grupo usado para treinamento das redes neurais artificiais, enquanto outro grupo era utilizado para verificar a capacidade de predição dos modelos e sua capacidade de generalização. Com isso, o trabalho concluiu que determinados modelos de redes neurais artificiais têm uma razoável capacidade de predição da inflação no curto prazo e se constituem em uma alternativa razoável para esse tipo de mensuração.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En capítulos anteriores se han tratado problemas dinámicos de sistemas con un solo grado de libertad y los correspondientes a un número cualquiera de grados. La estructura discreta y contínua (previamente discretizada) se llegaba a definir como sistema dinámico por sus matrices de masa, de rigidez y de amortiguamiento. Por diversos métodos se obtenía la respuesta del sistema a cualquier solicitación de cargas variables de modo determinado (periódico o no) o probabilístico en el tiempo, con lo que quedaba resuelto el problema dinámico. Ahora vamos a referirnos a estructuras continuas. En realidad puede abordarse su estudio como caso límite al discretizar la estructura en un número muy elevado de elementos de tamaños cada vez más reducidos. Dentro de las estructuras que llamamos artificiales en nuestro capítulo primero podríamos considerar las definidas geométricamente en una dimensión (lineales), dos dimensiones (superficiales)o tres (especiales). Claro que aún así definida una estructura, por ejemplo una cuerda o una viga puede tener movimientos en un plano o sea con componentes en otra dimensión que la que sirvió para definirla, e incluso con movimientos especiales como sería una viga sometida a movimientos de flexión y torsión. Del mismo modo en una estructura superficial o definida en dos dimensiones pueden considerarse los movimientos en su plano o en su superficie o fuera de él (normal o no a su superficie media). Como estructuras artificiales son de interés las siguientes: cuerdas, barras, vigas (rectas, curvas, continuas, flotantes, etc. ), sistemas reticulares, (de barras rectas, curvas, de sección variable, etc.), membranas, cáscaras, placas (rectas o curvas), etc. sometidas a esfuerzos originados por sus pesos propios y por las acciones de fuerzas y deformaciones exteriores, variables en el tiempo delmodo más diverso. Las estructuras naturales tienen sus características especiales, sus respuestas a determinadas solicitaciones. Hay que estudiarlas para llegar a conocer: a) Su comportamiento antes y después de ser alteradas o modificadas porel hombre; b) Sus interacciones con las estructuras artificiales que sirven para cumplimentarlas o reforzarlas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analizar la influencia de las características geotécnicas en un emplazamiento en la respuesta frente a un terremoto y comprobar la amplificación de los movimientos. Se le ha querido dar al trabajo un enfoque diferente y en vez de utilizar la metodología habitual en la que se generan acelerogramas artificiales en el dominio del tiempo para obtener la respuesta, en este caso los análisis se realizan en el dominio de la frecuencia exclusivamente. Este enfoque es relativamente novedoso y se comprobará que es muy eficiente.