47 resultados para Astronomía.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los principales objetivos de la radioastronomía es la determinación precisa do la posición de radio fuentes en el espacio.La posición resulta, por ejemplo, de suma importancia cuando se trata de identificar radiofuentes extra galácticas con fuentes ópticas, con objeto de poder así conocer la distancia de dicha fuente midiendo el desplazamiento del rojo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Escuela Técnica Superior de Ingenieros de Minas de Madrid es un centro de la Universidad Politécnica de Madrid que, por su antigüedad, ha conservado un valioso patrimonio científico y cultural, que hoy se agrupa en el Museo Histórico Minero Don Felipe de Borbón y Grecia, perteneciente a dicha Escuela. Aunque tal vez poco conocidos del público, son especialmente ricos los conjuntos de minerales, fósiles, libros antiguos, conchas, instrumentos ópticos, eléctricos, mecánicos, químicos, de medida y control, etc. Todos estos elementos se usaron durante los últimos doscientos años en la enseñanza de la ingeniería a las sucesivas promociones de estudiantes que, desde 1777, llenan nuestras aulas. Se han perdido muchos, porque el tiempo y la falta de sensibilidad por lo antiguo han hecho bastante daño, pero aún puede decirse que la colección es una de las mejores de España y merece conocimiento, respeto y cuidado. Dentro de esta valiosa colección merece destacarse el conjunto de instrumentos topográficos. Se fueron acumulando éstos por los sucesivos profesores para las clases y la investigación. Mi memoria alcanza hasta los años 70 del pasado siglo, en los que el profesor de Topografía y Astronomía, D. Pedro Arsuaga Dabán, mostraba con orgullo su magnífica colección de teodolitos, niveles, brújulas, astrolabios y miras. Posteriormente, el catedrático de la asignatura, D. Ángel Valverde, llevó a cabo una excelente labor de conservación, durante muchos años, de todo aquel instrumental. Gracias a él, y a los profesores que le sucedieron, hemos “reencontrado” hace algún tiempo el conjunto de instrumentos que hoy se presenta en este libro. También ha tenido la Escuela la fortuna de contar con un profesor, D. Emilio de la Heras, que une a su profundo conocimiento de la Topografía y de su historia un notable afán divulgador, una forma de expresión clara y asequible y la infinita paciencia que hace falta para analizar uno a uno todos los instrumentos, reparar algunos, buscar en todos los datos esenciales de su fecha de fabricación, procedencia y uso, leer las actas y documentos antiguos de la Escuela para averiguar las fechas de adquisición y, en suma, recopilar la infinitud de datos que hacen este libro posible. El libro es mucho más que un mero catálogo. Es también una interesante historia de la Topografía, fácil de entender y enormemente ilustrativa, y una historia de la enseñanza de esta asignatura en la Escuela. Desde sus inicios, la medición de distancias y ángulos se mostró esencial en las labores mineras, agravada por la dificultad de que muchas de estas labores eran y son subterráneas. Ello dio lugar a que el ingenio minero crease instrumentos específicos, que Emilio de las Heras tan bien explica, y a que la Topografía fuese siempre asignatura esencial en la formación de los ingenieros de minas. Con la publicación de este libro, la Escuela pretende seguir la iniciativa, que ya tiene muchos años, de dar a conocer, por partes, su patrimonio histórico, cultural y científico. También establecer un catálogo, tan completo como sea posible, de los instrumentos antiguos o curiosos que constituyen dicho patrimonio. Por último, llevar al conocimiento del público en general algunos aspectos de la enseñanza de la minería, hoy poco conocida y valorada, aunque sea la base del suministro de las materias primas que todos necesitamos y empleamos diariamente. Agradecemos sinceramente al profesor Emilio de las Heras su esforzada y desinteresada labor, su incansable paciencia, su erudición profunda, puestas todas al servicio de la Escuela. Auguramos para el libro, que es ameno y muy documentado, un gran éxito entre todas las personas curiosas, con una mínima sensibilidad humanística, o simplemente interesadas por el desarrollo científico. Nos felicitamos, por fin, de que la Escuela cuente, en soporte de papel, un nuevo catálogo de los bienes que forman su patrimonio. La publicación de libros como éste es, sin duda, un elemento que contribuye a la conservación de dicho patrimonio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

For long enough tethers, the coupling of the attitude and orbital dynamics may show non-negligible effects in the orbital motion of a tethered satellite about a central body. In the case of fast rotating tethers the attitude remains constant, on average, up to second order effects. Besides, for a tether rotating in a plane parallel to the equatorial plane of the central body, the attitude?orbit coupling effect is formally equal to the perturbation of the Keplerian motion produced by the oblateness of the central body and, therefore, may have a stabilizing effect in the orbital dynamics. In the case of a tethered satellite in a low lunar orbit, it is demonstrated that feasible tether lengths can help in modifying the actual map of lunar frozen orbits

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper addresses the problem of optimal constant continuous low-thrust transfer in the context of the restricted two-body problem (R2BP). Using the Pontryagin’s principle, the problem is formulated as a two point boundary value problem (TPBVP) for a Hamiltonian system. Lie transforms obtained through the Deprit method allow us to obtain the canonical mapping of the phase flow as a series in terms of the order of magnitude of the thrust applied. The reachable set of states starting from a given initial condition using optimal control policy is obtained analytically. In addition, a particular optimal transfer can be computed as the solution of a non-linear algebraic equation. Se investiga el uso de series y transformadas de Lie en problemas de optimización de trayectorias de satélites impulsados por motores de bajo empuje

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The two-body problem subject to a constant radial thrust is analyzed as a planar motion. The description of the problem is performed in terms of three perturbation methods: DROMO and two others due to Deprit. All of them rely on Hansen?s ideal frame concept. An explicit, analytic, closed-form solution is obtained for this problem when the initial orbit is circular (Tsien problem), based on the DROMO special perturbation method, and expressed in terms of elliptic integral functions. The analytical solution to the Tsien problem is later used as a reference to test the numerical performance of various orbit propagation methods, including DROMO and Deprit methods, as well as Cowell and Kustaanheimo?Stiefel methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The singularities in Dromo are characterized in this paper, both from an analytical and a numerical perspective. When the angular momentum vanishes, Dromo may encounter a singularity in the evolution equations. The cancellation of the angular momentum occurs in very speci?c situations and may be caused by the action of strong perturbations. The gravitational attraction of a perturbing planet may lead to rapid changes in the angular momentum of the particle. In practice, this situation may be encountered during deep planetocentric ?ybys. The performance of Dromo is evaluated in di?erent scenarios. First, Dromo is validated for integrating the orbit of Near Earth Asteroids. Resulting errors are of the order of the diameter of the asteroid. Second, a set of theoretical ?ybys are designed for analyzing the performance of the formulation in the vicinity of the singularity. New sets of Dromo variables are proposed in order to minimize the dependency of Dromo on the angular momentum. A slower time scale is introduced, leading to a more stable description of the ?yby phase. Improvements in the overall performance of the algorithm are observed when integrating orbits close to the singularity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque a lo largo de la historia de la Física hemos avanzado construyendo una serie de teorías parciales que expliquen diferentes fenómenos de nuestra naturaleza aparentemente independientes entre sí, sería muy difícil construir en un solo paso una teoría unificada completa de todo lo que ocurre en el universo. En este trabajo presentamos un breve resumen de la evolución de las diferentes teorías parciales y el intento de unificación por parte de la comunidad científica de todas esas teorías en la denominada Teoría del Todo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, a new law for magnetic control of satellites in near-polar orbits is presented. This law has been developed for the UMPSat-2 microsatellite, which has been designed and manufactured by Universidad Politécnica de Madrid, Madrid. The control law is a modification of the B-dot strategy that enables the satellite to control the rotation rate. Besides, the satellite?s equilibrium state is characterized by having the rotation axis perpendicular to the orbit?s plane. The control law described in the present work only needs magnetometers and magnetorquers, as sensors and actuators, respectively, to carry out a successful attitude control on the spacecraft. A description of the analysis is included. Performance and applicability of the proposed method have been demonstrated by control dynamics together with Monte Carlo techniques and by implementing the control law in the UPMSat-2 mission simulator. Results show good performance in terms of acquisition and stability of the satellite rotation rate and orientation with respect to its orbit?s plane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anisotropic magnetoresistive (AMR) magnetic sensors are often chosen as the magnetic transducer for magnetic field sensing in applications with low to moderate magnetic field resolution because of the relative low mass of the sensor and their ease of use. They measure magnetic fields in the order of the Earth magnetic field (with typical sensitivities of 1‰/G or 10−2‰/μT), have typical minimum detectable fields in order of nT and even 0.1 nT but they are seriously limited by the thermal drifts due to the variation of the resistivity with temperature (∼2.5‰/°C) and the variation of the magnetoresistive effect with temperature (which affects both the sensitivity of the sensors: ∼2.7‰/°C, and the offset: ±0.5‰/°C). Therefore, for lower magnetic fields, fluxgate vector sensors are generally preferred. In the present work these limitations of AMR sensors are outlined and studied. Three methods based on lock-in amplifiers are proposed as low noise techniques. Their performance has been simulated, experimentally tested and comparatively discussed. The developed model has been also used to derive a technique for temperature compensation of AMR response. The final goal to implement these techniques in a space qualified applied specific integrated circuit (ASIC) for Mars in situ exploration with compact miniaturized magnetometers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las comunicaciones por satélite tienen cada vez mayores necesidades de espectro, con el objetivo de ofrecer servicios de banda ancha, tanto de comunicación de datos como de radiodifusión. En esta línea, se está incrementando de manera importante el uso de frecuencias en la banda Ka (20 y 30 GHz), que se verá complementada en el futuro por la banda Q/V (40 y 50 GHz) y por frecuencias en la banda W (por encima de 60 GHz). En estas frecuencias, microondas y ondas milimétricas, la troposfera produce importantes efectos de propagación. El más estudiado es el efecto de la lluvia, que produce desvanecimientos muy profundos. Sin embargo, la lluvia está presente en porcentajes de tiempo pequeños, típicamente inferiores al 5% en los climas templados. El resto del tiempo, más del 95% por ejemplo en los climas mencionados, los gases y las nubes pueden causar niveles importantes de atenuación en estas frecuencias. La Tesis aporta un nuevo modelo (Modelo Lucas-Riera), consistente en un conjunto de polinomios de aproximación para realizar, en ausencia de lluvia, la estimación de determinados parámetros de propagación, partiendo de otros datos que se suponen disponibles. El modelo está basado en datos obtenidos de radiosondeos meteorológicos y modelos físicos de atenuación por gases y nubes, que son los fenómenos más relevantes en ausencia de lluvia, y tiene en cuenta las características climatológicas del emplazamiento de interés, utilizando la clasificación climática de Köppen. Este modelo es aplicable en las bandas de frecuencias entre 12 y 100 GHz (exceptuando 60 GHz), donde se aproximarían los mencionados parámetros de propagación en una frecuencia a partir de los obtenidos en otra, en el caso de la atenuación y la temperatura de brillo, o bien se estimaría la temperatura media de radiación a una determinada frecuencia partiendo de la temperatura de superficie. Con este modelo se puede obtener una aproximación razonable si se conoce la Zona Climática de Köppen de la localización terrestre para la que queremos calcular las aproximaciones y en caso de que ésta se desconozca se aporta una Zona Global, que representa toda la superficie terrestre. La aproximación que se propone para realizar el escalado en frecuencia puede ser útil en los enlaces de comunicaciones por satélite, en los que a menudo se dispone de información en relación a los parámetros de propagación a una determinada frecuencia, por ejemplo en el enlace descendente, y sería de utilidad conocer esos mismos parámetros en el enlace ascendente de cara a poder mitigar los efectos que tiene la atmósfera sobre la señal emitida (atenuación, desvanecimiento, etc). En el caso de la temperatura media de radiación, la aproximación que se propone podría ser útil de cara a la realización de medidas de radiometría, diseño de equipamiento de instrumentación o comunicaciones por satélite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUNRISE is a balloon-borne solar telescope flown with a long-duration balloon by NASA's Columbia Scientific Balloon Facility team from Esrange (Swedish Space Corporation), on 8 June 2009. SUNRISE has been a challenging mission from the thermal point of view because of its size and power dissipation. Thus, a dedicated thermal analysis has been carried out to find a solution that allows all the devices to be kept within their appropriate temperature ranges, without exceeding the allowable temperature gradients, critical for optical devices. In this article, the thermal design of SUNRISE is described. A geometrical mathematical model and a thermal mathematical model of the whole system have been set up for the different load cases in order to obtain the temperature distribution and gradients in the system. Some trade-offs have been necessary to fulfil all the thermal requirements. The thermal hardware used to achieve it is described. Finally, the temperatures obtained with the models have been compared with flight data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The OSIRIS cameras on the Rosetta spacecraft observed Comet 9P/Tempel 1 from 5 days before to 10 days after it was hit by the Deep Impact projectile. The Narrow Angle Camera (NAC) monitored the cometary dust in 5 different filters. The Wide Angle Camera (WAC) observed through filters sensitive to emissions from OH, CN, Na, and OI together with the associated continuum. Before and after the impact the comet showed regular variations in intensity. The period of the brightness changes is consistent with the rotation period of Tempel 1. The overall brightness of Tempel 1 decreased by about 10% during the OSIRIS observations. The analysis of the impact ejecta shows that no new permanent coma structures were created by the impact. Most of the material moved with View the MathML source∼200ms−1. Much of it left the comet in the form of icy grains which sublimated and fragmented within the first hour after the impact. The light curve of the comet after the impact and the amount of material leaving the comet (View the MathML source4.5–9×106kg of water ice and a presumably larger amount of dust) suggest that the impact ejecta were quickly accelerated by collisions with gas molecules. Therefore, the motion of the bulk of the ejecta cannot be described by ballistic trajectories, and the validity of determinations of the density and tensile strength of the nucleus of Tempel 1 with models using ballistic ejection of particles is uncertain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The application of a recently developed model of sonic anemometers measuring process has revealed that these sensors cannot be considered as absolute ones when measuring spectral characteristics of turbulent wind speed since it is demonstrated that the ratios of measured to real spectral density functions depend on the composition and temperature of the considered planetary atmosphere. The new model of the measuring process of sonic anemometers is applied to describe the measuring characteristics of these sensors as fluid/flow dependent (against the traditional hypothesis of fluid/flow independence) and hence dependent on the considered planetary atmosphere. The influence of fluid and flow characteristics (quantified via the Mach number of the flow) and the influence of the design parameters of sonic anemometers (mainly represented by time delay between pulses shots and geometry) on turbulence measurement are quantified for the atmospheres of Mars, Jupiter, and Earth. Important differences between the behavior of these sensors for the same averaged wind speed in the three considered atmospheres are detected in terms of characteristics of turbulence measurement as well as in terms of optimum values of anemometer design parameters for application on the different considered planetary atmospheres. These differences cannot be detected by traditional models of sonic anemometer measuring process based on line averaging along the sonic acoustic paths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Universidad Politécnica de Madrid participates in the MINISAT 01 program as the experiment CPLM responsible. This experiment aims at the study of the fluid behaviour in reduced gravity conditions. The interest of this study is and has been widely recognised by the scientific community and has potential applications in the pharmaceutical and microelectronic technologies (crystal growth), among others. The scientific team which has developed the CPLM experiment has a wide experience in this field and had participate in the performance of a large number of experiments on the fluid behaviour in reduced gravity conditions in flight (Spacelab missions, TEXUS sounding rockets, KC-135 and Caravelle aeroplanes, drop towers, as well as on earth labs (neutralbuoyancy and small scale simulations). The experimental equipment used in CPLMis a version of the payload developed for experimentation on drop towers and on board microsatellites as the UPM-Sat 1, adapted to fly on board MINISAT 01.