872 resultados para Simulación modular


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Online services are no longer isolated. The release of public APIs and technologies such as web hooks are allowing users and developers to access their information easily. Intelligent agents could use this information to provide a better user experience across services, connecting services with smart automatic. behaviours or actions. However, agent platforms are not prepared to easily add external sources such as web services, which hinders the usage of agents in the so-called Evented or Live Web. As a solution, this paper introduces an event-based architecture for agent systems, in accordance with the new tendencies in web programming. In particular, it is focused on personal agents that interact with several web services. With this architecture, called MAIA, connecting to new web services does not involve any modification in the platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

It is intended to provide a methodology of analysis more realistic this accident referred to in calculations of the license that requires fuel catastrophic break regardless of the height of the fall, with the consequent release of inventory analysers. Accidents that occurred in the past indicate that this hypothesis could be too conservative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recientemente, el paradigma de la computación en la nube ha recibido mucho interés por parte tanto de la industria como del mundo académico. Las infraestructuras cloud públicas están posibilitando nuevos modelos de negocio y ayudando a reducir costes. Sin embargo, una compañía podría desear ubicar sus datos y servicios en sus propias instalaciones, o tener que atenerse a leyes de protección de datos. Estas circunstancias hacen a las infraestructuras cloud privadas ciertamente deseables, ya sea para complementar a las públicas o para sustituirlas por completo. Por desgracia, las carencias en materia de estándares han impedido que las soluciones para la gestión de infraestructuras privadas se hayan desarrollado adecuadamente. Además, la multitud de opciones disponibles ha creado en los clientes el miedo a depender de una tecnología concreta (technology lock-in). Una de las causas de este problema es la falta de alineación entre la investigación académica y los productos comerciales, ya que aquella está centrada en el estudio de escenarios idealizados sin correspondencia con el mundo real, mientras que éstos consisten en soluciones desarrolladas sin tener en cuenta cómo van a encajar con los estándares más comunes o sin preocuparse de hacer públicos sus resultados. Con objeto de resolver este problema, propongo un sistema de gestión modular para infraestructuras cloud privadas enfocado en tratar con las aplicaciones en lugar de centrarse únicamente en los recursos hardware. Este sistema de gestión sigue el paradigma de la computación autónoma y está diseñado en torno a un modelo de información sencillo, desarrollado para ser compatible con los estándares más comunes. Este modelo divide el entorno en dos vistas, que sirven para separar aquello que debe preocupar a cada actor involucrado del resto de información, pero al mismo tiempo permitiendo relacionar el entorno físico con las máquinas virtuales que se despliegan encima de él. En dicho modelo, las aplicaciones cloud están divididas en tres tipos genéricos (Servicios, Trabajos de Big Data y Reservas de Instancias), para que así el sistema de gestión pueda sacar partido de las características propias de cada tipo. El modelo de información está complementado por un conjunto de acciones de gestión atómicas, reversibles e independientes, que determinan las operaciones que se pueden llevar a cabo sobre el entorno y que es usado para hacer posible la escalabilidad en el entorno. También describo un motor de gestión encargado de, a partir del estado del entorno y usando el ya mencionado conjunto de acciones, la colocación de recursos. Está dividido en dos niveles: la capa de Gestores de Aplicación, encargada de tratar sólo con las aplicaciones; y la capa del Gestor de Infraestructura, responsable de los recursos físicos. Dicho motor de gestión obedece un ciclo de vida con dos fases, para así modelar mejor el comportamiento de una infraestructura real. El problema de la colocación de recursos es atacado durante una de las fases (la de consolidación) por un resolutor de programación entera, y durante la otra (la online) por un heurístico hecho ex-profeso. Varias pruebas han demostrado que este acercamiento combinado es superior a otras estrategias. Para terminar, el sistema de gestión está acoplado a arquitecturas de monitorización y de actuadores. Aquella estando encargada de recolectar información del entorno, y ésta siendo modular en su diseño y capaz de conectarse con varias tecnologías y ofrecer varios modos de acceso. ABSTRACT The cloud computing paradigm has raised in popularity within the industry and the academia. Public cloud infrastructures are enabling new business models and helping to reduce costs. However, the desire to host company’s data and services on premises, and the need to abide to data protection laws, make private cloud infrastructures desirable, either to complement or even fully substitute public oferings. Unfortunately, a lack of standardization has precluded private infrastructure management solutions to be developed to a certain level, and a myriad of diferent options have induced the fear of lock-in in customers. One of the causes of this problem is the misalignment between academic research and industry ofering, with the former focusing in studying idealized scenarios dissimilar from real-world situations, and the latter developing solutions without taking care about how they f t with common standards, or even not disseminating their results. With the aim to solve this problem I propose a modular management system for private cloud infrastructures that is focused on the applications instead of just the hardware resources. This management system follows the autonomic system paradigm, and is designed around a simple information model developed to be compatible with common standards. This model splits the environment in two views that serve to separate the concerns of the stakeholders while at the same time enabling the traceability between the physical environment and the virtual machines deployed onto it. In it, cloud applications are classifed in three broad types (Services, Big Data Jobs and Instance Reservations), in order for the management system to take advantage of each type’s features. The information model is paired with a set of atomic, reversible and independent management actions which determine the operations that can be performed over the environment and is used to realize the cloud environment’s scalability. From the environment’s state and using the aforementioned set of actions, I also describe a management engine tasked with the resource placement. It is divided in two tiers: the Application Managers layer, concerned just with applications; and the Infrastructure Manager layer, responsible of the actual physical resources. This management engine follows a lifecycle with two phases, to better model the behavior of a real infrastructure. The placement problem is tackled during one phase (consolidation) by using an integer programming solver, and during the other (online) with a custom heuristic. Tests have demonstrated that this combined approach is superior to other strategies. Finally, the management system is paired with monitoring and actuators architectures. The former able to collect the necessary information from the environment, and the later modular in design and capable of interfacing with several technologies and ofering several access interfaces.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Logic programming (LP) is a family of high-level programming languages which provides high expressive power. With LP, the programmer writes the properties of the result and / or executable specifications instead of detailed computation steps. Logic programming systems which feature tabled execution and constraint logic programming have been shown to increase the declarativeness and efficiency of Prolog, while at the same time making it possible to write very expressive programs. Tabled execution avoids infinite failure in some cases, while improving efficiency in programs which repeat computations. CLP reduces the search tree and brings the power of solving (in)equations over arbitrary domains. Similarly to the LP case, CLP systems can also benefit from the power of tabling. Previous implementations which take ful advantage of the ideas behind tabling (e.g., forcing suspension, answer subsumption, etc. wherever it is necessary to avoid recomputation and terminate whenever possible) did not offer a simple, well-documented, easy-to-understand interface. This would be necessary to make the integratation of arbitrary CLP solvers into existing tabling systems possible. This clearly hinders a more widespread usage of the combination of both facilities. In this thesis we examine the requirements that a constraint solver must fulfill in order to be interfaced with a tabling system. We propose and implement a framework, which we have called Mod TCLP, with a minimal set of operations (e.g., entailment checking and projection) which the constraint solver has to provide to the tabling engine. We validate the design of Mod TCLP by a series of use cases: we re-engineer a previously existing tabled constrain domain (difference constraints) which was connected in an ad-hoc manner with the tabling engine in Ciao Prolog; we integrateHolzbauer’s CLP(Q) implementationwith Ciao Prolog’s tabling engine; and we implement a constraint solver over (finite) lattices. We evaluate its performance with several benchmarks that implement a simple abstract interpreter whose fixpoint is reached by means of tabled execution, and whose domain operations are handled by the constraint over (finite) lattices, where TCLP avoids recomputing subsumed abstractions.---ABSTRACT---La programación lógica con restricciones (CLP) y la tabulación son extensiones de la programación lógica que incrementan la declaratividad y eficiencia de Prolog, al mismo tiempo que hacen posible escribir programasmás expresivos. Las implementaciones anteriores que integran completamente ambas extensiones, incluyendo la suspensión de la ejecución de objetivos siempre que sea necesario, la implementación de inclusión (subsumption) de respuestas, etc., en todos los puntos en los que sea necesario para evitar recomputaciones y garantizar la terminación cuando sea posible, no han proporcionan una interfaz simple, bien documentada y fácil de entender. Esta interfaz es necesaria para permitir integrar resolutores de CLP arbitrarios en el sistema de tabulación. Esto claramente dificulta un uso más generalizado de la integración de ambas extensiones. En esta tesis examinamos los requisitos que un resolutor de restricciones debe cumplir para ser integrado con un sistema de tabulación. Proponemos un esquema (y su implementación), que hemos llamadoMod TCLP, que requiere un reducido conjunto de operaciones (en particular, y entre otras, entailment y proyección de almacenes de restricciones) que el resolutor de restricciones debe ofrecer al sistema de tabulación. Hemos validado el diseño de Mod TCLP con una serie de casos de uso: la refactorización de un sistema de restricciones (difference constraints) previamente conectado de un modo ad-hoc con la tabulación de Ciao Prolog; la integración del sistema de restricciones CLP(Q) de Holzbauer; y la implementación de un resolutor de restricciones sobre retículos finitos. Hemos evaluado su rendimiento con varios programas de prueba, incluyendo la implementación de un intérprete abstracto que alcanza su punto fijo mediante el sistema de tabulación y en el que las operaciones en el dominio son realizadas por el resolutor de restricciones sobre retículos (finitos) donde TCLP evita la recomputación de valores abstractos de las variables ya contenidos en llamadas anteriores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este documento es la descripción de una simulación de sistemas de vigilancia para la evaluación de herramientas de control de tráfico aéreo. Se pretende mostrar el desarrollo de un sistema radar en Modo S mediante una simulación por eventos discretos. Para ello, se ha desarrollado un software en lenguaje Java que incluye la simulación de trayectorias de aeronaves, métodos de obtención de posiciones, cambios entre los distintos sistemas de coordenadas, la simulación del barrido mecánico de un radar Modo S, así como modelos de cobertura y detección de aeronaves, creación de mensajes proporcionados mediante el enlace de datos Modo S (Downliked Airborne Parameters, DAP) que contienen información relevante para el control de tráfico aéreo, como pueden ser datos de velocidad o altura. Dentro del simulador del radar también se incluyen rutinas para la visualización en Matlab de los resultados obtenidos, lo que permite verificar las detecciones y ubicaciones de las aeronaves.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este trabajo fin de grado (TFG) consiste en estudiar algunas técnicas de análisis tiempo-frecuencia y aplicarlas a la detección de señales radar. Estas técnicas se incorporan en los actuales equipos de guerra electrónica radar, tales como los interceptadores digitales. La principal motivación de estos equipos consiste en detectar y localizar las fuentes radiantes enemigas e intentar obtener cierta información de las señales interceptadas, tal como, la dirección de llegada (DOA, Direction Of Arrival), el tiempo de llegada (TOA, Time Of Arrival), amplitud de pulso (PA, Pulse Amplitude), anchura de pulso (PW, Pulse Width), frecuencia instantánea (IF, Instantaneous Frequency) o modulación intrapulso. Se comenzará con un estudio detallado de la Short-Time Fourier Transform (STFT),dado su carácter lineal es la técnica más explotada actualmente. Este algoritmo presenta una mala resolución conjunta tiempo-frecuencia. Este hecho provoca el estudio complementario de una segunda técnica de análisis basada en la distribución de Wigner-Ville (WVD). Mediante este método se logra una resolución optima tiempo-frecuencia. A cambio, se obtienen términos cruzados indeseados debido a su carácter cuadrático. Uno de los objetivos de este TFG reside en calcular la sensibilidad de los sistemas de detección analizados a partir de las técnicas tiempo-frecuencia. Se hará uso del método de Monte Carlo para estimar ciertos parámetros estadísticos del sistema tales como la probabilidad de falsa alarma y de detección. Así mismo, se llevará a cabo el estudio completo de un receptor digital de guerra electrónica a fin de comprender el funcionamiento de todos los subsistemas que componen el conjunto (STFT/WVD, medidor instantáneo de frecuencias, procesamiento no coherente y generación de descriptores de pulso). Por último, se analizará su comportamiento frente a diferentes señales Radar (FM-lineal, BPSK, chirp o Barker). Se utilizará para ello la herramienta Matlab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trabajo consistirá en la fabricación de un amplificador en banda 3G pasando por todos los pasos del proceso, desde el análisis y diseño teórico, la simulación circuital y, por último, la fabricación y caracterización del amplificador. Se ha escogido una estructura balanceada, consistente en dos acopladores 3dB 90º colocados en cascada con dos amplificadores conectados entre las salidas del primero y las entradas del segundo, por la considerable ventaja que supone en términos de linealidad de la ganancia y simplicidad en la adaptación. La primera tarea a desarrollar será definir los valores teóricos a emplear en los componentes de la estructura, esto es, la caracterización de los acopladores 3dB 90º, de los transistores BJT y de las posibles etapas de acoplo necesarias para el correcto funcionamiento del mismo. Se comenzará empleando los modelos ideales de los componentes, realizando una primera simulación en MatLab para obtener los valores de los elementos que serán introducidos en el simulador circuital, en este proyecto ADS. Una vez terminada el diseño teórico ideal se procederá a introducir efectos perturbadores en la simulación circuital que representen más adecuadamente el comportamiento real que se encontrará al fabricar el prototipo. Se diseñará mediante simulación circuital (ADS) el amplificador considerando los parámetros circuitales de los componentes considerados (BJT NPN) procedentes de la hoja de especificaciones del fabricante. Una vez diseñado este, se ajustará el diseño del módulo amplificador teniendo en cuenta el comportamiento de las conexiones en microondas. El efecto de estas conexiones se considerará mediante equivalentes circuitales. Con todo esto se analizará el circuito completo, y con estos elementos introducidos se buscará optimizar el diseño teórico inicial para mantener dichos efectos perturbadores centro de un margen aceptable. Proseguirá el trabajo con la fabricación del prototipo, empleando líneas microstrip para los acopladores, y transistores BJT para los amplificadores. Terminada la fabricación se realizará la última tarea del trabajo, consistente en la medida del prototipo en el laboratorio, donde se observará la respuesta en frecuencia en módulo y fase de la estructura, realizando la caracterización en parámetros S del amplificador. Se analizarán los resultados y se compararán estos con el diseño, en caso de existir diferencias entre ambos se intentará encontrar la justificación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El funcionamiento interno del cerebro es todavía hoy en día un misterio, siendo su comprensión uno de los principales desafíos a los que se enfrenta la ciencia moderna. El córtex cerebral es el área del cerebro donde tienen lugar los procesos cerebrales de más alto nivel, cómo la imaginación, el juicio o el pensamiento abstracto. Las neuronas piramidales, un tipo específico de neurona, suponen cerca del 80% de los cerca de los 10.000 millones de que componen el córtex cerebral, haciendo de ellas un objetivo principal en el estudio del funcionamiento del cerebro. La morfología neuronal, y más específicamente la morfología dendrítica, determina cómo estas procesan la información y los patrones de conexión entre neuronas, siendo los modelos computacionales herramientas imprescindibles para el estudio de su rol en el funcionamiento del cerebro. En este trabajo hemos creado un modelo computacional, con más de 50 variables relativas a la morfología dendrítica, capaz de simular el crecimiento de arborizaciones dendríticas basales completas a partir de reconstrucciones de neuronas piramidales reales, abarcando desde el número de dendritas hasta el crecimiento los los árboles dendríticos. A diferencia de los trabajos anteriores, nuestro modelo basado en redes Bayesianas contempla la arborización dendrítica en su conjunto, teniendo en cuenta las interacciones entre dendritas y detectando de forma automática las relaciones entre las variables morfológicas que caracterizan la arborización. Además, el análisis de las redes Bayesianas puede ayudar a identificar relaciones hasta ahora desconocidas entre variables morfológicas. Motivado por el estudio de la orientación de las dendritas basales, en este trabajo se introduce una regularización L1 generalizada, aplicada al aprendizaje de la distribución von Mises multivariante, una de las principales distribuciones de probabilidad direccional multivariante. También se propone una distancia circular multivariante que puede utilizarse para estimar la divergencia de Kullback-Leibler entre dos muestras de datos circulares. Comparamos los modelos con y sin regularizaci ón en el estudio de la orientación de la dendritas basales en neuronas humanas, comprobando que, en general, el modelo regularizado obtiene mejores resultados. El muestreo, ajuste y representación de la distribución von Mises multivariante se implementa en un nuevo paquete de R denominado mvCircular.---ABSTRACT---The inner workings of the brain are, as of today, a mystery. To understand the brain is one of the main challenges faced by current science. The cerebral cortex is the region of the brain where all superior brain processes, like imagination, judge and abstract reasoning take place. Pyramidal neurons, a specific type of neurons, constitute approximately the 80% of the more than 10.000 million neurons that compound the cerebral cortex. It makes the study of the pyramidal neurons crucial in order to understand how the brain works. Neuron morphology, and specifically the dendritic morphology, determines how the information is processed in the neurons, as well as the connection patterns among neurons. Computational models are one of the main tools for studying dendritic morphology and its role in the brain function. We have built a computational model that contains more than 50 morphological variables of the dendritic arborizations. This model is able to simulate the growth of complete dendritic arborizations from real neuron reconstructions, starting with the number of basal dendrites, and ending modeling the growth of dendritic trees. One of the main diferences between our approach, mainly based on the use of Bayesian networks, and other models in the state of the art is that we model the whole dendritic arborization instead of focusing on individual trees, which makes us able to take into account the interactions between dendrites and to automatically detect relationships between the morphologic variables that characterize the arborization. Moreover, the posterior analysis of the relationships in the model can help to identify new relations between morphological variables. Motivated by the study of the basal dendrites orientation, a generalized L1 regularization applied to the multivariate von Mises distribution, one of the most used distributions in multivariate directional statistics, is also introduced in this work. We also propose a circular multivariate distance that can be used to estimate the Kullback-Leibler divergence between two circular data samples. We compare the regularized and unregularized models on basal dendrites orientation of human neurons and prove that regularized model achieves better results than non regularized von Mises model. Sampling, fitting and plotting functions for the multivariate von Mises are implemented in a new R packaged called mvCircular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto abarca el estudio, análisis y dimensionamiento del tren de Licuación Gas Natural del proyecto Gorgon LNG basado en la tecnología AP/C3MR de Air Products. Este estudio cubre toda la evolución del gas natural dentro del tren de licuación, antes de ser enviado a los tanques de almacenamiento, apoyándose en procesos de simulación informática. Como parte de este proyecto, se realiza una propuesta de todos los equipos (intercambiadores de calor, turbinas de gas, compresores, etc.) necesarios para la consecución del proceso teniendo como base los datos resultantes del proceso de simulación llevado a cabo. Una vez realizada tanto la simulación del proceso como la propuesta de equipos, se hace una valoración económica del proyecto que confirme la viabilidad de este tipo de tecnología, enmarcándola en el mercado de combustibles actual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este proyecto se desarrolla un modelo de simulación de un accionamiento controlado que emula el comportamiento de una turbina eólica, el cual se ha llevado a cabo a través del programa para simulación Matlab/Simulink. Su desarrollo se ha estructurado de la siguiente forma: Tras una breve introducción a la energía eólica y a las máquinas eléctricas objeto de estudio en este proyecto, se procede a la caracterización y representación de dichas maquinas dentro de la plataforma de simulación virtual Simulink. Posteriormente se explican posibles estrategias de control de la máquina de inducción, las cuales son aplicadas para la realización de un control de velocidad. Asimismo, se realiza un control vectorial de par de la máquina de inducción de modo que permita un seguimiento efectivo del par de referencia demandado por el usuario, ante distintas condiciones. Finalmente, se añade el modelo de turbina eólica de manera que, definiendo los valores de velocidad de viento, ángulo de paso y velocidad del eje, permite evaluar el par mecánico desarrollado por la turbina. Este modelo se valida comprobando su funcionamiento para diferentes puntos de operación ante diversas condiciones del par de carga. Las condiciones de carga se establecen acoplando al modelo de la turbina, un generador síncrono de imanes permanentes conectado a una carga resistiva. ! II! ABSTRACT In this project, the simulation model of a controlled drive that emulates the behaviour of a wind turbine is developed. It has been carried out through the platform for multidomian simulation called Matlab/Simulink. Its development has been structured as follows: After a brief introduction to the wind energy and the electrical machines studied in this project, these machines are characterized and represented into the virtual simulation platform, Simulink. Subsequently, the possible control strategies for the induction machine are explained and applied in order to carry out a speed control. Additionally, a torque vector control of the induction machine is performed, so as to enable an effective monitoring of the reference torque requested by the user, under different conditions. Finally, the wind turbine model is implemented so as to assess the turbine mechanical torque, after defining the wind speed, the pitch angle and the shaft speed values. This model is validated by testing its functionality for different operating points under various load torques. The load conditions are set up by attaching a permanent magnets synchronous machine, with a resistive load, to the turbine model.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente Trabajo fin de Grado recoge las simulaciones de los diagramas de radiación secundarios de una antena receptora de estación terrena de 6m para observación de la tierra. Se encuentra enmarcado en el proyecto “Prototype of K-Band Ground Station Antenna (6m aperture) for Earth Observation Application”, propuesto por la Agencia Europea del Espacio (ESA) y desarrollado por la empresa INDRA. Se ha diseñado, construido y medido un alimentador dual S/K, que incorpora las dos puertas RHCP y LHCP en banda S y K (Recepción y Tracking). Los diagramas de este alimentador serán la base para las simulaciones de los diagramas secundarios de nuestra antena. A lo largo del documento se interpretarán los diagramas de radiación obtenidos y se compararán los resultados con las especificaciones de diseño de la antena; además se verificará el cumplimiento de la recomendación de la ITU-R S.580-6. Este trabajo pone de manifiesto las dificultades de medir con precisión los diagramas de radiación en banda K para este tipo de alimentadores duales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordinación Modular

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoy en día los nuevos desarrollos en teledetección permiten la mejora de la caracterización y gestión del entorno fluvial. Especial relevancia muestra el escaneo laser aerotransportado. Este sistema es conocido como LiDAR (Light Detection and Ranging) y desde sus orígenes ha mejorado de manera excepcional sus resultados tanto en la precisión espacial de los puntos obtenidos, su post-procesado como su clasificación. Todo ello con una reducción de los costes, ahora asumible para ser incorporado en los proyectos de restauración fluvial. Sin embargo, no ha sido hasta fechas recientes cuando han comenzado a aparecer referencias en este sentido. Dando continuidad a esta línea de investigación, en este trabajo se presenta el resumen de los avances en relación al papel que puede presentar la tecnología LiDAR en un proyecto de restauración fluvial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde que las Tecnologías de la Información y la Comunicación comenzaron a adquirir una gran importancia en la sociedad, uno de los principales objetivos ha sido conseguir que la información transmitida llegue en perfectas condiciones al receptor. Por este motivo, se hace necesario el desarrollo de nuevos sistemas de comunicación digital capaces de ofrecer una transmisión segura y fiable. Con el paso de los años, se han ido mejorando las características de los mismos, lo que significa importantes avances en la vida cotidiana. En este contexto, uno de los sistemas que más éxito ha tenido es la Modulación Reticulada con Codificación TCM, que aporta grandes ventajas en la comunicación digital, especialmente en los sistemas de banda estrecha. Este tipo de código de protección contra errores, basado en la codificación convolucional, se caracteriza por realizar la modulación y codificación en una sola función. Como consecuencia, se obtiene una mayor velocidad de transmisión de datos sin necesidad de incrementar el ancho de banda, a costa de pasar a una constelación superior. Con este Proyecto Fin de Grado se quiere analizar el comportamiento de la modulación TCM y cuáles son las ventajas que ofrece frente a otros sistemas similares. Se propone realizar cuatro simulaciones, que permitan visualizar diversas gráficas en las que se relacione la probabilidad de bit erróneo BER y la relación señal a ruido SNR. Además, con estas gráficas se puede determinar la ganancia que se obtiene con respecto a la probabilidad de bit erróneo teórica. Estos sistemas pasan de una modulación QPSK a una 8PSK o de una 8PSK a una 16QAM. Finalmente, se desarrolla un entorno gráfico de Matlab con el fin de proporcionar un sencillo manejo al usuario y una mayor interactividad. ABSTRACT. Since Information and Communication Technologies began to gain importance on society, one of the main objectives has been to achieve the transmitted information reaches the receiver perfectly. For this reason, it is necessary to develop new digital communication systems with the ability to offer a secure and reliable transmission. The systems characteristics have improved over the past years, what it means important progress in everyday life. In this context, one of the most successful systems is Trellis Coded Modulation TCM, that brings great advantages in terms of digital communications, especially narrowband systems. This kind of error correcting code, based on convolutional coding, is characterized by codifying and modulating at the same time. As a result, a higher data transmission speed is achieved without increasing bandwidth at the expense of using a superior modulation. The aim of this project is to analyze the TCM performance and the advantages it offers in comparison with other similar systems. Four simulations are proposed, that allows to display several graphics that show how the Bit Error Ratio BER and Signal Noise Ratio SNR are related. Furthermore, it is possible to calculate the coding gain. Finally, a Matlab graphic environment is designed in order to guarantee the interactivity with the final user.