953 resultados para satélite de comunicaciones


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente Proyecto de Fin de Carrera viene motivado por el conocimiento de la existencia de fenómenos erosivos en la zona de Orgaz - Los Yébenes. El objetivo es el estudio de la distribución de procesos erosivos en el área citada y la relación de las zonas en que estos se producen, con las propiedades analíticas del suelo. La pérdida de suelo por erosión inducida por el hombre, supera a la erosión natural en varios órdenes de magnitud, por lo que cabe considerarla como un grave problema ambiental que propicia la pérdida de fertilidad. Esto es debido a que en los ecosistemas agrarios, sobre todo en cultivos de secano,se han aplicado manejos que han acelerado las tasas de erosión naturales. En los cultivos de secano más extendidos, se ha eliminado toda la cubierta vegetal, se ha compactado el suelo y esquilmado la materia orgánica. Como consecuencia de estos manejos poco respetuosos con el suelo, las tasas de erosión son mayores a las tasas de formación y constituyen un poderoso factor de desertificación. La respuesta erosiva de un determinado ambiente o uso del suelo suele ser bastante diferente según la época del año en la que se produzcan las lluvias,su intensidad y duración, el estado de la vegetación, el tiempo en el que el suelo permanece desnudo tras el levantamiento de la cosecha, etc.… Del uso y gestión que se haga del suelo y de la cubierta vegetal dependerá que, con el tiempo, la erosión potencial no se convierta en erosión actual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El primer objetivo de este trabajo es realizar una comparación de las prestaciones de un nuevo sistema de comunicaciones llamado O3b y el resto de sistemas convencionales. Esta comparación se hará según una serie de parámetros: la altura de los satélites, la banda de frecuencia usada, la latencia de los enlaces, la potencia transmitida y las pérdidas de propagación de la señal. El segundo propósito del trabajo es el dimensionado de una red que use los estándares abiertos de comunicación por satélite DVB-S2 para el canal forward y DVB-RCS2 para el canal de retorno y usando las infraestructuras proporcionadas por el sistema O3b. Este sistema satelital ofrecerá servicio a una red 4G en un pueblo de Ecuador llamado Yangana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto UPMSat2 aborda el desarrollo de un micro-satélite que se usará como una plataforma de demostración tecnológica. La mayor parte del proyecto se desarrolla en el Instituto Ignacio de la Riva de la Universidad Politécnica de Madrid, con la colaboración de empresas del sector del espacio. La labor del grupo STRAST se centra en el desarrollo del software de vuelo y del sector de tierra del satélite. Este Trabajo Fin de Grado trata del desarrollo de algunos componentes del software embarcado en el satélite. Los componentes desarrollados son: Manager, Platform y ADCS. El Manager está encargado de dirigir el funcionamiento del satélite y, en concreto, de su modo de operación. El Platform se encarga de monitorizar el estado del satélite, para comprobar que el funcionamiento de los componentes de hardware es el adecuado. Finalmente, el ADCS (Attitude Determination and Control System) trata de asegurar que la posición del satélite, respecto a la tierra, es la adecuada. El desarrollo de este trabajo parte de un diseño existente, creado por alumnos previamente. El trabajo realizado ha consistido en mejorarlos con funcionalidad adicional y realizar una integración de estos subsistemas. El resultado es un sistema operativo, que incluye unas pruebas preliminares. Un trabajo futuro será la realización de pruebas exhaustivas,para validar el funcionamiento de los subsistemas desarrollados. El desarrollo de software se ha basado en un conjunto de tecnologías habituales en los sistemas empotrados de alta integridad. El diseño se ha realizado con la herramienta TASTE, que permite el uso de AADL. El lenguaje Ada se ha utilizado para la implementación, ya que es adecuado para este tipo de sistemas. En concreto, se ha empleado un subconjunto seguro del lenguaje para poder realizar análisis estático y para incrementar la predecibilidad de su comportamiento. La concurrencia se basa en el modelo de Ravenscar,que es conforme con los métodos de análisis de respuesta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo el estudio, diseño e implementación de equipos de bajo coste, flexibles y de fácil mantenimiento para un laboratorio docente de comunicaciones ópticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gran cantidad de servicios de telecomunicación tales como la distribución de televisión o los sistemas de navegación están basados en comunicaciones por satélite. Del mismo modo que ocurre en otras aplicaciones espaciales, existe una serie de recursos clave severamente limitados, tales como la masa o el volumen. En este sentido, uno de los dispositivos pasivos más importantes es el diplexor del sistema de alimentación de la antena. Este dispositivo permite el uso de una única antena tanto para transmitir como para recibir, con la consiguiente optimización de recursos que eso supone. El objetivo principal de este trabajo es diseñar un diplexor que cumpla especificaciones reales de comunicaciones por satélite. El dispositivo consiste en dos estructuras filtrantes unidas por una bifurcación de tres puertas. Además, es imprescindible utilizar tecnología de guía de onda para su implementación debido a los altos niveles de potencia manejados. El diseño del diplexor se lleva a cabo dividiendo la estructura en diversas partes, con el objetivo de que todo el proceso sea factible y eficiente. En primer lugar, se han desarrollado filtros con diferentes respuestas – paso alto, paso bajo y paso banda – aunque únicamente dos de ellos formarán el diplexor. Al afrontar su diseño inicial, se lleva a cabo un proceso de síntesis teórica utilizando modelos circuitales. A continuación, los filtros se optimizan con técnicas de diseño asistido por ordenador (CAD) full-wave, en concreto mode matching. En este punto es esencial analizar las estructuras y su simetría para determinar qué modos electromagnéticos se están propagando realmente por los dispositivos, para así reducir el esfuerzo computacional asociado. Por último, se utiliza el Método de los Elementos Finitos (FEM) para verificar los resultados previamente obtenidos. Una vez que el diseño de los filtros está terminado, se calculan las dimensiones correspondientes a la bifurcación. Finalmente, el diplexor al completo se somete a un proceso de optimización para cumplir las especificaciones eléctricas requeridas. Además, este trabajo presenta un novedoso valor añadido: la implementación física y la caracterización experimental tanto del diplexor como de los filtros por separado. Esta posibilidad, impracticable hasta ahora debido a su elevado coste, se deriva del desarrollo de las técnicas de manufacturación aditiva. Los prototipos se imprimen en plástico (PLA) utilizando una impresora 3D de bajo coste y posteriormente se metalizan. El uso de esta tecnología conlleva dos limitaciones: la precisión de las dimensiones geométricas (±0.2 mm) y la conductividad de la pintura metálica que recubre las paredes internas de las guías de onda. En este trabajo se incluye una comparación entre los valores medidos y simulados, así como un análisis de los resultados experimentales. En resumen, este trabajo presenta un proceso real de ingeniería: el problema de diseñar un dispositivo que satisfaga especificaciones reales, las limitaciones causadas por el proceso de fabricación, la posterior caracterización experimental y la obtención de conclusiones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto tiene como principal objetivo realizar un estudio de los sistemas CNS/ATM (Comunicaciones, Navegación, Vigilancia y Gestión del Tráfico Aéreo), así como de los criterios generales bajo los cuales se realiza la navegación aérea; analizando la problemática actual y planteando los retos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde que las Tecnologías de la Información y la Comunicación comenzaron a adquirir una gran importancia en la sociedad, uno de los principales objetivos ha sido conseguir que la información transmitida llegue en perfectas condiciones al receptor. Por este motivo, se hace necesario el desarrollo de nuevos sistemas de comunicación digital capaces de ofrecer una transmisión segura y fiable. Con el paso de los años, se han ido mejorando las características de los mismos, lo que significa importantes avances en la vida cotidiana. En este contexto, uno de los sistemas que más éxito ha tenido es la Modulación Reticulada con Codificación TCM, que aporta grandes ventajas en la comunicación digital, especialmente en los sistemas de banda estrecha. Este tipo de código de protección contra errores, basado en la codificación convolucional, se caracteriza por realizar la modulación y codificación en una sola función. Como consecuencia, se obtiene una mayor velocidad de transmisión de datos sin necesidad de incrementar el ancho de banda, a costa de pasar a una constelación superior. Con este Proyecto Fin de Grado se quiere analizar el comportamiento de la modulación TCM y cuáles son las ventajas que ofrece frente a otros sistemas similares. Se propone realizar cuatro simulaciones, que permitan visualizar diversas gráficas en las que se relacione la probabilidad de bit erróneo BER y la relación señal a ruido SNR. Además, con estas gráficas se puede determinar la ganancia que se obtiene con respecto a la probabilidad de bit erróneo teórica. Estos sistemas pasan de una modulación QPSK a una 8PSK o de una 8PSK a una 16QAM. Finalmente, se desarrolla un entorno gráfico de Matlab con el fin de proporcionar un sencillo manejo al usuario y una mayor interactividad. ABSTRACT. Since Information and Communication Technologies began to gain importance on society, one of the main objectives has been to achieve the transmitted information reaches the receiver perfectly. For this reason, it is necessary to develop new digital communication systems with the ability to offer a secure and reliable transmission. The systems characteristics have improved over the past years, what it means important progress in everyday life. In this context, one of the most successful systems is Trellis Coded Modulation TCM, that brings great advantages in terms of digital communications, especially narrowband systems. This kind of error correcting code, based on convolutional coding, is characterized by codifying and modulating at the same time. As a result, a higher data transmission speed is achieved without increasing bandwidth at the expense of using a superior modulation. The aim of this project is to analyze the TCM performance and the advantages it offers in comparison with other similar systems. Four simulations are proposed, that allows to display several graphics that show how the Bit Error Ratio BER and Signal Noise Ratio SNR are related. Furthermore, it is possible to calculate the coding gain. Finally, a Matlab graphic environment is designed in order to guarantee the interactivity with the final user.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Debido al gran auge en las comunicaciones móviles, los terminales cada vez son más finos a la par que más grandes, pues cada vez los usuarios quieren tener terminales delgados pero con pantallas mayores. Por ello, el objetivo principal del proyecto es aprender y analizar las antenas usadas en los teléfonos móviles, concretamente las antenas impresas. En los últimos años con el aumento de los servicios ofrecidos por los terminales móviles se han ido añadiendo distintas bandas de frecuencia en las que trabajan estos terminales. Por ello, ha sido necesario diseñar antenas que no funcionen únicamente en una banda de frecuencia, sino antenas multibanda, es decir, antenas capaces de funcionar en las distintas bandas de frecuencias. Para realizar las simulaciones y pruebas de este proyecto se utilizó el software FEKO, tanto el CAD FEKO como el POST FEKO. El CAD FEKO se empleó para el diseño de la antena, mientras que el POST FEKO sirvió para analizar las simulaciones. Por último, hay que añadir que FEKO aunque está basado en el Método de los Momentos (MoM) es una herramienta que puede utilizar varios métodos numéricos. Además del MoM puede utilizar otras técnicas (por separado o hibridizadas) como son el Métodos de Elementos Finitos (FEM), Óptica Física (PO), Lanzamiento de rayos con Óptica Geométrica (RL-GO), Teoría Uniforme de la Difracción (UTD), Método de las Diferencias Finitas en el Dominio del Tiempo (FDTD), ... ABSTRACT. Because of the boom in mobile communications, terminals are thinner and so large, because users want to thin terminals but with large screens. Therefore, the main objective of the project is to learn and analyse the antennas used in mobile phones, specifically printed antennas. In recent years with the rise of the services offered by mobile terminals have been adding different frequency bands in which these terminals work. For that reason, it has been necessary to design antennas that not work only in a frequency band, but multiband antennas, i.e., antennas capable of operating in different frequency bands. For performing simulations and testing in this project will be used software FEKO, as the CAD FEKO and POST FEKO. The CAD FEKO is used for the design of the antenna, whereas the POST FEKO is used for simulation analysis. Finally, it has to add that FEKO is based on the Method of Moments (MoM) but also it can use several numerical methods. Besides the MoM, FEKO can use other techniques (separated or hybridized) such as the Finite Element Method (FEM), Physical Optics (PO), Ray-launching Geometrical Optics (RL-GO), Uniform Theory of Diffraction (UTD), Finite Difference Time Domain (FDTD) …

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La generalización del uso de dispositivos móviles, con su consiguiente aumento del tráfico de datos, está generando una demanda cada vez mayor de bandas de frecuencia para el despliegue de sistemas de comunicación inalámbrica, así como una creciente congestión en las bandas bajas del espectro (hasta 3 GHz). Entre las posibles soluciones a este problema, se ha propuesto que la próxima generación de sistemas celulares, 5G, hagan uso de la banda milimétrica, entre 30 GHz y 300 GHz, donde hay anchos de banda contiguos disponibles con tamaños muy difíciles de encontrar en las frecuencias en uso en la generación actual. Este Proyecto de Fin de Grado tiene como finalidad estudiar la viabilidad del despliegue de sistemas celulares en dicha banda, basándose en los estudios tanto empíricos como teóricos ya publicados, así como en las recomendaciones de la UIT donde se estudian las características de propagación en estas bandas. En un siguiente apartado, se han analizado los documentos disponibles de los distintos proyectos y grupos, como pueden ser METIS-2020, impulsado por la Comisión Europea o IMT-2020 promovido por la UIT, dedicados a definir los futuros estándares de comunicación y sus características, así como la evolución de los actuales. Aparte del trabajo de documentación, se han realizado una serie de simulaciones. En primer lugar, se ha utilizado MATLAB para estudiar el comportamiento y la atenuación de la onda electromagnética a las frecuencias de interés en diferentes ubicaciones y climas, tanto en ubicaciones habituales como extremas, estudiándose los efectos de los gases atmosféricos y los hidrometeoros. También se ha utilizado software de planificación radioeléctrica profesional para hacer estudios de cobertura en entornos tanto urbanos, entre ellos Madrid o Barcelona, suburbanos, como Tres Cantos (Madrid) y O Barco de Valdeorras (Orense), y rurales como Valdefuentes (Cáceres) y Quiruelas de Vidriales (Zamora). Por último se han recogido todos los resultados, tanto los provenientes de los estudios como los obtenidos de nuestras propias simulaciones, y se ha realizado un breve comentario, comparando estos y analizando su impacto para posibles despliegues futuros de redes 5G. ABSTRACT. The generalization of mobile device use, with its associated data traffic growth, is generating a growing demand of spectrum for its use in the deployment of wireless telecommunication systems, and a growing congestion in the lower end of the spectrum (until 3 GHz). Among the possible solutions for this problem, it has been proposed that the next generation of cellular systems, 5G, makes use of the millimeter band, between 30 GHz and 300 GHz, where there are contiguous bandwidths with sizes hardly available in the bands used in the present. This Project aims to study the feasibility of cellular system deployments in said band, based on published empirical and theoretical studies and papers, and the ITU recommendations, where the propagation characteristics in those bands are studied. In the next section, available documentation coming from the different study groups and projects like METIS 2020 promoted by the European Commission, or IMT-2020, promoted by the ITU has been studied. In the documentation, future telecommunication standards and its characteristics and the evolution of the current ones are defined. Besides the documentation work, a series of simulations have been carried out. First, MATLAB has been used to study the behavior and attenuation of the electromagnetic wave at the frequencies of interest in different locations and climates, studying the effects of atmospheric gasses and hydrometeors in conventional and extreme locations. Industry standard radioelectric planning software has been used to study the coverage in different environments, such as urban locations like Madrid and Barcelona, both in Spain, suburban locations like Tres Cantos (Madrid, Spain) and O Barco de Valdeorras (Orense, Spain) and rural locations such as Valdefuentes (Cáreces, Spain) and Quiruelas de Vidriales (Zamora, Spain). Finally, all the results, both from the documentation and our own simulations, have been collected, and a brief commentary has been made, comparing those results and their possible impact in the future deployment of 5G networks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El nivel de las emisiones radioeléctricas de los sistemas de comunicaciones está sometido a estrictos controles para asegurar que no puedan suponer un riesgo para la salud de la población. En España, es el estado quien tiene la potestad sobre la gestión, planificación, administración y control del dominio público radioeléctrico. Los valores máximos de exposició radioeléctrica fijados en España coinciden con los utilizados en la mayor parte de los países miembros de la Unión Europea y son considerados internacionalmente seguros. No obstante, un municipio de España está considerando fijar unos niveles máximos de exposición que son entre 4.000–10.000 veces inferiores a los que están actualmente vigentes en todo el territorio español. Dicha limitación tan radical implicaría reducir mucho la potencia transmitida por las estaciones base, lo cual afectaría gravemente a la operatividad del sistema de comunicaciones móviles de dicho municipio. Este trabajo ha tenido como objetivo la realización de un estudio para comprobar cuantitativamente, en qué medida afecta esta reducción de potencia a los servicios de: voz, datos, banda ancha móvil y servicio de emergencias 112 que se ofrecen actualmente en dicho municipio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo es el resultado de una parte del curso "Fundamentos Electrónicos de las Comunicaciones" (2001) que los Departamentos del Área de "Tecnología Electrónica" de la ETSIT UPM llevan Impartiendo, con carácter de asignatura Optativa, durante los últimos tres años. El material recogido a los largo de estos años se ha ido acumulando en una larga serie de transparencias que están esperando adquirir la forma de un breve texto escrito. Antes de que esto se convierta en realidad el autor ha creído conveniente hacer un pequeño ensayo con el presente fascículo. En él ha recogido parte de las antedichas transparencias y algunos capítulos ya parcialmente concluidos. El material, como un todo, es bastante heterogéneo. Su contenido se centra en la parte que le correspondía en el curso: la relacionada con las Comunicaciones Ópticas y la Fotónica. Una parte, la que se refiere a la historia de los primeros láseres de semiconductor, si no concluida, si está ya parcialmente delimitada. Es la primera que ha escrito porque de ella hay muy poco en los libros más usuales. Otra parte, la correspondiente al inicio de las comunicaciones ópticas, está escrita pero solo como borrador. El resto está constituido por parte de las transparencias que José Antonio Martín Pereda ha venido usando; su apoyo es más gráfico que escrito. De ellas deberá generarse un texto más completo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las comunicaciones por satélite tienen cada vez mayores necesidades de espectro, con el objetivo de ofrecer servicios de banda ancha, tanto de comunicación de datos como de radiodifusión. En esta línea, se está incrementando de manera importante el uso de frecuencias en la banda Ka (20 y 30 GHz), que se verá complementada en el futuro por la banda Q/V (40 y 50 GHz) y por frecuencias en la banda W (por encima de 60 GHz). En estas frecuencias, microondas y ondas milimétricas, la troposfera produce importantes efectos de propagación. El más estudiado es el efecto de la lluvia, que produce desvanecimientos muy profundos. Sin embargo, la lluvia está presente en porcentajes de tiempo pequeños, típicamente inferiores al 5% en los climas templados. El resto del tiempo, más del 95% por ejemplo en los climas mencionados, los gases y las nubes pueden causar niveles importantes de atenuación en estas frecuencias. La Tesis aporta un nuevo modelo (Modelo Lucas-Riera), consistente en un conjunto de polinomios de aproximación para realizar, en ausencia de lluvia, la estimación de determinados parámetros de propagación, partiendo de otros datos que se suponen disponibles. El modelo está basado en datos obtenidos de radiosondeos meteorológicos y modelos físicos de atenuación por gases y nubes, que son los fenómenos más relevantes en ausencia de lluvia, y tiene en cuenta las características climatológicas del emplazamiento de interés, utilizando la clasificación climática de Köppen. Este modelo es aplicable en las bandas de frecuencias entre 12 y 100 GHz (exceptuando 60 GHz), donde se aproximarían los mencionados parámetros de propagación en una frecuencia a partir de los obtenidos en otra, en el caso de la atenuación y la temperatura de brillo, o bien se estimaría la temperatura media de radiación a una determinada frecuencia partiendo de la temperatura de superficie. Con este modelo se puede obtener una aproximación razonable si se conoce la Zona Climática de Köppen de la localización terrestre para la que queremos calcular las aproximaciones y en caso de que ésta se desconozca se aporta una Zona Global, que representa toda la superficie terrestre. La aproximación que se propone para realizar el escalado en frecuencia puede ser útil en los enlaces de comunicaciones por satélite, en los que a menudo se dispone de información en relación a los parámetros de propagación a una determinada frecuencia, por ejemplo en el enlace descendente, y sería de utilidad conocer esos mismos parámetros en el enlace ascendente de cara a poder mitigar los efectos que tiene la atmósfera sobre la señal emitida (atenuación, desvanecimiento, etc). En el caso de la temperatura media de radiación, la aproximación que se propone podría ser útil de cara a la realización de medidas de radiometría, diseño de equipamiento de instrumentación o comunicaciones por satélite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigación se enmarca dentro de los denominados lenguajes de especialidad que para esta tesis será el de las Tecnologías de la Información y la Comunicación (TIC). De todos los aspectos relacionados con el estudio de estos lenguajes que pudieran tener interés lingüístico ha primado el análisis del componente terminológico. Tradicionalmente la conceptualización de un campo del saber se representaba mayoritariamente a través del elemento nominal, así lo defiende la Teoría General de la Terminología (Wüster, 1968). Tanto la lexicología como la lexicografía han aportado importantes contribuciones a los estudios terminológicos para la identificación del componente léxico a través del cual se transmite la información especializada. No obstante esos primeros estudios terminológicos que apuntaban al sustantivo como elmentos denominativo-conceptual, otras teorías más recientes, entre las que destacamos la Teoría Comunicativa de la Terminología (Cabré, 1999) identifican otras estructuras morfosintácticas integradas por otros elementos no nominales portadores igualmente de esa carga conceptual. A partir de esta consideración, hemos seleccionado para este estudio el adjetivo relacional en tanto que representa otra categoría gramatical distinta al sustantivo y mantiene un vínculo con éste debido a su procedencia. Todo lo cual puede suscitar cierto interés terminológico. A través de esta investigación, nos hemos propuesto demostrar las siguientes hipótesis: 1. El adjetivo relacional aporta contenido especializado en su asociación con el componente nominal. 2. El adjetivo relacional es portador de un valor semántico que hace posible identificar con más precisión la relación conceptual de los elementos -adjetivo y sustantivo - de la combinación léxica resultante, especialmente en algunas formaciones ambiguas. 3. El adjetivo relacional, como modificador natural del sustantivo al que acompaña, podría imponer cierta restricción en sus combinaciones y, por tanto, hacer una selección discriminada de los integrantes de la combinación léxica especializada. Teniendo en cuenta las anteriores hipótesis, esta investigación ha delimitado y caracterizado el segmento léxico objeto de estudio: la ‘combinación léxica especializada (CLE)’ formalmente representada por la estructura sintáctica [adjR+n], en donde adjR es el adjetivo y n el sustantivo al que acompaña. De igual forma hemos descrito el marco teórico desde el que abordar nuestro análisis. Se trata de la teoría del Lexicón Generatvio (LG) y de la representación semántica (Pustojovsky, 1995) que propone como explicación de la generación de significados. Hemos analizado las distintas estructuras de representación léxica y en especial la estructura qualia a través de la cual hemos identificado la relación semántica que mantienen los dos ítems léxicos [adjR+n] de la estructura sintáctica de nuestro estudio. El estudio semántico de las dos piezas léxicas ha permitido, además, comprobar el valor denominativo del adjetivo en la combinación. Ha sido necesario elaborar un corpus de textos escritos en inglés y español pertenecientes al discurso de especialidad de las TIC. Este material ha sido procesado para nuestros fines utilizando distintas herramientas electrónicas. Se ha hecho uso de lexicones electrónicos, diccionarios online generales y de especialidad y corpus de referencia online, estos últimos para poder eventualmente validad nuetros datos. Asimismo se han utilizado motores de búsqueda, entre ellos WordNet Search 3.1, para obtener la información semántica de nuestros elementos léxicos. Nuestras conclusiones han corroborado las hipótesis que se planteaban en esta tesis, en especial la referente al valor denominativo-conceptual del adjetivo relacional el cual, junto con el sustantivo al que acompaña, forma parte de la representación cognitiva del lenguaje de especialidad de las TIC. Como continuación a este estudio se proponen sugerencias sobre líneas futuras de investigación así como el diseño de herramientas informáticas que pudieran incorporar estos datos semánticos como complemento de los ítems léxicos dotados de valor denominativo-conceptual. ABSTRACT This research falls within the field of the so-called Specialized Languages which for the purpose of this study is the Information and Communication Technology (ICT) discourse. Considering their several distinguishing features terminology concentrates our interest from the point of view of linguistics. It is broadly assumed that terms represent concepts of a subject field. For the classical view of terminology (Wüster, 1968) these terms are formally represented by nouns. Both lexicology and terminology have made significant contributions to the study of terms. Later research as well as other theories on Terminology such as the Communicative Theory of Terminology (Cabré, 1993) have shown that other lexical units can also represent knowledge organization. On these bases, we have focused our research on the relational adjective which represents a functional unit different from a noun while still connected to the noun by means of its nominal root. This may have a potential terminological interest. Therefore the present research is based on the next hypotheses: 1. The relational adjective conveys specialized information when combined with the noun. 2. The relational adjective has a semantic meaning which helps understand the conceptual relationship between the adjective and the noun being modified and disambiguate certain senses of the resulting lexical combination. 3. The relational adjective may impose some restrictions when choosing the nouns it modifies. Considering the above hypotheses, this study has identified and described a multi-word lexical unit pattern [Radj+n] referred to as a Specialized Lexical Combination (SLC) linguistically realized by a relational adjective, Radj, and a noun, n. The analysis of such a syntactic pattern is addressed from the framework of the Generative Lexicon (Pustojovsky, 1995). Such theory provides several levels of semantic description which help lexical decomposition performed generatively. These levels of semantic representation are connected through generative operations or generative devices which account for the compositional interpretation of any linguistic utterance in a given context. This study analyses these different levels and focuses on one of them, i.e. the qualia structure since it may encode the conceptual meaning of the syntactic pattern [Radj+n]. The semantic study of these two lexical items has ultimately confirmed the conceptual meaning of the relational adjective. A corpus made of online ICT articles from magazines written in English and Spanish – some being their translations - has been used for the word extraction. For this purpose some word processing software packages have been employed. Moreover online general language and specialized language dictionaries have been consulted. Search engines, namely WordNet Search 3.1, have been also exploited to find the semantic information of our lexical units. Online reference corpora in English and Spanish have been used for a contrastive analysis of our data. Finally our conclusions have confirmed our initial hypotheses, i.e. relational adjectives are specialized lexical units which together with the nouns are part of the knowledge representation of the ICT subject field. Proposals for new research have been made together with some other suggestions for the design of computer applications to visually show the conceptual meaning of certain lexical units.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis se desarrolla dentro del marco de las comunicaciones satelitales en el innovador campo de los pequeños satélites también llamados nanosatélites o cubesats, llamados así por su forma cubica. Estos nanosatélites se caracterizan por su bajo costo debido a que usan componentes comerciales llamados COTS (commercial off-the-shelf) y su pequeño tamaño como los Cubesats 1U (10cm*10 cm*10 cm) con masa aproximada a 1 kg. Este trabajo de tesis tiene como base una iniciativa propuesta por el autor de la tesis para poner en órbita el primer satélite peruano en mi país llamado chasqui I, actualmente puesto en órbita desde la Estación Espacial Internacional. La experiencia de este trabajo de investigación me llevo a proponer una constelación de pequeños satélites llamada Waposat para dar servicio de monitoreo de sensores de calidad de agua a nivel global, escenario que es usado en esta tesis. Es ente entorno y dadas las características limitadas de los pequeños satélites, tanto en potencia como en velocidad de datos, es que propongo investigar una nueva arquitectura de comunicaciones que permita resolver en forma óptima la problemática planteada por los nanosatélites en órbita LEO debido a su carácter disruptivo en sus comunicaciones poniendo énfasis en las capas de enlace y aplicación. Esta tesis presenta y evalúa una nueva arquitectura de comunicaciones para proveer servicio a una red de sensores terrestres usando una solución basada en DTN (Delay/Disruption Tolerant Networking) para comunicaciones espaciales. Adicionalmente, propongo un nuevo protocolo de acceso múltiple que usa una extensión del protocolo ALOHA no ranurado, el cual toma en cuenta la prioridad del trafico del Gateway (ALOHAGP) con un mecanismo de contienda adaptativo. Utiliza la realimentación del satélite para implementar el control de la congestión y adapta dinámicamente el rendimiento efectivo del canal de una manera óptima. Asumimos un modelo de población de sensores finito y una condición de tráfico saturado en el que cada sensor tiene siempre tramas que transmitir. El desempeño de la red se evaluó en términos de rendimiento efectivo, retardo y la equidad del sistema. Además, se ha definido una capa de convergencia DTN (ALOHAGP-CL) como un subconjunto del estándar TCP-CL (Transmission Control Protocol-Convergency Layer). Esta tesis muestra que ALOHAGP/CL soporta adecuadamente el escenario DTN propuesto, sobre todo cuando se utiliza la fragmentación reactiva. Finalmente, esta tesis investiga una transferencia óptima de mensajes DTN (Bundles) utilizando estrategias de fragmentación proactivas para dar servicio a una red de sensores terrestres utilizando un enlace de comunicaciones satelitales que utiliza el mecanismo de acceso múltiple con prioridad en el tráfico de enlace descendente (ALOHAGP). El rendimiento efectivo ha sido optimizado mediante la adaptación de los parámetros del protocolo como una función del número actual de los sensores activos recibidos desde el satélite. También, actualmente no existe un método para advertir o negociar el tamaño máximo de un “bundle” que puede ser aceptado por un agente DTN “bundle” en las comunicaciones por satélite tanto para el almacenamiento y la entrega, por lo que los “bundles” que son demasiado grandes son eliminados o demasiado pequeños son ineficientes. He caracterizado este tipo de escenario obteniendo una distribución de probabilidad de la llegada de tramas al nanosatélite así como una distribución de probabilidad del tiempo de visibilidad del nanosatélite, los cuales proveen una fragmentación proactiva óptima de los DTN “bundles”. He encontrado que el rendimiento efectivo (goodput) de la fragmentación proactiva alcanza un valor ligeramente inferior al de la fragmentación reactiva. Esta contribución permite utilizar la fragmentación activa de forma óptima con todas sus ventajas tales como permitir implantar el modelo de seguridad de DTN y la simplicidad al implementarlo en equipos con muchas limitaciones de CPU y memoria. La implementación de estas contribuciones se han contemplado inicialmente como parte de la carga útil del nanosatélite QBito, que forma parte de la constelación de 50 nanosatélites que se está llevando a cabo dentro del proyecto QB50. ABSTRACT This thesis is developed within the framework of satellite communications in the innovative field of small satellites also known as nanosatellites (<10 kg) or CubeSats, so called from their cubic form. These nanosatellites are characterized by their low cost because they use commercial components called COTS (commercial off-the-shelf), and their small size and mass, such as 1U Cubesats (10cm * 10cm * 10cm) with approximately 1 kg mass. This thesis is based on a proposal made by the author of the thesis to put into orbit the first Peruvian satellite in his country called Chasqui I, which was successfully launched into orbit from the International Space Station in 2014. The experience of this research work led me to propose a constellation of small satellites named Waposat to provide water quality monitoring sensors worldwide, scenario that is used in this thesis. In this scenario and given the limited features of nanosatellites, both power and data rate, I propose to investigate a new communications architecture that allows solving in an optimal manner the problems of nanosatellites in orbit LEO due to the disruptive nature of their communications by putting emphasis on the link and application layers. This thesis presents and evaluates a new communications architecture to provide services to terrestrial sensor networks using a space Delay/Disruption Tolerant Networking (DTN) based solution. In addition, I propose a new multiple access mechanism protocol based on extended unslotted ALOHA that takes into account the priority of gateway traffic, which we call ALOHA multiple access with gateway priority (ALOHAGP) with an adaptive contention mechanism. It uses satellite feedback to implement the congestion control, and to dynamically adapt the channel effective throughput in an optimal way. We assume a finite sensor population model and a saturated traffic condition where every sensor always has frames to transmit. The performance was evaluated in terms of effective throughput, delay and system fairness. In addition, a DTN convergence layer (ALOHAGP-CL) has been defined as a subset of the standard TCP-CL (Transmission Control Protocol-Convergence Layer). This thesis reveals that ALOHAGP/CL adequately supports the proposed DTN scenario, mainly when reactive fragmentation is used. Finally, this thesis investigates an optimal DTN message (bundles) transfer using proactive fragmentation strategies to give service to a ground sensor network using a nanosatellite communications link which uses a multi-access mechanism with priority in downlink traffic (ALOHAGP). The effective throughput has been optimized by adapting the protocol parameters as a function of the current number of active sensors received from satellite. Also, there is currently no method for advertising or negotiating the maximum size of a bundle which can be accepted by a bundle agent in satellite communications for storage and delivery, so that bundles which are too large can be dropped or which are too small are inefficient. We have characterized this kind of scenario obtaining a probability distribution for frame arrivals to nanosatellite and visibility time distribution that provide an optimal proactive fragmentation of DTN bundles. We have found that the proactive effective throughput (goodput) reaches a value slightly lower than reactive fragmentation approach. This contribution allows to use the proactive fragmentation optimally with all its advantages such as the incorporation of the security model of DTN and simplicity in protocol implementation for computers with many CPU and memory limitations. The implementation of these contributions was initially contemplated as part of the payload of the nanosatellite QBito, which is part of the constellation of 50 nanosatellites envisaged under the QB50 project.