981 resultados para SISTEMAS TELEFÓNICOS DIGITALES


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Throughout the last years, the increasing use of Technologies of nformation and Communication (TICs) have stimulated a new gamma of informational necessities. The digital environments favor the transposition of the conventional limits of representation and dissemination of the registered knowledge, incorporating new elements to the processes of production, organization and recovery of information. Considering the ontologies as a new and riveting category of systems of representation of knowledge, we searched bases that allow to analyze the approaches of this new computational approach with the instruments and methods of Knowledge Organization, starting from presentation of the ontology OIR, designed for the representation and exchange of referential informations of academic papers, investigating in what scale the area of Information Science can contribute to the development of ontologies and analyzing the consequences of its use in digital libraries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La información básica sobre el relieve de una cuenca hidrográfica, mediante metodologías analítico-descriptivas, permite a quienes evalúan proyectos relacionados con el uso de los recursos naturales, tales como el manejo integrado de cuencas, estudios sobre impacto ambiental, degradación de suelos, deforestación, conservación de los recursos hídricos, entre otros, contar para su análisis con los parámetros físicos necesarios. Estos procesos mencionados tienen un fuerte componente espacial y el empleo de Sistemas de Información Geográfica (SIG) son de suma utilidad, siendo los Modelos Digitales de Elevación (DEM) y sus derivados un componente relevante de esta base de datos. Los productos derivados de estos modelos, como pendiente, orientación o curvatura, resultarán tan precisos como el DEM usado para derivarlos. Por otra parte, es fundamental maximizar la habilidad del modelo para representar las variaciones del terreno; para ello se debe seleccionar una adecuada resolución (grilla) de acuerdo con los datos disponibles para su generación. En este trabajo se evalúa la calidad altimétrica de seis DEMs generados a partir de dos sistemas diferentes de captura de datos fuente y de distintas resoluciones de grilla. Para determinar la exactitud de los DEMs habitualmente se utiliza un grupo de puntos de control considerados como "verdad de campo" que se comparan con los generados por el modelo en la misma posición geográfica. El área seleccionada para realizar el estudio está ubicada en la localidad de Arrecifes, provincia de Buenos Aires (Argentina) y tiene una superficie de aproximadamente 120 ha. Los resultados obtenidos para los dos algoritmos y para los tres tamaños de grilla analizados presentaron los siguientes resultados: el algoritmo DEM from contourn, un RMSE (Root Mean Squared Error) de ± 0,11 m (para grilla de 1 m), ± 0,11 m (para grilla de 5 m) y de ± 0,15 m (para grilla de 10 m). Para el algoritmo DEM from vector/points, un RMSE de ± 0,09 m (para grilla de 1 m), ± 0,11 m (para grilla de 5 m) y de ± 0,11 m (para grilla de 10 m). Los resultados permiten concluir que el DEM generado a partir de puntos acotados del terreno como datos fuente y con el menor tamaño de grilla es el único que satisface los valores enumerados en la bibliografía, tanto nacional como internacional, lo que lo hace apto para proyectos relacionados con recursos naturales a nivel de ecotopo (predial). El resto de los DEMs generados presentan un RMSE que permite asegurar su aptitud para la evaluación de proyectos relacionados con el uso de los recursos naturales a nivel de unidad de paisaje (conjunto de ecotopos).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los elementos claves para el desarrollo de la sociedad de la información son la recuperación, el intercambio y cooperación oportuna, efectiva y automática de datos, información, documentos y objetos digitales entre los sistemas de información. En este trabajo, comentaremos las motivaciones que dan origen al tema de la tesina para obtener el título de Licenciada en Bibliotecología y Ciencias de la Información y la razón por la cual se circunscribió a la Universidad Nacional de La Plata. Además, se comentan los primeros resultados obtenidos en la etapa de relevamiento bibliográfico, los cambios efectuados al título, las palabras claves, el índice y los objetivos de la investigación. A modo de cierre se comentarán brevemente las herramientas de apoyo utilizadas hasta el momento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los elementos claves para el desarrollo de la sociedad de la información son la recuperación, el intercambio y cooperación oportuna, efectiva y automática de datos, información, documentos y objetos digitales entre los sistemas de información. En este trabajo, comentaremos las motivaciones que dan origen al tema de la tesina para obtener el título de Licenciada en Bibliotecología y Ciencias de la Información y la razón por la cual se circunscribió a la Universidad Nacional de La Plata. Además, se comentan los primeros resultados obtenidos en la etapa de relevamiento bibliográfico, los cambios efectuados al título, las palabras claves, el índice y los objetivos de la investigación. A modo de cierre se comentarán brevemente las herramientas de apoyo utilizadas hasta el momento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los elementos claves para el desarrollo de la sociedad de la información son la recuperación, el intercambio y cooperación oportuna, efectiva y automática de datos, información, documentos y objetos digitales entre los sistemas de información. En este trabajo, comentaremos las motivaciones que dan origen al tema de la tesina para obtener el título de Licenciada en Bibliotecología y Ciencias de la Información y la razón por la cual se circunscribió a la Universidad Nacional de La Plata. Además, se comentan los primeros resultados obtenidos en la etapa de relevamiento bibliográfico, los cambios efectuados al título, las palabras claves, el índice y los objetivos de la investigación. A modo de cierre se comentarán brevemente las herramientas de apoyo utilizadas hasta el momento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Internet y las Tecnologías de la Información y las Comunicaciones han transformado de manera notable la forma de relacionarse de las personas. Actualmente, la presencia de estas nuevas tecnologías está totalmente asumida e impacta en el día a día de millones de personas en todo el mundo. Dentro de este contexto se presentan las Redes Sociales Digitales como plataformas que han dado lugar a un cambio de mentalidad, creando una nueva forma de comprender y utilizar internet. En este proyecto se ha llevado a cabo un estudio del fenómeno de las redes sociales dentro del mundo empresarial con el fin especificar su viabilidad como herramienta profesional dentro del sector de las TIC en términos de innovación, ventaja competitiva, y riesgo. El desarrollo de este trabajo se ha abarcado en dos partes principales: en primer lugar, un análisis teórico a cerca de las ventajas competitivas que puede ofrecer esta tecnología y cómo se puede traducir en valor real para una empresa. Y en segundo lugar un estudio de casos práctico donde se ha estudiado la experiencia de distintas empresas en el uso del Social Media. Previo a la implementación de estos puntos, este estudio se ha enmarcado dentro del mundo de las TIC, presentando conceptos como la web 2.0, los tipos herramientas que pueden ser aplicadas por la empresa y modelos de negocio que se presentan en Internet. La finalidad de este trabajo consiste en presentar qué factores de los expuestos de manera teórica generan ventaja competitiva y beneficio o por el contrario, desventaja y riesgo a la empresa, apoyándose en las conclusiones obtenidas a través del estudio de casos. ABSTRACT Internet and Information and Communication Technologies have remarkably transformed the personal relationship. Thus, these technologies are completely assumed and affect to the daily life of millions of people. Under this context, is presented the Digital Social Media as platforms which have changed the global mindset triggering a new way of understanding and using the Internet. In this project, has been carried out a study of the Social Media within the professional TIC world, aimed to specify its viability as working tool in terms of innovation, competitive advantage and risk. The implementation has been covered in two main parts: First, a theoretical analysis about the competitive advantage which this technology could offer and how it can become into real value for a company. And secondly, a Case Study in order to analyze different company’s experiences in the use of Social Media and providing empirical support to the obtained conclusions in the theoretical part. In addition, before develop these two points, the project has been integrated in the TIC´s field, meeting concepts as Web 2.0, different kinds of internet-based tools which can be used by a company and business models based on the information technologies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En minería, la estimación de la curva granulométrica del escombro de voladura es importante para evaluar el diseño, ejecución y optimización de la misma. Para ello, actualmente se usan sistemas digitales de fotografías que obtienen dicha curva a partir de imágenes tomadas por una cámara. En este proyecto se ha analizado la fragmentación de seis voladuras realizadas en el año 2012 en la cantera “El Aljibe” situada en el término municipal de Almonacid de Toledo con un sistema automático en línea (Split Online) y con un software de otra compañía (WipFrag) que permite la edición manual de las imágenes. Han sido analizadas 120 imágenes de seis voladuras, elegidas aleatoriamente. Tras el estudio granulométrico, se observa que las curvas granulométricas obtenidas con ambos sistemas, estadísticamente, no son la misma en la mayor parte de la curva, por tanto, se analiza una posible relación entre los tamaños característicos X50 y X80, llegando a la conclusión de que ninguno de los sistemas es totalmente fiable, y es necesario calibrar los sistemas con datos de fragmentación reales obtenidos por medio de básculas. Abstract In mining, the estimate of the granulometric curve blasting debris is very important to evaluate the design, implementation and optimization of it. Currently, for the obtaining of this curves are used digital system of pictures taken by a camera. In this project, the fragmentation of six rock blasting were analyzed. The rock blastings are executed in 2012 in the quarry “El Aljibe” located in Almonacid de Toledo, with a automatic online system (Split Online) and a manual editing software (WipFrag). 120 randomly selected pictures have been analyzed. After the granulometric study, it appears that the size distribution curves obtained with both systems, statistically, are not the same, then, a possible relationship between the feature sizes X50 and X80 is analyzed, concluding that none of the systems is fully reliable, and systems must be calibrated with real data fragmentation obtained from data scales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La distancia de visibilidad juega un papel importante en la seguridad vial de las carreteras. Se pueden emplear dos clases de modelos digitales de elevaciones (MDE) en el cálculo de la visibilidad disponible en carreteras: modelos digitales del terreno (MDT) y modelos digitales de superficie (MDS). Los MDT, que representan la superficie del terreno sin vegetación, se suelen utilizar para calcular la distancia de visibilidad disponible en fase de proyecto de la carretera. Por otra parte, el empleo de MDS proporciona información adicional acerca de los elementos de las márgenes, tales como árboles, construcciones, muros o incluso señales de tráfico que pueden reducir la distancia de visibilidad disponible. Este documento analiza la influencia del empleo de tres tipos de MDE en el cálculo de la distancia de visibilidad disponible. Para ello se han estudiado carreteras de distintas características de la Comunidad de Madrid (España) utilizando una aplicación informática basada en sistemas de información geográfica. El estudio realizado pone de manifiesto la influencia del tipo de MDE en los resultados de distancia de visibilidad, así como los pros y contras de la utilización de dichos modelos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las nuevas tendencias de compartir archivos multimedia a través de redes abiertas, demanda el uso de mejores técnicas de encriptación que garanticen la integridad, disponibilidad y confidencialidad, manteniendo y/o mejorando la eficiencia del proceso de cifrado sobre estos archivos. Hoy en día es frecuente la transferencia de imágenes a través de medios tecnológicos, siendo necesario la actualización de las técnicas de encriptación existentes y mejor aún, la búsqueda de nuevas alternativas. Actualmente los algoritmos criptográficos clásicos son altamente conocidos en medio de la sociedad informática lo que provoca mayor vulnerabilidad, sin contar los altos tiempos de procesamiento al momento de ser utilizados, elevando la probabilidad de ser descifrados y minimizando la disponibilidad inmediata de los recursos. Para disminuir estas probabilidades, el uso de la teoría de caos surge como una buena opción para ser aplicada en un algoritmo que tome partida del comportamiento caótico de los sistemas dinámicos, y aproveche las propiedades de los mapas logísticos para elevar el nivel de robustez en el cifrado. Es por eso que este trabajo propone la creación de un sistema criptográfico basado sobre una arquitectura dividida en dos etapas de confusión y difusión. Cada una de ellas utiliza una ecuación logística para generar números pseudoaleatorios que permitan desordenar la posición del píxel y cambiar su intensidad en la escala de grises. Este proceso iterativo es determinado por la cantidad total de píxeles de una imagen. Finalmente, toda la lógica de cifrado es ejecutada sobre la tecnología CUDA que permite el procesamiento en paralelo. Como aporte sustancial, se propone una nueva técnica de encriptación vanguardista de alta sensibilidad ante ruidos externos manteniendo no solo la confidencialidad de la imagen, sino también la disponibilidad y la eficiencia en los tiempos de proceso.---ABSTRACT---New trends to share multimedia files over open networks, demand the best use of encryption techniques to ensure the integrity, availability and confidentiality, keeping and/or improving the efficiency of the encryption process on these files. Today it is common to transfer pictures through technological networks, thus, it is necessary to update existing techniques encryption, and even better, the searching of new alternatives. Nowadays, classic cryptographic algorithms are highly known in the midst of the information society which not only causes greater vulnerability, but high processing times when this algorithms are used. It raise the probability of being deciphered and minimizes the immediate availability of resources. To reduce these odds, the use of chaos theory emerged as a good option to be applied on an algorithm that takes advantage of chaotic behavior of dynamic systems, and take logistic maps’ properties to raise the level of robustness in the encryption. That is why this paper proposes the creation of a cryptographic system based on an architecture divided into two stages: confusion and diffusion. Each stage uses a logistic equation to generate pseudorandom numbers that allow mess pixel position and change their intensity in grayscale. This iterative process is determined by the total number of pixels of an image. Finally, the entire encryption logic is executed on the CUDA technology that enables parallel processing. As a substantial contribution, it propose a new encryption technique with high sensitivity on external noise not only keeping the confidentiality of the image, but also the availability and efficiency in processing times.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El planteamiento inicial de este proyecto surge debido a que hay personas con discapacidad cognitiva que se desorientan con mucha facilidad en espacios interiores. Para guiar a esas personas no se pueden usar los sistemas basados en GPS que se utilizan hoy en día en vehículos, ya que estos sistemas no funcionan en lugares cerrados porque no reciben la señal de los satélites. Por consiguiente se ha propuesto una solución basada en otra tecnología para que estas personas, a través de su dispositivo móvil, puedan guiarse en un sitio cerrado. Este Trabajo de Fin de Grado parte inicialmente de un Practicum realizado en el semestre anterior, donde se investigó sobre posibles soluciones de balizas digitales (iBeacons) y se estudió la tecnología iBeacon para conocer la posición del móvil en un espacio cerrado. El principal problema que se encontró fue la falta de precisión a la hora de estimar la distancia (en metros) que hay entre baliza y dispositivo móvil. El objetivo para este trabajo de fin de grado ha sido primeramente resolver el problema comentado anteriormente y una vez resuelto, implementar un prototipo móvil para el sistema operativo Android de un sistema de orientación en espacios interiores para personas con discapacidad cognitiva. Este prototipo ha sido implementado ayudándose de balizas digitales (iBeacons) y utilizando el método de trilateración para conocer la posición del usuario en un sitio cerrado. Además se han aprovechado los sensores (acelerómetro y sensor magnético terrestre) del dispositivo móvil como refuerzo de posicionamiento y para seguir de forma más precisa el movimiento del usuario. En el prototipo actual no se han dedicado recursos a diseñar una interacción fácil para personas con discapacidad cognitiva, debido a que su principal objetivo ha sido evaluar el funcionamiento de las balizas y las posibilidades del sistema de orientación. El resultado final de este TFG es incorporar una serie de luces asociadas a cada una de las balizas que ayuden al usuario a orientarse con mayor facilidad.---ABSTRACT---The initial approach of this project arises because there are people with cognitive disabilities who become disoriented in closed sites. To guide these people it cannot be used GPS, because this system does not work in closed sites because it does not receive the satellite signals. Therefore, it has proposed a solution based on another technology so that these people, through their smartphone, can be guided in a closed site. This final degree project comes from a Practicum made in the previous semester, where possible solutions about iBeacons were investigated and the iBeacon technology was studied too. All this, to know the mobile position in a closed site. The main problem encountered was the lack of precision to calculate the distance between a mobile phone and a beacon. The first objective has been to solve distance problem mentioned above, once resolved it has implemented a prototype, which consists in a guidance system in closed sites for a people with cognitive disabilities. This prototype has been implemented with beacons and trilateration to know user position in a closed site. In addition, mobile phone sensors have been used to follow user movement. In the current prototype, the main objective has been evaluate iBeacons performance and the guidance system. The result of this TFG is to incorporate a series of lights associated with each of the beacons to make easier the orientation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La información digital está en un proceso constante de transformación. Los datos cada vez son mayores, pero no más precisos. El problema a resolver es la fidelización de lectores y para ello la investigación se muestra como un recurso necesario que periodistas y documentalistas tienen que emplear. Además, las redes sociales se introducen en el campo de la información con formatos nuevos, con millones de lectores que compiten con los medios digitales tradicionales. El reto del documentalista es dotar de contenidos, creíbles y veraces en su medio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La organización del conocimiento en el contexto de las Ciencias de la Información tiene como esencia la información y el conocimiento debidamente documentado o registrado. La organización del conocimiento como proceso, envuelve tanto la descripción física como de los contenidos de los objetos informacionales. Y el producto de ese proceso descriptivo es la representación de los atributos de un objeto o conjunto de objetos. Las representaciones son construidas por lenguajes elaborados específicamente para los objetivos de la organización en los sistemas de información. Lenguajes que se subdividen en lenguajes que describen el documento (el soporte físico del objeto) y lenguajes que describen la información (los contenidos).A partir de esta premisa la siguiente investigación tiene como objetivo general analizarlos sistemas de Gestión de Información y Conocimiento Institucional principalmente los que proponen utilizar el Currículum Vitae del profesor como única fuente de información, medición y representación de la información y el conocimiento de una organización. Dentro delos principales resultados se muestra la importancia de usar el currículo personal como fuente de información confiable y normalizada; una síntesis de los principales sistemas curriculares que existen a nivel internacional y regional; así como el gráfico del modelo de datos del caso de estudio; y por último, la propuesta del uso de las ontologías como principal herramienta para la organización semántica de la información en un sistema de gestión de información y conocimiento.