910 resultados para Sistemas de distribución de información
Resumo:
Este proyecto consiste en el diseño completo, de una red de distribución de TDT, a nivel local, mediante difusión SFN, Single Frequency Network. Este tipo de difusión, tiene la capacidad de difundir los servicios de televisión en una única frecuencia, cubriendo un área, ya sea local o estatal, aprovechando en las zonas de interferencia los rebotes de la señal y así evitar el uso de una frecuencia distinta por cada centro de emisión, todos los que componen un área de cobertura. Para el diseño de la red, se ha optado por diseñar una red IP, mediante distribución multicast, ya que esta es la tecnología imperante a día de hoy, quedando obsoleta ya, la distribución analógica, ya que consume muchos más recursos y por consiguiente mucho más costosa de implementar. El documento se divide en cuatro capítulos. En el primer capítulo se realizará una introducción teórica a las redes de distribución SFN, centrándose en el cálculo de los retardos, punto fundamental en el diseño de este tipo de redes. Se continuará unas nociones básicas de redes IP y el protocolo multicast, en el que se basa el trasporte de la señal. El capítulo dos, se centra en el diseño de la red, desde los centros de producción, donde se generan los programas a emitir, hasta los diferentes centros de difusión que cubrirán todo el área de cobertura requerida, pasando por el centro de multiplexación, donde se sitúa la cabecera que compondrá el múltiplex a difundir. Se describirán los equipos y el diseño de los distintos centros que conforman la red, centros de producción, multiplexación y difusión. A demás se realizará el cálculo de retardo de la señal, necesario en este tipo de redes. Se continuará con el capítulo tres, donde se describirá la configuración de la red, tanto a nivel de equipamiento, como el diseño y asignación IP de toda la red, separando la red de servicio de la red de gestión para una mayor confiabilidad y eficiencia de la red. Se finalizará con la descripción de la gestión de la red, que mediante diferentes herramientas, proporcionan un monitoreado en tiempo real de todo el sistema, dando la posibilidad de adelantarsey previniendo posibles incidencias que, puedan causar alguna deficiencia en el servicio que se entrega al usuario final. ABSTRACT. This project involves the complete design of a network´s TDT distribution, locally, by broadcast SFN (Single Frequency Network). This type of broadcast, has the ability to broadcast television´s services on a single frequency, covering an area, whether local or state, drawing on the interference zones, signal´s rebounds, to avoid the use of a different frequency each broadcast center, all those who make a coverage area. For the design of the network, has been chosen to design an IP network using multicast distribution, since this is the prevailing technology today, as the analogue distribution, consumes more resources and therefore, much more costly to implement. The document is divided into four chapters. In the first chapter you can find a theoretical introduction to SFN distribution networks, focusing on the calculation of delays, fundamental point, in the design of these networks. A basic understanding of IP networks and the multicast protocol, in which the transport of the signal is based, will continue. Chapter two focuses on the design of the network, from production centers, where the programs are created to broadcast, to different distribution centers covering the entire area of coverage required, through the multiplexing center, where the head is located, which comprise the multiplex. Also, the equipment and design of the various centers in the network, production centers, multiplexing center and distribution centers, are described. Furthermore, the calculation of signal delay, necessary in such networks, is performed. We will continue with the chapter three, where the network configuration will be described, both in termsofequipment, such as design IP mapping of the entire network, separating the service network and management network, for increased the reliability and efficiency of the network. It will be completed with the description of the management of the network, using different tools provide real-time monitoring of the entire system, making it possible, to anticipate and prevent any incidents that might cause a deficiency in the service being delivered to final user.
Resumo:
Debido al creciente aumento del tamaño de los datos en muchos de los actuales sistemas de información, muchos de los algoritmos de recorrido de estas estructuras pierden rendimento para realizar búsquedas en estos. Debido a que la representacion de estos datos en muchos casos se realiza mediante estructuras nodo-vertice (Grafos), en el año 2009 se creó el reto Graph500. Con anterioridad, otros retos como Top500 servían para medir el rendimiento en base a la capacidad de cálculo de los sistemas, mediante tests LINPACK. En caso de Graph500 la medicion se realiza mediante la ejecución de un algoritmo de recorrido en anchura de grafos (BFS en inglés) aplicada a Grafos. El algoritmo BFS es uno de los pilares de otros muchos algoritmos utilizados en grafos como SSSP, shortest path o Betweeness centrality. Una mejora en este ayudaría a la mejora de los otros que lo utilizan. Analisis del Problema El algoritmos BFS utilizado en los sistemas de computación de alto rendimiento (HPC en ingles) es usualmente una version para sistemas distribuidos del algoritmo secuencial original. En esta versión distribuida se inicia la ejecución realizando un particionado del grafo y posteriormente cada uno de los procesadores distribuidos computará una parte y distribuirá sus resultados a los demás sistemas. Debido a que la diferencia de velocidad entre el procesamiento en cada uno de estos nodos y la transfencia de datos por la red de interconexión es muy alta (estando en desventaja la red de interconexion) han sido bastantes las aproximaciones tomadas para reducir la perdida de rendimiento al realizar transferencias. Respecto al particionado inicial del grafo, el enfoque tradicional (llamado 1D-partitioned graph en ingles) consiste en asignar a cada nodo unos vertices fijos que él procesará. Para disminuir el tráfico de datos se propuso otro particionado (2D) en el cual la distribución se haciá en base a las aristas del grafo, en vez de a los vertices. Este particionado reducía el trafico en la red en una proporcion O(NxM) a O(log(N)). Si bien han habido otros enfoques para reducir la transferecnia como: reordemaniento inicial de los vertices para añadir localidad en los nodos, o particionados dinámicos, el enfoque que se va a proponer en este trabajo va a consistir en aplicar técnicas recientes de compression de grandes sistemas de datos como Bases de datos de alto volume o motores de búsqueda en internet para comprimir los datos de las transferencias entre nodos.---ABSTRACT---The Breadth First Search (BFS) algorithm is the foundation and building block of many higher graph-based operations such as spanning trees, shortest paths and betweenness centrality. The importance of this algorithm increases each day due to it is a key requirement for many data structures which are becoming popular nowadays. These data structures turn out to be internally graph structures. When the BFS algorithm is parallelized and the data is distributed into several processors, some research shows a performance limitation introduced by the interconnection network [31]. Hence, improvements on the area of communications may benefit the global performance in this key algorithm. In this work it is presented an alternative compression mechanism. It differs with current existing methods in that it is aware of characteristics of the data which may benefit the compression. Apart from this, we will perform a other test to see how this algorithm (in a dis- tributed scenario) benefits from traditional instruction-based optimizations. Last, we will review the current supercomputing techniques and the related work being done in the area.
Resumo:
Las innovaciones de las tecnologías comunicativas e informativas están transformando tanto los procesos productivos como los reproductivos de las sociedades. Esas relaciones entre TIC y cambios socioeconómicos, constituyen un tema muy presente en las publicaciones de las ciencias sociales. Suele interpretarse que las TIC acabarán modificando el estado y el funcionamiento de las sociedades y la vida de las personas. Hemos realizado un análisis de contenido de dichas publicaciones e identificado el repertorio de nuevos escenarios socioeconómicos que se están contemplando en los ámbitos científicos. Conocer esas interpretaciones tiene interés teórico y práctico, porque orientan la investigación y la docencia de comunicólogos, humanistas y sociólogos. Y, por mediación de la comunicación pública, configuran las representaciones de un futuro globalizado.
Resumo:
La información digital está en un proceso constante de transformación. Los datos cada vez son mayores, pero no más precisos. El problema a resolver es la fidelización de lectores y para ello la investigación se muestra como un recurso necesario que periodistas y documentalistas tienen que emplear. Además, las redes sociales se introducen en el campo de la información con formatos nuevos, con millones de lectores que compiten con los medios digitales tradicionales. El reto del documentalista es dotar de contenidos, creíbles y veraces en su medio.
Resumo:
Esta Tesis tiene dos partes. La Primera Parte es Teórica y Metodológica y trata de la actual crisis de paradigma en las Ciencias Sociales, y de cómo se puede remontar con la Teoría del Pensamiento Complejo, siempre que sus propuestas se centren en modelos empíricos de Análisis de Redes Sociales debidamente matematizados y estadísticamente refrendados. La propuesta del tesista propone enriquecer el actual homo economicus, incorporando la importancia de las relaciones con el grupo (coactivas, coercitivas o motivacionales), a través de un nuevo objeto de estudio: los Proyectos. Es mediante los Proyectos, donde los individuos y los grupos en los que interactúan, transan y organizan sus esfuerzos. El problema reside en que, no existe hasta la fecha, una sistematización y modelización de los Proyectos como objeto de estudio en las Ciencias Sociales. Sin embargo, hay una amplia experiencia de análisis y sistematización de Proyectos tanto en la Economía de la Empresa (Management, Business Administration), como en la Economía Pública. En esta Tesis se estudia todo lo publicado recientemente sobre los Proyectos de Inversión Pública (PIPs) y su eficiencia en Latinoamérica. En la Segunda Parte, centrada en un Trabajo Empírico y su modelización, el tesista crea una Base de Datos (BdD) primaria, a partir del Banco de Proyectos (BdP) del Ministerio de Economía y Finanzas (MEF) del Perú (2001-2014), que recoge todos los Proyectos de Inversión Pública (PIP), cerca de 400.000 PIPs Iniciales, los tabula en 48 categorías y posteriormente, “deja hablar a los datos” jugando a relacionar, correlacionar, inducir hipótesis y verificarlas mediante un sistema que se centra en la operativa tipo “Big Data”. A esto le denomina “triangular” porque mezcla en el esfuerzo, herramientas de Estadística Descriptiva, Estadística Inferencial y Econometría para poder refrendar el conocimiento inducido, que siempre en ciencia, es una mera certeza probabilística. El tesista concluye que en el caso del Sistema Nacional de Inversión Pública del Perú (SNIP) y más específicamente, de los procesos administrativos que emplea -denominados “Ciclo PIP”-, queda claro que se está trabajando con “fenómenos emergentes” cuyo comportamiento no se adapta a una Distribución Normal. Y que dicho comportamiento errático se debe a que la Inversión Pública es cíclica (Ecuación Evolutiva de Price) y a que el “Ciclo PIP” opera a todo nivel (GN, GR, GL) en función de las relaciones entre los miembros que componen su red. Ergo, es un tema a Analizar con Social Network Analysis (Análisis Social de Redes, ARS). El tesista concluye que las redes de “Ciclo PIP” en el Perú fallan principalmente por problemas de escasez de personal técnico multisectorial debidamente cualificado. A manera de conclusión, propone la creación de una Plataforma Web 3.0 (metadatos), que utilice un Sistema de Razonamiento Basado en Casos (SRBC) para aprovechar el conocimiento que dimana de los éxitos y fracasos de los propios PIPs, con el fin de facilitar las gestiones de los miembros de la red que formulan, evalúan y ejecutan los PIPs en el Perú, tanto a nivel Municipal (GP) como Regional (GR) y Nacional (GN).
Resumo:
Los Sistemas de Información Geográfica nos permiten estudiar la evolución en el tiempo de cualquier fenómeno o hecho físico que se pueda referenciar geográficamente. En el presente trabajo se realiza un estudio, mediante un Sistema de Información Geográfica, del desarrollo industrial de la Ciudad de Alcoy en el P. G. O. U. de 1957. En el tiempo de duración de este plan, que abarca un período de 32 años, con una única revisión en 1982, la ciudad ha sufrido grandes transformaciones económicas, sociales, industriales y urbanísticas. El trabajo pretende, por una parte, elaborar la cartografía de la evolución que ha sufrido la localización de la industria alcoyana y realizar un análisis en el que quede de manifiesto la política industrial llevada a cabo por las Administraciones y las consecuencias que ha tenido para el desarrollo de la ciudad. En segundo lugar, se pretende estudiar las posibilidades de una aplicación GIS como GeoMedia en la realización de dicho estudio, así como analizar el proceso para la realización del trabajo: digitalización de mapas, referenciación geográfica, utilización de mapas digitales, definición de entidades y clases de entidad, bases de datos a utilizar, consultas a realizar etc.
Resumo:
En este trabajo presentamos la integración de una técnica de análisis parcial definida sobre textos no restringidos (SUPP) sobre un sistema de extracción de información (EXIT) en el dominio restringido de los textos notariales, en concreto, en las escrituras de compraventa de inmuebles. La principal contribución está centrada en la identificación de sintagmas nominales definidos, acrónimos y alias para su resolución posterior de correferentes.
Resumo:
Comunicación presentada en las IV Jornadas TIMM, Torres (Jaén), 7-8 abril 2011.
Resumo:
Este artículo analiza diferentes experiencias docentes que tienen como finalidad el aprendizaje de la robótica en el mundo universitario. Estas experiencias se plasman en el desarrollo de varios cursos y asignaturas sobre robótica que se imparten en la Universidad de Alicante. Para el desarrollo de estos cursos, los autores han empleado varias plataformas educativas, algunas de implementación propia, otras de libre distribución y código abierto. El objetivo de estos cursos es enseñar el diseño e implementación de soluciones robóticas a diversos problemas que van desde el control, programación y manipulación de brazos robots de ámbito industrial hasta la construcción y/o programación de mini-robots con carácter educativo. Por un lado, se emplean herramientas didácticas de última generación como simuladores y laboratorios virtuales que flexibilizan el uso de brazos robots y, por otro lado, se hace uso de competiciones y concursos para motivar al alumno haciendo que ponga en práctica las destrezas aprendidas, mediante la construcción y programación de mini-robots de bajo coste.
Resumo:
Uno de los problemas actuales en el dominio de la salud es reutilizar y compartir la información clínica entre profesionales, ya que ésta se encuentra escrita usando terminologías específicas. Una posible solución es usar un recurso de conocimiento común sobre el que mapear la información existente. Nuestro objetivo es comprobar si la adición de conocimiento semántico superficial puede mejorar los mapeados establecidos. Para ello experimentamos con un conjunto de etiquetas de NANDA-I y con un conjunto de descripciones de SNOMED-CT en castellano. Los resultados obtenidos en los experimentos muestran que la inclusión de conocimiento semántico superficial mejora significativamente el mapeado léxico entre los dos recursos estudiados.
Resumo:
El foco geográfico de un documento identifica el lugar o lugares en los que se centra el contenido del texto. En este trabajo se presenta una aproximación basada en corpus para la detección del foco geográfico en el texto. Frente a otras aproximaciones que se centran en el uso de información puramente geográfica para la detección del foco, nuestra propuesta emplea toda la información textual existente en los documentos del corpus de trabajo, partiendo de la hipótesis de que la aparición de determinados personajes, eventos, fechas e incluso términos comunes, pueden resultar fundamentales para esta tarea. Para validar nuestra hipótesis, se ha realizado un estudio sobre un corpus de noticias geolocalizadas que tuvieron lugar entre los años 2008 y 2011. Esta distribución temporal nos ha permitido, además, analizar la evolución del rendimiento del clasificador y de los términos más representativos de diferentes localidades a lo largo del tiempo.
Resumo:
Se aborda el análisis del área de distribución de una especie con fotosíntesis C4, Atriplex halimus L., a partir de la información corológica existente en el área de Cataluña, Comunidad Valenciana e Islas Baleares, y con la utilización de herramienta SIG, que incluye los factores ambientales considerados como más importantes en la distribución de este tipo de plantas. Este procedimiento representa una alternativa a las investigaciones pasadas en distribución de plantas C4, en este caso se analiza el número de especies C4 en áreas geográficas concretas, a lo largo de gradientes, y es el inicio de una vía más inductiva que puede ser prometedora para entender mejor los factores que afectan a la distribución de estas plantas. Se ha podido obtener un modelo de distribución de A. halimus en base a los factores ambientales actuales que tiene interés porque, aunque el uso de estos métodos predictivos está ya muy extendido, en este caso se aplica por primera vez a una especie que posee una vía de fotosíntesis que ha sido descrita como una adaptación a determinados tipos de clima. En esta especie, la altitud y la precipitación anual, con coeficientes negativos, son las dos variables que al introducirlas, más contribuyen a reducir la desvianza. De las temperaturas consideradas, solo la de enero interviene en el modelo y con un comportamiento diferente por debajo o por encima de los 400 m de altitud. La salinidad del suelo resulta también seleccionada, pero no de forma significativa. La coincidencia entre la distribución real y la resultante de la aplicación del modelo es otro indicador que nos muestra que el modelo es próximo a la realidad, salvo, acaso, en el medio insular. Los resultados son muy coherentes con la información existente sobre los factores que determinan la distribución de las plantas C4 en general, y de las Quenopodiáceas en concreto, que son las temperaturas y el coeficiente de aridez.
Resumo:
Los sistemas de búsqueda de respuestas (BR) se pueden considerar como potenciales sucesores de los buscadores tradicionales de información en la Web. Para que sean precisos deben adaptarse a dominios concretos mediante el uso de recursos semánticos adecuados. La adaptación no es una tarea trivial, ya que deben integrarse e incorporarse a sistemas de BR existentes varios recursos heterogéneos relacionados con un dominio restringido. Se presenta la herramienta Maraqa, cuya novedad radica en el uso de técnicas de ingeniería del software, como el desarrollo dirigido por modelos, para automatizar dicho proceso de adaptación a dominios restringidos. Se ha evaluado Maraqa mediante una serie de experimentos (sobre el dominio agrícola) que demuestran su viabilidad, mejorando en un 29,5% la precisión del sistema adaptado.
Resumo:
Presentación de los proyectos; Organización de las prácticas; Equipos de trabajo y roles.