732 resultados para Processament de senyals
Resumo:
En aquest projecte s'usa el servidor de vídeo d'Axis Communications 242s IV, basat en el DSP TMS320DM642 de Texas Instruments, com a plataforma per a la implementació d'un algorisme d'extracció de fons i pel desenvolupament d'una solució completa de comptatge de persones per a càmera zenital. En el primer cas, s'ha optimitzat i comparat el rendiment de l'algorisme amb el d'una versió per a PC per a avaluar el DSP com a processador per a lamigració d'una aplicació completa de vídeovigilància. En el segon cas s'han integrat tots els components del servidor en el desenvolupament del comptador per avaluar la plataforma com a base per a solucions completes.
Resumo:
Informe de investigación realizado a partir de una estancia en el Équipe de Recherche en Syntaxe et Sémantique de la Université de Toulouse-Le Mirail, Francia, entre julio y setiembre de 2006. En la actualidad existen diversos diccionarios de siglas en línea. Entre ellos sobresalen Acronym Finder, Abbreviations.com y Acronyma; todos ellos dedicados mayoritariamente a las siglas inglesas. Al igual que los diccionarios en papel, este tipo de diccionarios presenta problemas de desactualización por la gran cantidad de siglas que se crean a diario. Por ejemplo, en 2001, un estudio de Pustejovsky et al. mostraba que en los abstracts de Medline aparecían mensualmente cerca de 12.000 nuevas siglas. El mecanismo de actualización empleado por estos recursos es la remisión de nuevas siglas por parte de los usuarios. Sin embargo, esta técnica tiene la desventaja de que la edición de la información es muy lenta y costosa. Un ejemplo de ello es el caso de Abbreviations.com que en octubre de 2006 tenía alrededor de 100.000 siglas pendientes de edición e incorporación definitiva. Como solución a este tipo de problema, se plantea el diseño de sistemas de detección y extracción automática de siglas a partir de corpus. El proceso de detección comporta dos pasos; el primero, consiste en la identificación de las siglas dentro de un corpus y, el segundo, la desambiguación, es decir, la selección de la forma desarrollada apropiada de una sigla en un contexto dado. En la actualidad, los sistemas de detección de siglas emplean métodos basados en patrones, estadística, aprendizaje máquina, o combinaciones de ellos. En este estudio se analizan los principales sistemas de detección y desambiguación de siglas y los métodos que emplean. Cada uno se evalúa desde el punto de vista del rendimiento, medido en términos de precisión (porcentaje de siglas correctas con respecto al número total de siglas extraídas por el sistema) y exhaustividad (porcentaje de siglas correctas identificadas por el sistema con respecto al número total de siglas existente en el corpus). Como resultado, se presentan los criterios para el diseño de un futuro sistema de detección de siglas en español.
Resumo:
The demand for computational power has been leading the improvement of the High Performance Computing (HPC) area, generally represented by the use of distributed systems like clusters of computers running parallel applications. In this area, fault tolerance plays an important role in order to provide high availability isolating the application from the faults effects. Performance and availability form an undissociable binomial for some kind of applications. Therefore, the fault tolerant solutions must take into consideration these two constraints when it has been designed. In this dissertation, we present a few side-effects that some fault tolerant solutions may presents when recovering a failed process. These effects may causes degradation of the system, affecting mainly the overall performance and availability. We introduce RADIC-II, a fault tolerant architecture for message passing based on RADIC (Redundant Array of Distributed Independent Fault Tolerance Controllers) architecture. RADIC-II keeps as maximum as possible the RADIC features of transparency, decentralization, flexibility and scalability, incorporating a flexible dynamic redundancy feature, allowing to mitigate or to avoid some recovery side-effects.
Resumo:
Un reto al ejecutar las aplicaciones en un cluster es lograr mejorar las prestaciones utilizando los recursos de manera eficiente, y este reto es mayor al utilizar un ambiente distribuido. Teniendo en cuenta este reto, se proponen un conjunto de reglas para realizar el cómputo en cada uno de los nodos, basado en el análisis de cómputo y comunicaciones de las aplicaciones, se analiza un esquema de mapping de celdas y un método para planificar el orden de ejecución, tomando en consideración la ejecución por prioridad, donde las celdas de fronteras tienen una mayor prioridad con respecto a las celdas internas. En la experimentación se muestra el solapamiento del computo interno con las comunicaciones de las celdas fronteras, obteniendo resultados donde el Speedup aumenta y los niveles de eficiencia se mantienen por encima de un 85%, finalmente se obtiene ganancias de los tiempos de ejecución, concluyendo que si se puede diseñar un esquemas de solapamiento que permita que la ejecución de las aplicaciones SPMD en un cluster se hagan de forma eficiente.
Resumo:
PelicanHPC is a rapid (around 5 minutes, when you know what you're doing) means of setting up a high performance computing (HPC) cluster for parallel computing using MPI. This tutorial gives a basic description of what PelicanHPC does, addresses how to use the released CD images to set up a HPC cluster, and gives some basic examples of usage.
Resumo:
A lo largo de este trabajo se detalla el proceso realizado para diseñar una base de datos alfanumérica del Plan de Ordenación Urbanística Municipal de Mollet del Vallès (POUM). También se realizó un visualizador Web para consultar la información de la base de datos partiendo de la cartografía. El diseño de la base de datos tiene en cuenta los datos históricos y está implementada en MS Access. El visualizador Web se implementa sobre UMN MapServer. En la ampliación de este proyecto se utiliza el Framework pmapper. Al llarg d'aquest treball es detalla el procés realitzat per a dissenyar una base de dades alfanumèrica del Pla d'Ordenació Urbanística Municipal de Mollet del Vàlles (POUM). També es va realitzar un visualitzador Web per a consultar la informació de la base de dades partint de la cartografia. El disseny de la base de dades té en compte les dades històriques i està implementada en MS Access. El visualitzador Web s'implementa sobre UMN MapServer. En l'ampliació d'aquest projecte s'utilitza el Framework pmapper.
Resumo:
El Sistema de Información Geográfica Arqueológico (SIGARQ), pretende ser una herramienta que permita integrar, gestionar y analizar todos aquellos datos procedentes de cualquier tipo de intervención arqueológica independientemente de la naturaleza del elemento patrimonial a estudiar y de la técnica de trabajo empleada en la intervención. Al mismo tiempo ha de permitir contextualizar cada una de las intervenciones y sus resultados en un marco geográfico más extenso. De esta manera, el proyecto actual también supone un avance de las potencialidades del sistema de cara a la gestión patrimonial del territorio y los estudios de carácter paisajístico.
Resumo:
El projecte presenta la creació d’un servei intranet per a la consulta d’indicadors estadístics en un entorn HTML viewer d’ArcIMS 9.2 (ESRI). La implementació s’ha portat a terme en l’ajuntament de Sant Boi de Llobregat. Les premisses principals són: obtenir una interfície amb dos mapes sincronitzats i el desenvolupament d’eines que permetin realitzar la cartografia temàtica dels indicadors. El servei intranet dissenyat representa una eina intuïtiva i fàcil d’utilitzar que permet tenir una visió ràpida de la distribució espacial dels indicadors estadístics. L’ estructura del visor, amb dos mapes sincronitzats, permet optimitzar processos de comparació d’indicadors diferents o variacions temporals
Resumo:
Aquest Projecte Final és una prolongació d’altres Projectes Finals i d’un Projecte realitzat pel Laboratori d’Informació Geogràfica I Teledetecció per al Departament de Cadastre de l’Ajuntament de Cerdanyola del Vallès. El seu objectiu és la millora i l’ampliació de les funcionalitats d’una barra d’eines d’ArcMap anomenada GCad Cerdanyola, mitjançant VBA i les llibreries d’ArcObjects. Amb aquesta barra d’eines es podran fer seleccions alfanumèriques i cartogràfiques manualment o amb l’ajuda d’un constructor de consultes personalitzat, realitzar exportacions de les dades amb una fitxa cadastral en format Word o de la cartografia en dxf, a més d’una actualització de la cartografia.
Resumo:
La manufactura y uso de herramientas elaboradas con huesos de animales fue una parte importante de la economía tlatilquense de la Cuenca de México. Este estudio está enfocado al análisis tipológico de los útiles óseos, así como al registro macroscópico preliminar de marcas de fabricación y uso en superficie que, en base también al estudio del contexto y materiales arqueológicos asociados se pudieron concretar algunas hipótesis concernientes al uso en bienes tejidos, tallado de lítica y elaboración de artículos de piel, lo que permitió comprender con bastante proximidad la importancia socioeconómica que tuvo esta industria para la Cultura Tlatilco.
Resumo:
Pensado en un ámbito de tecnología médica, el propósito principal es el de realizar un seguido de medidas en diferentes partes del cuerpo para establecer unos valores máximos que nos permitan detectar cuando un paciente empieza a padecer estrés. Para ello se necesita un proceso de medición y otro de transmisión de los datos. Es aquí donde aparece el trabajo realizado en el proyecto. “ZigBee aplicado a la transmisión de datos de sensores biomédicos” está pensado para realizar la tarea de transmisión de los datos desde que el sensor realiza la medida hasta que los datos son monitorizados y almacenados. En la memoria del proyecto podremos encontrar el estudio realizado al medio de transmisión inalámbrico utilizado (ZigBee), el análisis del kit eZ430-RF2500 compatible con el medio, y finalmente la implementación del proyecto. Todo este trabajo finalizará con la recepción satisfactoria de los datos medidos por nuestro sensor biomédico (oxímetro) en el aplicativo personal programado con Visual Basic.
Resumo:
La següent memòria pretén recollir com simular un sistema amb modulació multiportadora; en concret OFDM, per a canals mòbils. L’estudi contempla la capa física del sistema, que s’encarrega de transmetre les cadenes de bits d’informació entre els transmissor i el receptor. L’objectiu és simular el sistema OFDM per a canals mòbils, veure com es comporta i discutir els diferents factors que influeixen en la qualitat de l’enllaç.
Resumo:
El entorno aéreo es, a día de hoy, uno de los escenarios más complicados a la hora de establecer enlaces de comunicación fiables. Esto es debido, principalmente, a las altas velocidades a las que circulan los aviones, que propician una gran degradación del rendimiento des sistema si no se estima de forma continua el canal. Además el entorno aéreo es susceptible a sufrir muchos otros efectos que provocan la degradación de la señal, como la difracción, la reflexión, etc. Por este motivo en este proyecto se hace un estudio de dos escenarios típicos de vuelo: arrival (aterrizaje) y on route (vuelo en ruta). En el escenario on route los aviones circulan a más de el doble de velocidad que en el escenario arrival, de esta manera se podrá ver el efecto de sufrir un doppler mayor. Para realizar el estudio se utiliza un sistema multiportadora con solapamiento de subcanales, OFDM, y se toman inicialmente parámetros típicos de la tecnología WiMAX, que se variarán con el objetivo de mejorar el rendimiento del sistema.
Resumo:
Landscape classification tackles issues related to the representation and analysis of continuous and variable ecological data. In this study, a methodology is created in order to define topo-climatic landscapes (TCL) in the north-west of Catalonia (north-east of the Iberian Peninsula). TCLs relate the ecological behaviour of a landscape in terms of topography, physiognomy and climate, which compound the main drivers of an ecosystem. Selected variables are derived from different sources such as remote sensing and climatic atlas. The proposed methodology combines unsupervised interative cluster classification with a supervised fuzzy classification. As a result, 28 TCLs have been found for the study area which may be differentiated in terms of vegetation physiognomy and vegetation altitudinal range type. Furthermore a hierarchy among TCLs is set, enabling the merging of clusters and allowing for changes of scale. Through the topo-climatic landscape map, managers may identify patches with similar environmental conditions and asses at the same time the uncertainty involved.
Resumo:
RESUM En aquest document es presenta un detector de contorns d’imatges basat en el domini transformat. A partir de la interpretació de la transformada de Fourier de la imatge i la seva formulació matricial en termes dels diferents modes, es realitza una selecció de les components passa baixes a partir de les quals es reconstrueix la component de baixa freqüència que es resta de la imatge original per tal d’obtenir el detector. Aquest detector de contorns no és esbiaixat. L’algorisme pot ser aplicat utilitzant diferents mides del bloc de processament, que pot anar de la imatge sencera a blocs de reduïdes dimensions: 36X36, 16x16 o 8x8, per fer un seguiment de les propietats locals de la imatge quan aquesta és presenta característiques espacials poc uniformes.