1000 resultados para Cartografia automática


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se muestran las posibilidades de la visión estéreo para la visualización en monitores tanto de objetos simples como de grandes escenarios, así como su aplicación en juegos o en otros ámbitos como el cine, la geología e incluso la medicina. Para el desarrollo se ha usado una tarjeta con soporte 3d como la Nvidia 7600GT y una pantalla con una tasa de frecuencia alta como una ACER 19 pulgadas a 100Hz. Los resultados sobre la visualización han sido extraídos de las opiniones de un grupo de 20 personas, de diversas profesiones, no relacionadas con los gráficos por ordenador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

JPEG2000 és un estàndard de compressió d’imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Based on third order linear sequences, an improvement version of the Diffie-Hellman distribution key scheme and the ElGamal public key cryptosystem scheme are proposed, together with an implementation and computational cost. The security relies on the difficulty of factoring an RSA integer and on the difficulty of computing the discrete logarithm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amb l'evolució de la tecnologia les capacitats de còmput es van incrementant i problemes irresolubles del passat deixen de ser-ho amb els recursos actuals. La majoria d'aplicacions que s'enfronten a aquests problemes són complexes, ja que per aconseguir taxes elevades de rendiment es fa necessari utilitzar el major nombre de recursos possibles, i això les dota d'una arquitectura inherentment distribuïda. Seguint la tendència de la comunitat investigadora, en aquest treball de recerca es proposa una arquitectura per a entorns grids basada en la virtualització de recursos que possibilita la gestió eficient d'aquests recursos. L'experimentació duta a terme ha permès comprovar la viabilitat d'aquesta arquitectura i la millora en la gestió que la utilització de màquines virtuals proporciona.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As computer chips implementation technologies evolve to obtain more performance, those computer chips are using smaller components, with bigger density of transistors and working with lower power voltages. All these factors turn the computer chips less robust and increase the probability of a transient fault. Transient faults may occur once and never more happen the same way in a computer system lifetime. There are distinct consequences when a transient fault occurs: the operating system might abort the execution if the change produced by the fault is detected by bad behavior of the application, but the biggest risk is that the fault produces an undetected data corruption that modifies the application final result without warnings (for example a bit flip in some crucial data). With the objective of researching transient faults in computer system’s processor registers and memory we have developed an extension of HP’s and AMD joint full system simulation environment, named COTSon. This extension allows the injection of faults that change a single bit in processor registers and memory of the simulated computer. The developed fault injection system makes it possible to: evaluate the effects of single bit flip transient faults in an application, analyze an application robustness against single bit flip transient faults and validate fault detection mechanism and strategies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

High Performance Computing is a rapidly evolving area of computer science which attends to solve complicated computational problems with the combination of computational nodes connected through high speed networks. This work concentrates on the networks problems that appear in such networks and specially focuses on the Deadlock problem that can decrease the efficiency of the communication or even destroy the balance and paralyze the network. Goal of this work is the Deadlock avoidance with the use of virtual channels, in the switches of the network where the problem appears. The deadlock avoidance assures that will not be loss of data inside network, having as result the increased latency of the served packets, due to the extra calculation that the switches have to make to apply the policy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo analiza el rendimiento de cuatro nodos de cómputo multiprocesador de memoria compartida para resolver el problema N-body. Se paraleliza el algoritmo serie, y se codifica usando el lenguaje C extendido con OpenMP. El resultado son dos variantes que obedecen a dos criterios de optimización diferentes: minimizar los requisitos de memoria y minimizar el volumen de cómputo. Posteriormente, se realiza un proceso de análisis de las prestaciones del programa sobre los nodos de cómputo. Se modela el rendimiento de las variantes secuenciales y paralelas de la aplicación, y de los nodos de cómputo; se instrumentan y ejecutan los programas para obtener resultados en forma de varias métricas; finalmente se muestran e interpretan los resultados, proporcionando claves que explican ineficiencias y cuellos de botella en el rendimiento y posibles líneas de mejora. La experiencia de este estudio concreto ha permitido esbozar una incipiente metodología de análisis de rendimiento, identificación de problemas y sintonización de algoritmos a nodos de cómputo multiprocesador de memoria compartida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Performance analysis is the task of monitor the behavior of a program execution. The main goal is to find out the possible adjustments that might be done in order improve the performance. To be able to get that improvement it is necessary to find the different causes of overhead. Nowadays we are already in the multicore era, but there is a gap between the level of development of the two main divisions of multicore technology (hardware and software). When we talk about multicore we are also speaking of shared memory systems, on this master thesis we talk about the issues involved on the performance analysis and tuning of applications running specifically in a shared Memory system. We move one step ahead to take the performance analysis to another level by analyzing the applications structure and patterns. We also present some tools specifically addressed to the performance analysis of OpenMP multithread application. At the end we present the results of some experiments performed with a set of OpenMP scientific application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gaps es un generador de aplicaciones sintéticas de estructura compuesta Master/Worker de pipelines. Para crear una aplicación sintética, el investigador utilizará Gaspar, que recibe un fichero de texto con los parámetros de la aplicación a generar: cantidad de workers, etapas, tamaño de mensaje a enviar, etc., y genera un fichero con las propiedades de cada etapa. A partir de estos datos, Gaps, que esta hecho en C con MPI, genera y ejecuta la aplicación paralela. Estas aplicaciones se utilizan para comprobar en un entorno real los estudios analíticos que constituyen el modelo de rendimiento y sintonización dinámica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El projecte d'incidències faunística està emmarcat a la 10 edició del Màster en Tecnologies de la Informació Geogràfica. Aquest projecte està realitzat pel consorci del Parc de Collserola i té dos objectius: el primer és muntar una base de dades en PostgreSQL amb arxius que es trobaven en format shapefile i van ser exportats a Postgis pel maneig de la cartografia i les seves taules que són les que constituïxen la base de dades. El segon objectiu va ser crear una eina on l'usuari del parc pogués reportar incidències faunístiques mitjançant la web i aquesta així mateix poder ser representada al mapa. Dins del projecte s’han fet servir eines de programació per a generar la interfície amb els mapes, emprant els llenguatges Javascript, php, html.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La present memòria descriu el projecte final: Atlas, servidor de dades geoespaciales, descàrrega d'informació cartogràfica, en l'es desenvolupa la metodologia necessària i s'expliquen els passos per a la creació d'un geoportal, un objectiu especifico del projecte és inserir i assolir el funcionament de l'eina que permet realitzar les descàrregues de la informació cartogràfica, que un usuari final desitgi obtenir des d'un ordinador personal, entre les solucions tecnologies emprades per a assolir la descàrrega de cartografia digital es pot esmentar les solucions del Grup Esri: ArcIMS i Data Delivery Extension (DDE) i per a visualitzar la informació cartogràfica es va utilitzar Openlayers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El projecte ha consistit en la construcció d’un visor de mapes temàtic com a part d’un servei Internet per a la consulta i publicació d’indicadors estadístics de l’Institut d’Estudis Regionals i Metropolitans de Barcelona (IERMB). El servei s’ha muntat amb programes de codi lliure i obert en un entorn HTML, utilitzant MapServer CGI com a servidor d’informació geogràfica i les llibreries JavaScript OpenLayers per a la implementació de les funcionalitats del servei de mapes. El visor s’ha dissenyat seguint l’estètica del Web de l’IERMB perquè l’usuari interactui amb una interfície familiar i coneguda que li faciliti l’adaptabilitat al servei donat

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El document recull la memòria del projecte final del projecte de la desena edició del Màster en Tecnologies de la Informació Geogràfica impartit en Laboratori d’Informació Geogràfica i Teledetecció (LIGIT) del departament de geografia de la UAB i realitzat amb col•laboració de l’empresa SEYS. El projecte es contextualitza en el desenvolupament del Sistema d’Informació Geogràfica (SIG) d’urbanisme integrat en una plataforma corporativa del SIG municipal per a l’Ajuntament de Tarragona com a resposta a la revisió del planejament urbanístic (POUM) El projecte es desenvolupa en tres blocs: Urbanisme, Cartografia bàsica i interoperativitat. Les tasques realitzades en aquestes pràctiques versen sobre dos d’aquest mòduls:  Urbanisme, on s’estructura les dades del POUM per tal d’establir una base de dades. Aquesta servirà de base pel desenvolupament de l’aplicatiu que facilitarà les tasques del departament d’urbanisme  Interoperativitat, on es desenvoluparà un servidor de la informació geoespacial , per tal de poder-hi accedir des del diferents departaments de l’Ajuntament, i un geoportal per visualitzar-les.