111 resultados para Curvelet transform
Resumo:
In this paper the authors propose a new closed contour descriptor that could be seen as a Feature Extractor of closed contours based on the Discrete Hartley Transform (DHT), its main characteristic is that uses only half of the coefficients required by Elliptical Fourier Descriptors (EFD) to obtain a contour approximation with similar error measure. The proposed closed contour descriptor provides an excellent capability of information compression useful for a great number of AI applications. Moreover it can provide scale, position and rotation invariance, and last but not least it has the advantage that both the parameterization and the reconstructed shape from the compressed set can be computed very efficiently by the fast Discrete Hartley Transform (DHT) algorithm. This Feature Extractor could be useful when the application claims for reversible features and when the user needs and easy measure of the quality for a given level of compression, scalable from low to very high quality.
Resumo:
Rotation distance quantifies the difference in shape between two rooted binary trees of the same size by counting the minimum number of elementary changes needed to transform one tree to the other. We describe several types of rotation distance, and provide upper bounds on distances between trees with a fixed number of nodes with respect to each type. These bounds are obtained by relating each restricted rotation distance to the word length of elements of Thompson's group F with respect to different generating sets, including both finite and infinite generating sets.
Resumo:
In this paper the electoral consequences of the Islamist terrorist attacks on March 11, 2004 are analysed. According to a quantitative analysis based on a post-electoral survey, we show the causal mechanisms that transform voters’ reactions to the bombings into a particular electoral behaviour and estimate their relevance in the electoral results on March 14, 2004
Resumo:
La "Phoronomia", primer libro de mecánica escrito tras los "Principia", es representativo del proceso de transición que transformó la dinámica a principios del XVIII y que concluye con la "Mecánica" de Euler (1736). Está escrita en estilo geométrico y algebraico, y mezcla los conceptos y métodos de Leibniz y Newton de forma idiosincrásica. En esta obra se encuentra por primera vez la segunda ley de Newton escrita en la forma en que hoy la conocemos, así como un intento de construcción de la estática y la dinámica de sólidos y fluidos basado en reglas generales diferenciales.
Resumo:
JPEG 2000 és un estàndard de compressió d'imatges que utilitza tècniques estat de l’art basades en la transformada wavelet. Els principals avantatges són la millor compressió, la possibilitat d’operar amb dades comprimides i que es pot comprimir amb i sense pèrdua amb el mateix mètode. BOI és la implementació de JPEG 2000 del Grup de Compressió Interactiva d’Imatges del departament d’Enginyeria de la Informació i les Comunicacions, pensada per entendre, criticar i millorar les tecnologies de JPEG 2000. La nova versió intenta arribar a tots els extrems de l’estàndard on la versió anterior no va arribar.
Resumo:
Les factoritzacions de la FFT (Fast Fourier Transform) que presenten un patró d’interconnexió regular entre factors o etapes son conegudes com algorismes paral·lels, o algorismes de Pease, ja que foren originalment proposats per Pease. En aquesta contribució s’han desenvolupat noves factoritzacions amb blocs que presenten el patró d’interconnexió regular de Pease. S’ha mostrat com aquests blocs poden ser obtinguts a una escala prèviament seleccionada. Les noves factoritzacions per ambdues FFT i IFFT (Inverse FFT) tenen dues classes de factors: uns pocs factors del tipus Cooley-Tukey i els nous factors que proporcionen la mateix patró d’interconnexió de Pease en blocs. Per a una factorització donada, els blocs comparteixen dimensions, el patró d’interconnexió etapa a etapa i a més cada un d’ells pot ser calculat independentment dels altres.
Resumo:
RESUM En aquest document es presenta un detector de contorns d’imatges basat en el domini transformat. A partir de la interpretació de la transformada de Fourier de la imatge i la seva formulació matricial en termes dels diferents modes, es realitza una selecció de les components passa baixes a partir de les quals es reconstrueix la component de baixa freqüència que es resta de la imatge original per tal d’obtenir el detector. Aquest detector de contorns no és esbiaixat. L’algorisme pot ser aplicat utilitzant diferents mides del bloc de processament, que pot anar de la imatge sencera a blocs de reduïdes dimensions: 36X36, 16x16 o 8x8, per fer un seguiment de les propietats locals de la imatge quan aquesta és presenta característiques espacials poc uniformes.
Resumo:
JPEG2000 és un estàndard de compressió d’imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.
Resumo:
Treball de recerca realitzat per una alumna d'ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l'any 2009. El treball es centra en conèixer la complexitat d’un estudi fotogràfic del s. XIX: l’estudi Napoleón. Per entendre tots els aspectes que implicava fer una fotografia en aquest estudi comença explicant com es van desenvolupar i descobrir les diferents tècniques fotogràfiques, després presenta l’estat de la fotografia a la Catalunya del s. XIX. El nucli del treball té diferents aspectes: per una banda s’investiga la història dels fundadors d’un dels estudis més importants a la Barcelona del s. XIX, per l’altra presenta com eren les sales, els decorats, els clients, la tipografia, les càmeres .... i per últim, porta a la pràctica tot allò necessari per a transformar un paper blanc en una fotografia fent servir els mètodes de l’època. Podríem dir que el treball es desenvolupa en tres àmbits: el primer sobre els fonaments tècnics i històrics de la fotografia, les fonts utilitzades per realitzar aquest apartat han estat fonamentalment bibliogràfiques; el segon fa referència a l’estudi fotogràfic dels Napoleón, en aquest cas, a part de les fonts bibliogràfiques, també ha estat de vital importància la informació aportada per un descendent de la família i finalment s’explica els procediments que es van fer servir per obtenir imatges durant el segle s.XIX i les reaccions químiques en les quals es fonamenten. Aporta també una part experimental que dóna un caire artístic i novedós al treball.
Resumo:
Los procesadores multi-core y el multi-threading por hardware permiten aumentar el rendimiento de las aplicaciones. Por un lado, los procesadores multi-core combinan 2 o más procesadores en un mismo chip. Por otro lado, el multi-threading por hardware es una técnica que incrementa la utilización de los recursos del procesador. Este trabajo presenta un análisis de rendimiento de los resultados obtenidos en dos aplicaciones, multiplicación de matrices densas y transformada rápida de Fourier. Ambas aplicaciones se han ejecutado en arquitecturas multi-core que explotan el paralelismo a nivel de thread pero con un modelo de multi-threading diferente. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multi-core y multi-threading en el rendimiento.
Resumo:
Aquest projecte es tracta de la optimització i la implementació de l’etapa d’adquisició d’un receptor GPS. També inclou una revisió breu del sistema GPS i els seus principis de funcionament. El procés d’adquisició s’ha estudiat amb detall i programat en els entorns de treball Matlab i Simulink. El fet d’implementar aquesta etapa en dos entorns diferents ha estat molt útil tant de cara a l’aprenentatge com també per la comprovació dels resultats obtinguts. El principal objectiu del treball és el disseny d’un model Simulink que es capaç d’adquirir una senyal capturada amb hardware real. En realitat, s’han fet dues implementacions: una que utilitza blocs propis de Simulink i l’altra que utilitza blocs de la llibreria Xilinx. D’aquesta manera, posteriorment, es facilitaria la transició del model a la FPGA utilitzant l’entorn ISE de Xilinx. La implementació de l’etapa d’adquisició es basa en el mètode de cerca de fase de codi en paral·lel, el qual empra la operació correlació creuada mitjançant la transformada ràpida de Fourier (FFT). Per aquest procés es necessari realitzar dues transformades (per a la senyal entrant i el codi de referència) i una antitransformada de Fourier (per al resultat de la correlació). Per tal d’optimitzar el disseny s’utilitza un bloc FFT, ja que tres blocs consumeixen gran part dels recursos d’una FPGA. En lloc de replicar el bloc FFT, en el model el bloc és compartit en el temps gràcies a l’ús de buffers i commutadors, com a resultat la quantitat de recursos requerits per una implementació en una FPGA es podria reduir considerablement.
Posada a punt i validació de l'anàlisi d'urea en llet crua mitjançant IR per transformada de Fourier
Resumo:
L’objectiu principal d’aquest projecte és posar a punt el mètode d’anàlisi d’urea en llet crua de vaca mitjançant la tècnica d’Infraroig per Transformada de Fourier (Fourier Transform Infrared Spectroscopy, FTIR). S’haurà de portar a terme la validació del mètode per FTIR (seguint els criteris de la ISO 17025) mitjançant la comparació amb el mètode de referència utilitzat actualment al laboratori.
Resumo:
This paper studies global webs on the projective plane with vanishing curvature. The study is based on an interplay of local and global arguments. The main local ingredient is a criterium for the regularity of the curvature at the neighborhood of a generic point of the discriminant. The main global ingredient, the Legendre transform, is an avatar of classical projective duality in the realm of differential equations. We show that the Legendre transform of what we call reduced convex foliations are webs with zero curvature, and we exhibit a countable infinity family of convex foliations which give rise to a family of webs with zero curvature not admitting non-trivial deformations with zero curvature.
Resumo:
This paper proposes a new methodology to compute Value at Risk (VaR) for quantifying losses in credit portfolios. We approximate the cumulative distribution of the loss function by a finite combination of Haar wavelet basis functions and calculate the coefficients of the approximation by inverting its Laplace transform. The Wavelet Approximation (WA) method is specially suitable for non-smooth distributions, often arising in small or concentrated portfolios, when the hypothesis of the Basel II formulas are violated. To test the methodology we consider the Vasicek one-factor portfolio credit loss model as our model framework. WA is an accurate, robust and fast method, allowing to estimate VaR much more quickly than with a Monte Carlo (MC) method at the same level of accuracy and reliability.
Resumo:
L'evolució ens els últims decennis de les possibilitats relacionades amb les tecnologies de la informació han provocat l'aparició de diferents camps, entre ells l'anomenat “recuperació de música basant-se en el contingut”, que tracta de calcular la similitud entre diferents sons. En aquest projecte hem fet una recerca sobre els diferents mètodes que existeixen avui en dia, i posteriorment n'hem comparat tres, un basat en característiques del so, un basat en la transformada discreta del cosinus, i un que combina els dos anteriors. Els resultats han mostrat, que el basat en la transformada de Fourier és el més fiable.