19 resultados para (D)-SEQUENCES
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
One of the main implications of the efficient market hypothesis (EMH) is that expected future returns on financial assets are not predictable if investors are risk neutral. In this paper we argue that financial time series offer more information than that this hypothesis seems to supply. In particular we postulate that runs of very large returns can be predictable for small time periods. In order to prove this we propose a TAR(3,1)-GARCH(1,1) model that is able to describe two different types of extreme events: a first type generated by large uncertainty regimes where runs of extremes are not predictable and a second type where extremes come from isolated dread/joy events. This model is new in the literature in nonlinear processes. Its novelty resides on two features of the model that make it different from previous TAR methodologies. The regimes are motivated by the occurrence of extreme values and the threshold variable is defined by the shock affecting the process in the preceding period. In this way this model is able to uncover dependence and clustering of extremes in high as well as in low volatility periods. This model is tested with data from General Motors stocks prices corresponding to two crises that had a substantial impact in financial markets worldwide; the Black Monday of October 1987 and September 11th, 2001. By analyzing the periods around these crises we find evidence of statistical significance of our model and thereby of predictability of extremes for September 11th but not for Black Monday. These findings support the hypotheses of a big negative event producing runs of negative returns in the first case, and of the burst of a worldwide stock market bubble in the second example. JEL classification: C12; C15; C22; C51 Keywords and Phrases: asymmetries, crises, extreme values, hypothesis testing, leverage effect, nonlinearities, threshold models
Resumo:
Projecte de recerca elaborat a partir d’una estada al Departament d’Enginyeria Química del Massachusetts Institute of Technology entre abril i octubre del 2006. S’ha dissenyat i sintetitzat uns nous films polimèrics, amb aplicacions en l’àmbit de l’enginyeria de teixits, utilitzant la tècnica anomenada iCVD (initiated Chemical Vapor Deposition), prèviament desenvolupada pel grup receptor. Es tracta d’uns hidrogels superficials de gruix controlable, que incorporen un monòmer fluorat, el qual s’havia estudiat extensament en el grup d’origen. Aquest monòmer es caracteritza per reaccionar molt fàcilment amb pèptids, de manera que aquests queden units covalentment a la superfície. Diferents estratègies pel desenvolupament d’aquests copolímers han estat avaluades, tant des del punt de vista purament sintètic com de la pròpia aplicació. Les condicions de polimerització han estat optimitzades i els hidrogels s’han caracteritzat químicament per tècniques espectroscòpiques (FTIR, XPS), i físicament per angle de contacte i el·lipsometria. D’aquesta manera, s’ha estudiat la capacitat dels hidrogels d’absorbir aigua i alhora augmentar el seu gruix, depenent de la quantitat d’agent reticulant introduït i de la incorporació del nou monòmer. A continuació, s’han optimitzat les condicions de reacció d’aquestes superfícies amb pèptids que incorporen una molècula fluorescent, la qual permet detectar fàcilment per microscòpia de fluorescència si la reacció ha tingut lloc. Una vegada la plataforma ha estat posada a punt, s’han iniciat assajos cel·lulars tant amb fibroblasts embriònics de ratolí com amb cèl·lules humanes umbilicals. Els resultats preliminars suggereixen una morfologia diferent de les cèl·lules segons si es cultiven sobre films modificats amb pèptids que promouen l’adhesió cel·lular o sobre les seves seqüències permutades no actives. Però, el més interessant és que també s’han observat certes diferències depenent si els films contenen el component hidrogel o no, fet que suggeriria un paper actiu d’aquests noves superfícies en el comportament cel·lular.
Resumo:
Based on Lucas functions, an improved version of the Diffie-Hellman distribution key scheme and to the ElGamal public key cryptosystem scheme are proposed, together with an implementation and computational cost. The security relies on the difficulty of factoring an RSA integer and on the difficulty of computing the discrete logarithm.
Resumo:
"Vegeu el resum a l'inici del document del fitxer adjunt."
Resumo:
Based on third order linear sequences, an improvement version of the Diffie-Hellman distribution key scheme and the ElGamal public key cryptosystem scheme are proposed, together with an implementation and computational cost. The security relies on the difficulty of factoring an RSA integer and on the difficulty of computing the discrete logarithm.
Resumo:
Aquest projecte resol les fases inicials d'un altre projecte més gran que té com a objectiu la conversió automàtica de seqüències d'imatges a 3D. El projecte s'ha centrat en la reconstrucció calibrada de col·leccions d'imatges mitjançant la tècnica anomenada structure from motion. Aquesta tècnica forma part de l'àmbit de la visió per computador i s'utilitza per obtenir la posició i l'orientació de les diferents càmeres juntament amb una reconstrucció 3D de l'escena en forma de núvol de punts.
Resumo:
Avui en dia la biologia aporta grans quantitats de dades que només la informàtica pot tractar. Les aplicacions bioinformàtiques són la més important eina d’anàlisi i comparació que tenim per entendre la vida i aconseguir desxifrar aquestes dades. Aquest projecte centra el seu esforç en l’estudi de les aplicacions dedicades a l’alineament de seqüències genètiques, i més concretament a dos algoritmes, basats en programació dinàmica i òptims: el Needleman&Wunsch i el Smith&Waterman. Amb l’objectiu de millorar el rendiment d’aquests algoritmes per a alineaments de seqüències grans, proposem diferents versions d’implementació. Busquem millorar rendiments en temps i espai. Per a aconseguir millorar els resultats aprofitem el paral·lelisme. Els resultats dels anàlisis de les versions els comparem per obtenir les dades necessàries per valorar cost, guany i rendiment.
Resumo:
Projecte de recerca elaborat a partir d’una estada a la Satandford University, EEUU, entre 2007 i 2009. Els darrers anys, hi ha hagut un avanç espectacular en la tecnologia aplicada a l’anàlisi del genoma i del proteoma (microarrays, PCR quantitativa real time, electroforesis dos dimensions, espectroscòpia de masses, etc.) permetent la resolució de mostres complexes i la detecció quantitativa de diferents gens i proteïnes en un sol experiment. A més a més, la seva importància radica en la capacitat d’identificar potencials dianes terapèutiques i possibles fàrmacs, així com la seva aplicació en el disseny i desenvolupament de noves eines de diagnòstic. L’aplicabilitat de les tècniques actuals, però, està limitada al nivell al que el teixit pot ser disseccionat. Si bé donen valuosa informació sobre expressió de gens i proteïnes implicades en una malaltia o en resposta a un fàrmac per exemple, en cap cas, s’obté una informació in situ ni es pot obtenir informació espacial o una resolució temporal, així com tampoc s’obté informació de sistemes in vivo. L’objectiu d’aquest projecte és desenvolupar i validar un nou microscopi, d’alta resolució, ultrasensible i de fàcil ús, que permeti tant la detecció de metabòlits, gens o proteïnes a la cèl•lula viva en temps real com l’estudi de la seva funció. Obtenint així una descripció detallada de les interaccions entre proteïnes/gens que es donen dins la cèl•lula. Aquest microscopi serà un instrument sensible, selectiu, ràpid, robust, automatitzat i de cost moderat que realitzarà processos de cribatge d’alt rendiment (High throughput screening) genètics, mèdics, químics i farmacèutics (per aplicacions diagnòstiques i de identificació i selecció de compostos actius) de manera més eficient. Per poder realitzar aquest objectius el microscopi farà ús de les més noves tecnologies: 1)la microscopia òptica i d’imatge, per millorar la visualització espaial i la sensibilitat de l’imatge; 2) la utilització de nous mètodes de detecció incloent els més moderns avanços en nanopartícules; 3) la creació de mètodes informàtics per adquirir, emmagatzemar i processar les imatges obtingudes.
Resumo:
Las aplicaciones de alineamiento de secuencias son una herramienta importante para la comunidad científica. Estas aplicaciones bioinformáticas son usadas en muchos campos distintos como pueden ser la medicina, la biología, la farmacología, la genética, etc. A día de hoy los algoritmos de alineamiento de secuencias tienen una complejidad elevada y cada día tienen que manejar un volumen de datos más grande. Por esta razón se deben buscar alternativas para que estas aplicaciones sean capaces de manejar el aumento de tamaño que los bancos de secuencias están sufriendo día a día. En este proyecto se estudian y se investigan mejoras en este tipo de aplicaciones como puede ser el uso de sistemas paralelos que pueden mejorar el rendimiento notablemente.
Resumo:
Detecting changes between images of the same scene taken at different times is of great interest for monitoring and understanding the environment. It is widely used for on-land application but suffers from different constraints. Unfortunately, Change detection algorithms require highly accurate geometric and photometric registration. This requirement has precluded their use in underwater imagery in the past. In this paper, the change detection techniques available nowadays for on-land application were analyzed and a method to automatically detect the changes in sequences of underwater images is proposed. Target application scenarios are habitat restoration sites, or area monitoring after sudden impacts from hurricanes or ship groundings. The method is based on the creation of a 3D terrain model from one image sequence over an area of interest. This model allows for synthesizing textured views that correspond to the same viewpoints of a second image sequence. The generated views are photometrically matched and corrected against the corresponding frames from the second sequence. Standard change detection techniques are then applied to find areas of difference. Additionally, the paper shows that it is possible to detect false positives, resulting from non-rigid objects, by applying the same change detection method to the first sequence exclusively. The developed method was able to correctly find the changes between two challenging sequences of images from a coral reef taken one year apart and acquired with two different cameras
Resumo:
In this article we review first some of the possibilities in which the notions of Fo lner sequences and quasidiagonality have been applied to spectral approximation problems. We construct then a canonical Fo lner sequence for the crossed product of a concrete C* -algebra and a discrete amenable group. We apply our results to the rotation algebra (which contains interesting operators like almost Mathieu operators or periodic magnetic Schrödinger operators on graphs) and the C* -algebra generated by bounded Jacobi operators.
Resumo:
This article analyzes Folner sequences of projections for bounded linear operators and their relationship to the class of finite operators introduced by Williams in the 70ies. We prove that each essentially hyponormal operator has a proper Folner sequence (i.e. a Folner sequence of projections strongly converging to 1). In particular, any quasinormal, any subnormal, any hyponormal and any essentially normal operator has a proper Folner sequence. Moreover, we show that an operator is finite if and only if it has a proper Folner sequence or if it has a non-trivial finite dimensional reducing subspace. We also analyze the structure of operators which have no Folner sequence and give examples of them. For this analysis we introduce the notion of strongly non-Folner operators, which are far from finite block reducible operators, in some uniform sense, and show that this class coincides with the class of non-finite operators.
Resumo:
Sequential randomized prediction of an arbitrary binary sequence isinvestigated. No assumption is made on the mechanism of generating the bit sequence. The goal of the predictor is to minimize its relative loss, i.e., to make (almost) as few mistakes as the best ``expert'' in a fixed, possibly infinite, set of experts. We point out a surprising connection between this prediction problem and empirical process theory. First, in the special case of static (memoryless) experts, we completely characterize the minimax relative loss in terms of the maximum of an associated Rademacher process. Then we show general upper and lower bounds on the minimaxrelative loss in terms of the geometry of the class of experts. As main examples, we determine the exact order of magnitude of the minimax relative loss for the class of autoregressive linear predictors and for the class of Markov experts.
Resumo:
We consider adaptive sequential lossy coding of bounded individual sequences when the performance is measured by the sequentially accumulated mean squared distortion. Theencoder and the decoder are connected via a noiseless channel of capacity $R$ and both are assumed to have zero delay. No probabilistic assumptions are made on how the sequence to be encoded is generated. For any bounded sequence of length $n$, the distortion redundancy is defined as the normalized cumulative distortion of the sequential scheme minus the normalized cumulative distortion of the best scalarquantizer of rate $R$ which is matched to this particular sequence. We demonstrate the existence of a zero-delay sequential scheme which uses common randomization in the encoder and the decoder such that the normalized maximum distortion redundancy converges to zero at a rate $n^{-1/5}\log n$ as the length of the encoded sequence $n$ increases without bound.
Resumo:
RESUM Com a continuació del treball de final de carrera “Desenvolupament d’un laboratori virtual per a les pràctiques de Biologia Molecular” de Jordi Romero, s’ha realitzat una eina complementaria per a la visualització de molècules integrada en el propi laboratori virtual. Es tracta d’una eina per a la visualització gràfica de gens, ORF, marques i seqüències de restricció de molècules reals o fictícies. El fet de poder treballar amb molècules fictícies és la gran avantatge respecte a les solucions com GENBANK que només permet treballar amb molècules pròpies. Treballar amb molècules fictícies fa que sigui una solució ideal per a l’ensenyament, ja que dóna la possibilitat als professors de realitzar exercicis o demostracions amb molècules reals o dissenyades expressament per a l’exercici a demostrar. A més, permet mostrar de forma visual les diferents parts simultàniament o per separat, de manera que ofereix una primera aproximació interpretació dels resultats. Per altra banda, permet marcar gens, crear marques, localitzar seqüències de restricció i generar els ORF de la molècula que nosaltres creem o modificar una ja existent. Per l’implementació, s’ha continuat amb l’idea de separar la part de codi i la part de disseny en les aplicacions Flash. Per fer-ho, s’ha utilitzat la plataforma de codi lliure Ariware ARPv2.02 que proposa un marc de desenvolupament d’aplicacions Flash orientades a objectes amb el codi (classes ActionScript 2.0) separats del movieclip. Per al processament de dades s’ha fet servir Perl per ser altament utilitzat en Bioinformàtica i per velocitat de càlcul. Les dades generades es guarden en una Base de Dades en MYSQL (de lliure distribució), de la que s’extreuen les dades per generar fitxers XML, fent servir tant PHP com la plataforma AMFPHP com a enllaç entre Flash i la resta de parts.