959 resultados para Quasi-orthogonal space-time block codes (STBCs)
Resumo:
With the aim of better understanding avalanche risk in the Catalan Pyrenees, the present work focuses on the analysis of major (or destructive) avalanches. For such purpose major avalanche cartography was made by an exhaustive photointerpretation of several flights, winter and summer field surveys and inquiries to local population. Major avalanche events were used to quantify the magnitude of the episodes during which they occurred, and a Major Avalanche Activity Magnitude Index (MAAMI) was developed. This index is based on the number of major avalanches registered and its estimated frequency in a given time period, hence it quantifies the magnitude of a major avalanche episode or winter. Furthermore, it permits a comparison of the magnitude between major avalanche episodes in a given mountain range, or between mountain ranges, and for a long enough period, it should allow analysis of temporal trends. Major episodes from winter 1995/96 to 2013/14 were reconstructed. Their magnitude, frequency and extent were also assessed. During the last 19 winters, the episodes of January 22-23 and February 6-8 in 1996 were those with highest MAAMI values,followed by January 30-31, 2003, January 29, 2006, and January 24-25, 2014. To analyze the whole twentieth century, a simplified MAAMI was defined in order to attain the same purpose with a less complete dataset. With less accuracy, the same parameters were obtained at winter time resolution throughout the twentieth century. Again, 1995/96 winter had the highest MAAMI value followed by 1971/72, 1974/75 and 1937/38 winter seasons. The analysis of the spatial extent of the different episodes allowed refining the demarcation of nivological regions, and improving our knowledge about the atmospheric patterns that cause major episodes and their climatic interpretation. In some cases, the importance of considering a major avalanche episode as the result of a previous preparatory period, followed by a triggering one was revealed.
Resumo:
Recent advances have raised hope that transplantation of adherent somatic cells could provide dramatic new therapies for various diseases. However, current methods for transplanting adherent somatic cells are not efficient enough for therapeutic applications. Here, we report the development of a novel method to generate quasi-natural cell blocks for high-efficiency transplantation of adherent somatic cells. The blocks were created by providing a unique environment in which cultured cells generated their own extracellular matrix. Initially, stromal cells isolated from mice were expanded in vitro in liquid cell culture medium followed by transferring the cells into a hydrogel shell. After incubation for 1 day with mechanical agitation, the encapsulated cell mass was perforated with a thin needle and then incubated for an additional 6 days to form a quasi-natural cell block. Allograft transplantation of the cell block into C57BL/6 mice resulted in perfect adaptation of the allograft and complete integration into the tissue of the recipient. This method could be widely applied for repairing damaged cells or tissues, stem cell transplantation, ex vivo gene therapy, or plastic surgery.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.
Resumo:
The question of stability of black hole was first studied by Regge and Wheeler who investigated linear perturbations of the exterior Schwarzschild spacetime. Further work on this problem led to the study of quasi-normal modes which is believed as a characteristic sound of black holes. Quasi-normal modes (QNMs) describe the damped oscillations under perturbations in the surrounding geometry of a black hole with frequencies and damping times of oscillations entirely fixed by the black hole parameters.In the present work we study the influence of cosmic string on the QNMs of various black hole background spacetimes which are perturbed by a massless Dirac field.
Resumo:
Actualmente, la investigación científica acerca de la influencia de los factores educativos y familiares en el aprendizaje de una segunda lengua (L2) es limitada. En comparación, los efectos que tiene la L2 en la inteligencia y cognición han sido más estudiados. Por esta razón, el artículo presenta una revisión de la literatura empírica existente que relaciona lo mencionado anteriormente, ampliando así la temática del bilingüismo. Se buscaron artículos en cuatro bases de datos (PSICODOC, ISI Web of knowledge y SCOPUS), usando palabras claves específicas, en el periodo de 1990 hasta el 2012. De 79 artículos encontrados, 34 cumplieron con los criterios de inclusión para la revisión. Asimismo, se tuvieron en cuenta dos libros, de los cuales se revisó un capítulo por cada uno según los mismos criterios. En conjunto, los resultados arrojaron importantes datos teóricos y de investigación que relacionan el éxito en el aprendizaje de una L2 con la inteligencia y cognición, según la influencia de los factores educativos y familiares. En conclusión, se identificaron más factores educativos que familiares; lo cual a concepto de la autora evidencia la limitada investigación que se ha hecho sobre los factores familiares en el bilingüismo actualmente.
Resumo:
Urban regeneration programmes in the UK over the past 20 years have increasingly focused on attracting investors, middle-class shoppers and visitors by transforming places and creating new consumption spaces. Ensuring that places are safe and are seen to be safe has taken on greater salience as these flows of income are easily disrupted by changing perceptions of fear and the threat of crime. At the same time, new technologies and policing strategies and tactics have been adopted in a number of regeneration areas which seek to establish control over these new urban spaces. Policing space is increasingly about controlling human actions through design, surveillance technologies and codes of conduct and enforcement. Regeneration agencies and the police now work in partnerships to develop their strategies. At its most extreme, this can lead to the creation of zero-tolerance, or what Smith terms 'revanchist', measures aimed at particular social groups in an effort to sanitise space in the interests of capital accumulation. This paper, drawing on an examination of regeneration practices and processes in one of the UK's fastest-growing urban areas, Reading in Berkshire, assesses policing strategies and tactics in the wake of a major regeneration programme. It documents and discusses the discourses of regeneration that have developed in the town and the ways in which new urban spaces have been secured. It argues that, whilst security concerns have become embedded in institutional discourses and practices, the implementation of security measures has been mediated, in part, by the local socio-political relations in and through which they have been developed.
Resumo:
An analysis was made that calculated the risk of disease for premises in the most heavily affected parts of the county of Cumbria during the foot-and-mouth disease epidemic in the UK in 2001. In over half the cases the occurrence of the disease was not directly attributable to a recently infected premises being located within 1.5 km. Premises more than 1.5 km from recently infected premises faced sufficiently high infection risks that culling within a 1.5 km radius of the infected premises alone could not have prevented the progress of the epidemic. A comparison of the final outcome in two areas of the county, south Penrith and north Cumbria, indicated that focusing on controlling the potential spread of the disease over short distances by culling premises contiguous to infected premises, while the disease continued to spread over longer distances, may have resulted in excessive numbers of premises being culled. Even though the contiguous cull in south Penrith appeared to have resulted in a smaller proportion of premises becoming infected, the overall proportion of premises culled was considerably greater than in north Cumbria, where, because of staff and resource limitations, a smaller proportion of premises contiguous to infected premises was culled
Resumo:
A new structure of Radial Basis Function (RBF) neural network called the Dual-orthogonal RBF Network (DRBF) is introduced for nonlinear time series prediction. The hidden nodes of a conventional RBF network compare the Euclidean distance between the network input vector and the centres, and the node responses are radially symmetrical. But in time series prediction where the system input vectors are lagged system outputs, which are usually highly correlated, the Euclidean distance measure may not be appropriate. The DRBF network modifies the distance metric by introducing a classification function which is based on the estimation data set. Training the DRBF networks consists of two stages. Learning the classification related basis functions and the important input nodes, followed by selecting the regressors and learning the weights of the hidden nodes. In both cases, a forward Orthogonal Least Squares (OLS) selection procedure is applied, initially to select the important input nodes and then to select the important centres. Simulation results of single-step and multi-step ahead predictions over a test data set are included to demonstrate the effectiveness of the new approach.
Resumo:
A quasi-optical de-embedding technique for characterizing waveguides is demonstrated using wideband time-resolved terahertz spectroscopy. A transfer function representation is adopted for the description of the signal in the input and output port of the waveguides. The time domain responses were discretised and the waveguide transfer function was obtained through a parametric approach in the z-domain after describing the system with an ARX as well as with a state space model. Prior to the identification procedure, filtering was performed in the wavelet domain to minimize signal distortion and the noise propagating in the ARX and subspace models. The model identification procedure requires isolation of the phase delay in the structure and therefore the time-domain signatures must be firstly aligned with respect to each other before they are compared. An initial estimate of the number of propagating modes was provided by comparing the measured phase delay in the structure with theoretical calculations that take into account the physical dimensions of the waveguide. Models derived from measurements of THz transients in a precision WR-8 waveguide adjustable short will be presented.