993 resultados para Corrections
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
La révision du code est un procédé essentiel quelque soit la maturité d'un projet; elle cherche à évaluer la contribution apportée par le code soumis par les développeurs. En principe, la révision du code améliore la qualité des changements de code (patches) avant qu'ils ne soient validés dans le repertoire maître du projet. En pratique, l'exécution de ce procédé n'exclu pas la possibilité que certains bugs passent inaperçus. Dans ce document, nous présentons une étude empirique enquétant la révision du code d'un grand projet open source. Nous investissons les relations entre les inspections des reviewers et les facteurs, sur les plans personnel et temporel, qui pourraient affecter la qualité de telles inspections.Premiérement, nous relatons une étude quantitative dans laquelle nous utilisons l'algorithme SSZ pour détecter les modifications et les changements de code favorisant la création de bogues (bug-inducing changes) que nous avons lié avec l'information contenue dans les révisions de code (code review information) extraites du systéme de traçage des erreurs (issue tracking system). Nous avons découvert que les raisons pour lesquelles les réviseurs manquent certains bogues était corrélées autant à leurs caractéristiques personnelles qu'aux propriétés techniques des corrections en cours de revue. Ensuite, nous relatons une étude qualitative invitant les développeurs de chez Mozilla à nous donner leur opinion concernant les attributs favorables à la bonne formulation d'une révision de code. Les résultats de notre sondage suggèrent que les développeurs considèrent les aspects techniques (taille de la correction, nombre de chunks et de modules) autant que les caractéristiques personnelles (l'expérience et review queue) comme des facteurs influant fortement la qualité des revues de code.
Resumo:
La prothèse totale du genou (PTG) est une chirurgie couramment pratiquée pour traiter les patients souffrant d’arthrose sévère du genou. Bien que cette technique chirurgicale soit efficace pour diminuer la douleur, améliorer la fonction du genou et rentable d’un point de vue socio-économique, un pourcentage non négligeable de patients n’est pas satisfait suite à la chirurgie, principalement due à une douleur persistante ou due à une perception d’avoir une mauvaise fonction articulaire, sans cause identifiée. Cependant, l’impact de cette chirurgie sur la cinématique tridimensionnelle (3D) du genou demeure mal compris. Dans le but de mieux comprendre pourquoi certains patients ressentent toujours de la douleur suite à cette chirurgie, cette étude analysera, dans un premier temps, l’effet prospectif de la chirurgie sur la cinématique 3D du genou. Puis dans un second temps, comparera la cinématique 3D de sujet souffrant de douleur à celle de sujets asymptomatiques suite à la prothèse. Pour parvenir à ces deux objectifs, deux études distinctes ont été entreprises. Une première étude prospective a porté sur l’évolution de la cinématique 3D du genou d’un groupe de 19 sujets, recrutés sur la liste d’attente pour prothèse totale du genou de deux chirurgiens du CHUM, hôpital Notre-Dame, puis la cinématique a été comparée avec un groupe contrôle de 17 sujets avec des genoux sains. Une seconde étude a comparé la cinématique 3D de 20 sujets souffrant de douleur post-PTG avec 20 sujets avec des genoux asymptomatiques suite à leur chirurgie. La première étude a permis de montrer que la cinématique dans le plan frontal suite à la prothèse totale du genou était corrigée vers celle des sujets sains. Contrairement à celle mesurée dans les autres plans (sagittal et axial) qui, malgré de petites corrections, demeure différente de la cinématique des sujets sains. La seconde étude a permis d’identifier un marqueur biomécanique de la douleur chez les sujets souffrant de douleur post-PTG. Effectivement, contrairement aux sujets asymptomatiques, suite à leur chirurgie, les patients souffrants de douleur marchent avec une contracture en flexion plus importante tout au long de la phase d’appui. Les résultats de ces deux études tendent à montrer que la prothèse totale du genou modifie la cinématique 3D du genou, sans toutefois redevenir semblable à celle d’un genou normal. De plus, certains marqueurs biomécaniques peuvent être associés à de la douleur suite à la chirurgie. Une meilleure compréhension de l’impact de la PTG sur la cinématique 3D du genou permettra d’offrir de meilleurs traitements en préparation et après la chirurgie et pourrait mener à de nouveaux designs de prothèses.
Resumo:
The scientific literature often mentions that there is a statistical connection between alcohol and drug consumption and criminal behaviour. However, there is little information available which would make it possible to quantify this connection, and specify the impact that drugs and alcohol have on criminal behaviour. Consumption of psychoactive substances has two major effects: intoxication and addiction. These effects are related, respectively, to the psycho-pharmacological and economic-compulsive models of the connection between drugs and crime. The first model associates drug use and intoxication with a decrease in cognitive functions and a lack of self-control, leading to aggressive impulses, violence and lack of inhibitions. The second model refers to the huge costs that are associated with being addicted to certain drugs. A person addicted to these drugs would need to engage in lucrative criminal activities in order to pay for them. This article explores and attempts to further define the links between alcohol, illicit drugs and criminal behaviour, taking into account the types of drugs consumed and the types of criminal behaviour displayed.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.
Resumo:
From the introduction: Mexico is in a state of siege. In recent years, organized crime and drug-related violence have escalated dramatically, taking innocent lives and leaving the country mired in bloodshed. The Mexican government, under the leadership of President Felipe Calderón, has responded in part by significantly extending the reach of its security operations, deploying thousands of federal police officers and military troops to combat the activities of drug cartels, and collaborating with the United States on an extensive regional security plan known as the Mérida Initiative. In the midst of the security crisis, however, the government has somewhat paradoxically adopted judicial reforms that protect human rights and civil liberties rather than erode them, specifically the presumption of innocence standard in criminal proceedings and the implementation of oral trials. Assuming that the new laws on the books will be applied in practice, these reforms represent an important commitment on the part of the government to uphold human rights and civil liberties. This is in stark contrast to the infamous judicial reforms in Colombia—the institutionalization of anonymous or “faceless” prosecutions in special courts—implemented after a surge in leftist and cartel brutality, and the murders of several prominent public and judicial officials in the 1980s.
Resumo:
Global Positioning System (GPS), with its high integrity, continuous availability and reliability, revolutionized the navigation system based on radio ranging. With four or more GPS satellites in view, a GPS receiver can find its location anywhere over the globe with accuracy of few meters. High accuracy - within centimeters, or even millimeters is achievable by correcting the GPS signal with external augmentation system. The use of satellite for critical application like navigation has become a reality through the development of these augmentation systems (like W AAS, SDCM, and EGNOS, etc.) with a primary objective of providing essential integrity information needed for navigation service in their respective regions. Apart from these, many countries have initiated developing space-based regional augmentation systems like GAGAN and IRNSS of India, MSAS and QZSS of Japan, COMPASS of China, etc. In future, these regional systems will operate simultaneously and emerge as a Global Navigation Satellite System or GNSS to support a broad range of activities in the global navigation sector.Among different types of error sources in the GPS precise positioning, the propagation delay due to the atmospheric refraction is a limiting factor on the achievable accuracy using this system. The WADGPS, aimed for accurate positioning over a large area though broadcasts different errors involved in GPS ranging including ionosphere and troposphere errors, due to the large temporal and spatial variations in different atmospheric parameters especially in lower atmosphere (troposphere), the use of these broadcasted tropospheric corrections are not sufficiently accurate. This necessitated the estimation of tropospheric error based on realistic values of tropospheric refractivity. Presently available methodologies for the estimation of tropospheric delay are mostly based on the atmospheric data and GPS measurements from the mid-latitude regions, where the atmospheric conditions are significantly different from that over the tropics. No such attempts were made over the tropics. In a practical approach when the measured atmospheric parameters are not available analytical models evolved using data from mid-latitudes for this purpose alone can be used. The major drawback of these existing models is that it neglects the seasonal variation of the atmospheric parameters at stations near the equator. At tropics the model underestimates the delay in quite a few occasions. In this context, the present study is afirst and major step towards the development of models for tropospheric delay over the Indian region which is a prime requisite for future space based navigation program (GAGAN and IRNSS). Apart from the models based on the measured surface parameters, a region specific model which does not require any measured atmospheric parameter as input, but depends on latitude and day of the year was developed for the tropical region with emphasis on Indian sector.Large variability of atmospheric water vapor content in short spatial and/or temporal scales makes its measurement rather involved and expensive. A local network of GPS receivers is an effective tool for water vapor remote sensing over the land. This recently developed technique proves to be an effective tool for measuring PW. The potential of using GPS to estimate water vapor in the atmosphere at all-weather condition and with high temporal resolution is attempted. This will be useful for retrieving columnar water vapor from ground based GPS data. A good network of GPS could be a major source of water vapor information for Numerical Weather Prediction models and could act as surrogate to the data gap in microwave remote sensing for water vapor over land.
Resumo:
In this thesis an attempt is made to study vortex knots based on the work of Keener . It is seen that certain mistakes have been crept in to the details of this paper. We have chosen this study for an investigation as it is the first attempt to study vortex knots. Other works had given attention to this. In chapter 2 we have considered these corrections in detail. In chapter 3 we have tried a simple extension by introducing vorticity in the evolution of vortex knots. In chapter 4 we have introduced a stress tensor related to vorticity. Chapter 5 is the general conclusion.Knot theory is a branch of topology and has been developed as an independent branch of study. It has wide applications and vortex knot is one of them. As pointed out earlier, most of the studies in fluid dynamics exploits the analogy between vorticity and magnetic induction in the case of MHD. But vorticity is more general than magnetic induction and so it is essential to discuss the special properties of vortex knots, independent of MHD flows. This is what is being done in this thesis.
Resumo:
We have investigated the structure of double quantum dots vertically coupled at zero magnetic field within local-spin-density functional theory. The dots are identical and have a finite width, and the whole system is axially symmetric. We first discuss the effect of thickness on the addition spectrum of one single dot. Next we describe the structure of coupled dots as a function of the interdot distance for different electron numbers. Addition spectra, Hund's rule, and molecular-type configurations are discussed. It is shown that self-interaction corrections to the density-functional results do not play a very important role in the calculated addition spectra
Resumo:
Epitaxial and fully strained SrRuO3 thin films have been grown on SrTiO3(100). At initial stages the growth mode is three-dimensional- (3D-)like, leading to a finger-shaped structure aligned with the substrate steps and that eventually evolves into a 2D step-flow growth. We study the impact that the defect structure associated with this unique growth mode transition has on the electronic properties of the films. Detailed analysis of the transport properties of nanometric films reveals that microstructural disorder promotes a shortening of the carrier mean free path. Remarkably enough, at low temperatures, this results in a reinforcement of quantum corrections to the conductivity as predicted by recent models of disordered, strongly correlated electronic systems. This finding may provide a simple explanation for the commonly observed¿in conducting oxides-resistivity minima at low temperature. Simultaneously, the ferromagnetic transition occurring at about 140 K, becomes broader as film thickness decreases down to nanometric range. The relevance of these results for the understanding of the electronic properties of disordered electronic systems and for the technological applications of SrRuO3¿and other ferromagnetic and metallic oxides¿is stressed.
Resumo:
We study the static properties of the Little model with asymmetric couplings. We show that the thermodynamics of this model coincides with that of the Sherrington-Kirkpatrick model, and we compute the main finite-size corrections to the difference of the free energy between these two models and to some clarifying order parameters. Our results agree with numerical simulations. Numerical results are presented for the symmetric Little model, which show that the same conclusions are also valid in this case.
Resumo:
The structural and electronic properties of Cu2O have been investigated using the periodic Hartree-Fock method and a posteriori density-functional corrections. The lattice parameter, bulk modulus, and elastic constants have been calculated. The electronic structure of and bonding in Cu2O are analyzed and compared with x-ray photoelectron spectroscopy spectra, showing a good agreement for the valence-band states. To check the quality of the calculated electron density, static structure factors and Compton profiles have been calculated, showing a good agreement with the available experimental data. The effective electron and hole masses have been evaluated for Cu2O at the center of the Brillouin zone. The calculated interaction energy between the two interpenetrated frameworks in the cuprite structure is estimated to be around -6.0 kcal/mol per Cu2O formula. The bonding between the two independent frameworks has been analyzed using a bimolecular model and the results indicate an important role of d10-d10 type interactions between copper atoms.
Resumo:
We study the properties of the 1S0 pairing gap in low-density neutron matter. Different corrections to the lowest-order scattering length approximation are explored, resulting in a strong suppression with respect to the BCS result.
Resumo:
By the end of the first day of embryonic development, zebrafish primordial germ cells (PGCs) arrive at the site where the gonad develops. In our study we investigated the mechanisms controlling the precision of primordial germ cell arrival at their target. We found that in contrast with our expectations which were based on findings in Drosophila and mouse, the endoderm does not constitute a preferred migration substrate for the PGCs. Rather, endoderm derivatives are important for later stages of organogenesis keeping the PGC clusters separated. It would be interesting to investigate the precise mechanism by which endoderm controls germ cell position in the gonad. In their migration towards the gonad, zebrafish germ cells follow the gradient of chemokine SDF-1a, which they detect using the receptor CXCR4b that is expressed on their membrane. Here we show that the C-terminal region of CXCR4b is responsible for down-regulation of receptor activity as well as for receptor internalization. We demonstrate that receptor molecules unable to internalize are less potent in guiding germ cells to the site where the gonad develops, thereby implicating chemokine receptor internalization in facilitating precision of migration during chemotaxis in vivo. We demonstrate that while CXCR4b activity positively regulates the duration of the active migration phases, the down-regulation of CXCR4b signalling by internalization limits the duration of this phase. This way, receptor signalling contributes to the persistence of germ cell migration, whereas receptor down-regulation enables the cells to stop and correct their migration path close to the target where germ cells encounter the highest chemokine signal. Chemokine receptors are involved in directing cell migration in different processes such as lymphocyte trafficking, cancer and in the development of the vascular system. The C-terminal domain of many chemokine receptors was shown to be essential for controlling receptor signalling and internalization. It would therefore be important to determine whether the role for receptor internalization in vivo as described here (allowing periodical corrections to the migration route) and the mechanisms involved (reducing the level of signalling) apply for those other events, too.
Resumo:
The Kr 4s-electron photoionization cross section as a function of the exciting-photon energy in the range between 30 eV and 90 eV was calculated using the configuration interaction (CI) technique in intermediate coupling. In the calculations the 4p spin-orbital interaction and corrections due to higher orders of perturbation theory (the so-called Coulomb interaction correlational decrease) were considered. Energies of Kr II states were calculated and agree with spectroscopic data within less than 10 meV. For some of the Kr II states new assignments were suggested on the basis of the largest component among the calculated CI wavefunctions.