998 resultados para Tomographie optique diffuse
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’étude du cerveau humain est un domaine en plein essor et les techniques non-invasives de l’étudier sont très prometteuses. Afin de l’étudier de manière non-invasive, notre laboratoire utilise principalement l’imagerie par résonance magnétique fonctionnelle (IRMf) et l’imagerie optique diffuse (IOD) continue pour mesurer et localiser l’activité cérébrale induite par une tâche visuelle, cognitive ou motrice. Le signal de ces deux techniques repose, entre autres, sur les concentrations d’hémoglobine cérébrale à cause du couplage qui existe entre l’activité neuronale et le flux sanguin local dans le cerveau. Pour être en mesure de comparer les deux signaux (et éventuellement calibrer le signal d’IRMf par l’IOD), où chaque signal est relatif à son propre niveau de base physiologique inconnu, une nouvelle technique ayant la capacité de mesurer le niveau de base physiologique est nécessaire. Cette nouvelle technique est l’IOD résolue temporellement qui permet d’estimer les concentrations d’hémoglobine cérébrale. Ce nouveau système permet donc de quantifier le niveau de base physiologique en termes de concentrations d’hémoglobine cérébrale absolue. L’objectif général de ma maîtrise était de développer un tel système afin de l’utiliser dans une large étude portant sur la condition cardiovasculaire, le vieillissement, la neuroimagerie ainsi que les performances cognitives. Il a fallu tout d’abord construire le système, le caractériser puis valider les résultats avant de pouvoir l’utiliser sur les sujets de recherche. La validation s’est premièrement réalisée sur des fantômes homogènes ainsi qu’hétérogènes (deux couches) qui ont été développés. La validation des concentrations d’hémoglobine cérébrale a été réalisée via une tâche cognitive et appuyée par les tests sanguins des sujets de recherche. Finalement, on présente les résultats obtenus dans une large étude employant le système d’IOD résolue temporellement en se concentrant sur les différences reliées au vieillissement.
Resumo:
Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.
Resumo:
L'index de consommation du glucose, SUV pour standardized uptake value, est largement utilisé en tomographie par émission de positons (TEP) pour quantifier la concentration relative de [18F]2-fluoro-2-désoxy-D-glucose (18F-FDG) dans les tissus. Cependant, cet indice dépend de nombreux facteurs méthodologiques et biologiques et son utilisation fait débat. Il est donc primordial d'instaurer un contrôle qualité régulier permettant d'assurer la stabilité de la mesure des indices quantitatifs. Dans cette optique, un fantôme spécifique avec inserts cylindriques de différentes tailles a été développé. L'objectif de cette étude est de montrer la sensibilité et l'intérêt de ce fantôme. Méthodes. - La sensibilité du fantôme a été étudiée à travers la mesure des SUV et des coefficients de recouvrement (RC). Plusieurs méthodes de mesure ont été utilisées. Les données ont été reconstruites en utilisant les algorithmes de routine clinique. Nous avons étudié la variation des RC en fonction de la taille des cylindres et le changement relatif de fixation, en utilisant des activités différentes. Le fantôme a ensuite été testé sur l'appareil d'un autre centre. Résultats. - Pour toutes les méthodes de mesure, une forte variation des RC avec la taille des cylindres, de l'ordre de 50 %, a été obtenue. Ce fantôme a également permis de mesurer un changement relatif de fixation qui s'est révélé être indépendant de la méthode de mesure. Malgré un étalonnage des deux systèmes TEP/TDM, des différences de quantification d'environ 20 % ont subsisté. Conclusion. - Les résultats obtenus montrent l'intérêt de ce fantôme dans le cadre du suivi des mesures quantitatives.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Résumé : Les performances de détecteurs à scintillation, composés d’un cristal scintillateur couplé à un photodétecteur, dépendent de façon critique de l’efficacité de la collecte et de l’extraction des photons de scintillation du cristal vers le capteur. Dans les systèmes d’imagerie hautement pixellisés (e.g. TEP, TDM), les scintillateurs doivent être arrangés en matrices compactes avec des facteurs de forme défavorables pour le transport des photons, au détriment des performances du détecteur. Le but du projet est d’optimiser les performances de ces détecteurs pixels par l'identification des sources de pertes de lumière liées aux caractéristiques spectrales, spatiales et angulaires des photons de scintillation incidents sur les faces des scintillateurs. De telles informations acquises par simulation Monte Carlo permettent une pondération adéquate pour l'évaluation de gains atteignables par des méthodes de structuration du scintillateur visant à une extraction de lumière améliorée vers le photodétecteur. Un plan factoriel a permis d'évaluer la magnitude de paramètres affectant la collecte de lumière, notamment l'absorption des matériaux adhésifs assurant l'intégrité matricielle des cristaux ainsi que la performance optique de réflecteurs, tous deux ayant un impact considérable sur le rendement lumineux. D'ailleurs, un réflecteur abondamment utilisé en raison de ses performances optiques exceptionnelles a été caractérisé dans des conditions davantage réalistes par rapport à une immersion dans l'air, où sa réflectivité est toujours rapportée. Une importante perte de réflectivité lorsqu'il est inséré au sein de matrices de scintillateurs a été mise en évidence par simulations puis confirmée expérimentalement. Ceci explique donc les hauts taux de diaphonie observés en plus d'ouvrir la voie à des méthodes d'assemblage en matrices limitant ou tirant profit, selon les applications, de cette transparence insoupçonnée.
Resumo:
Conventional reflectance spectroscopy (NIRS) and hyperspectral imaging (HI) in the near-infrared region (1000-2500 nm) are evaluated and compared, using, as the case study, the determination of relevant properties related to the quality of natural rubber. Mooney viscosity (MV) and plasticity indices (PI) (PI0 - original plasticity, PI30 - plasticity after accelerated aging, and PRI - the plasticity retention index after accelerated aging) of rubber were determined using multivariate regression models. Two hundred and eighty six samples of rubber were measured using conventional and hyperspectral near-infrared imaging reflectance instruments in the range of 1000-2500 nm. The sample set was split into regression (n = 191) and external validation (n = 95) sub-sets. Three instruments were employed for data acquisition: a line scanning hyperspectral camera and two conventional FT-NIR spectrometers. Sample heterogeneity was evaluated using hyperspectral images obtained with a resolution of 150 × 150 μm and principal component analysis. The probed sample area (5 cm(2); 24,000 pixels) to achieve representativeness was found to be equivalent to the average of 6 spectra for a 1 cm diameter probing circular window of one FT-NIR instrument. The other spectrophotometer can probe the whole sample in only one measurement. The results show that the rubber properties can be determined with very similar accuracy and precision by Partial Least Square (PLS) regression models regardless of whether HI-NIR or conventional FT-NIR produce the spectral datasets. The best Root Mean Square Errors of Prediction (RMSEPs) of external validation for MV, PI0, PI30, and PRI were 4.3, 1.8, 3.4, and 5.3%, respectively. Though the quantitative results provided by the three instruments can be considered equivalent, the hyperspectral imaging instrument presents a number of advantages, being about 6 times faster than conventional bulk spectrometers, producing robust spectral data by ensuring sample representativeness, and minimizing the effect of the presence of contaminants.
Resumo:
The surface detector array of the Pierre Auger Observatory is sensitive to Earth-skimming tau neutrinos that interact in Earth's crust. Tau leptons from nu(tau) charged-current interactions can emerge and decay in the atmosphere to produce a nearly horizontal shower with a significant electromagnetic component. The data collected between 1 January 2004 and 31 August 2007 are used to place an upper limit on the diffuse flux of nu(tau) at EeV energies. Assuming an E(nu)(-2) differential energy spectrum the limit set at 90% C. L. is E(nu)(2)dN(nu tau)/dE(nu) < 1: 3 x 10(-7) GeV cm(-2) s(-1) sr(-1) in the energy range 2 x 10(17) eV< E(nu) < 2 x 10(19) eV.
Resumo:
Data collected at the Pierre Auger Observatory are used to establish an upper limit on the diffuse flux of tau neutrinos in the cosmic radiation. Earth-skimming nu(tau) may interact in the Earth's crust and produce a tau lepton by means of charged-current interactions. The tau lepton may emerge from the Earth and decay in the atmosphere to produce a nearly horizontal shower with a typical signature, a persistent electromagnetic component even at very large atmospheric depths. The search procedure to select events induced by tau decays against the background of normal showers induced by cosmic rays is described. The method used to compute the exposure for a detector continuously growing with time is detailed. Systematic uncertainties in the exposure from the detector, the analysis, and the involved physics are discussed. No tau neutrino candidates have been found. For neutrinos in the energy range 2x10(17) eV < E(nu)< 2x10(19) eV, assuming a diffuse spectrum of the form E(nu)(-2), data collected between 1 January 2004 and 30 April 2008 yield a 90% confidence-level upper limit of E(nu)(2)dN(nu tau)/dE(nu)< 9x10(-8) GeV cm(-2) s(-1) sr(-1).
Resumo:
Theoretical analyses have shown the radiation use efficiency of maize, soybean, and peanut to increase with a decrease in the level of incident radiation and an increase in the proportion of diffuse radiation. This study compared the growth and radiation use efficiency of Panicum maximum cv. Petrie (green panic) and Bothriochloa insculpta cv. Bisset (creeping bluegrass) beneath shading treatments (birdguard and solarweave shadecloths) with that in full sunlight. A level of incident radiation reduced by 25% under birdguard shadecloth decreased final yield and final leaf area index, but increased canopy leaf nitrogen concentration and radiation use efficiency (19-14%) (compared with the full sun treatment). A similar level of reduced incident radiation under solarweave shadecloth (which provided an increased proportion of diffuse radiation), increased final yield and radiation use efficiency (46-50%). An understanding of the effects of composition of incident radiation on radiation use efficiency of tropical grasses enables more accurate estimation of potential pasture growth in shaded environments. It also has impact upon crop production in glasshouses and greenhouses.
Resumo:
Magnetic resonance imaging (MRI) relies on the physical properties of unpaired protons in tissues to generate images. Unpaired protons behave like tiny bar magnets and will align themselves in a magnetic field. Radiofrequency pulses will excite these aligned protons to higher energy states. As they return to their original state, they will release this energy as radio waves. The frequency of the radio waves depends on the local magnetic field and by varying this over a subject, it is possible to build the images we are familiar with. In general, MRI has not been sufficiently sensitive or specific in the assessment of diffuse liver disease for clinical use. However, because of the specific characteristics of fat and iron, it may be useful in the assessment of hepatic steatosis and iron overload. Magnetic resonance imaging is useful in the assessment of focal liver disease, particularly in conjunction with contrast agents. Haemangiomas have a characteristic bright appearance on T-2 weighted images because of the slow flowing blood in dilated sinusoids. Focal nodular hyperplasia (FNH) has a homogenous appearance, and enhances early in the arterial phase after gadolinium injection, while the central scar typically enhances late. Hepatic adenomas have a more heterogenous appearance and also enhance in the arterial phase, but less briskly than FNH. Hepatocellular carcinoma is similar to an adenoma, but typically occurs in a cirrhotic liver and has earlier washout of contrast. The appearance of metastases depends on the underlying primary malignancy. Overall, MRI appears more sensitive and specific than computed tomography with contrast for the detection and evaluation of malignant lesions. (C) 2000 Blackwell Science Asia Pty Ltd.
Resumo:
Autoimmune hepatitis (AIH) is a chronic hepatitis of unknown etiology characterized by continuing hepatocellular necrosis and inflammation that afflicts 100,000 to 200,000 persons in the United States. It is a rare manifestation of systemic sclerosis. Only about nine reports of this association have been previously reported in the literature. Importantly, all cases had the limited clinical form of systemic. The authors describe herein the first report of a patient with diffuse systemic sclerosis who was diagnosed with AIH with positive antimitochondrial antibody and had an excellent response to immunosuppressive drugs. We also briefly review the literature regarding this issue.
Resumo:
A total of 53 patients aged 18-60 years with highintermediate or high-risk diffuse large B-cell lymphoma (DLBCL) were evaluated to analyze the impact of the cell of origin. Of 53 patients, 16 underwent autologous SCT (ASCT) in first remission and the rest received conventional chemotherapy. Immunohistochemistry was evaluated in 47 cases 17 were of germinal center (GC) origin and 30 were of non-GC origin. There was no survival difference between the two groups. Overall survival (OS) and disease-free survival (DFS) at 3 years were 93 and 83%, respectively, for the 14 patients who underwent ASCT. Their DFS was significantly better than that of patients who achieved CR but did not undergo ASCT. We conclude that ASCT is safe and improves the DFS of high-intermediate and high-risk DLBCL, regardless of the cell of origin. This observation should be confirmed in a larger study.