997 resultados para RGB-D image


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A large area colour imager optically addressed is presented. The colour imager consists of a thin wide band gap p-i-n a-SiC:H filtering element deposited on the top of a thick large area a-SiC:H(-p)/a-Si:H(-i)/a-SiC:H(-n) image sensor, which reveals itself an intrinsic colour filter. In order to tune the external applied voltage for full colour discrimination the photocurrent generated by a modulated red light is measured under different optical and electrical bias. Results reveal that the integrated device behaves itself as an imager and a filter giving information not only on the position where the optical image is absorbed but also on it wavelength and intensity. The amplitude and sign of the image signals are electrically tuneable. In a wide range of incident fluxes and under reverse bias, the red and blue image signals are opposite in sign and the green signal is suppressed allowing blue and red colour recognition. The green information is obtained under forward bias, where the blue signal goes down to zero and the red and green remain constant. Combining the information obtained at this two applied voltages a RGB colour image picture can be acquired without the need of the usual colour filters or pixel architecture. A numerical simulation supports the colour filter analysis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A major obstacle to processing images of the ocean floor comes from the absorption and scattering effects of the light in the aquatic environment. Due to the absorption of the natural light, underwater vehicles often require artificial light sources attached to them to provide the adequate illumination. Unfortunately, these flashlights tend to illuminate the scene in a nonuniform fashion, and, as the vehicle moves, induce shadows in the scene. For this reason, the first step towards application of standard computer vision techniques to underwater imaging requires dealing first with these lighting problems. This paper analyses and compares existing methodologies to deal with low-contrast, nonuniform illumination in underwater image sequences. The reviewed techniques include: (i) study of the illumination-reflectance model, (ii) local histogram equalization, (iii) homomorphic filtering, and, (iv) subtraction of the illumination field. Several experiments on real data have been conducted to compare the different approaches

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study was initiated to investigate partial melting within the high-grade metamorphic rocks beneath the Little Cottonwood contact aureole (Utah, USA), in order to understand the melt generation, melt migration, and geometry of initial melt distribution on grain scale during crustal anatexis. The emplacement of the Little Cottonwood stock produced a contact aureole in the pelitic host rocks of the Big Cottonwood formation (BC). Metamorphic isogrades in pelitic rocks range form biotite to 2nd sillimanite grade as a function of distance from the contact. Migmatites are restricted to the highest grade and resulted form partial melting of the BC formation rocks. First melt was produced by a combined muscovite/biotite dehydration reaction in the sillimanite + k-feldspar stability field. Melt extraction from the pelites resulted in restites (magnetite + cordierite + alumosilicate ± biotite) surrounded by feldspar enriched quartzite zones. This texture is the result of gradual infiltration of partial melts into the quartzite. Larger, discrete melt accumulation occurred in extensional or transpressional domains such as boudin necks, veins, and ductile shear zones. Melt composition are Si02- rich, crystallized as pegmatites, and apparently were very mobile. They were able to infiltrate the quartzite pervaisivly. These melts are similar in composition to first melts produced in the hydrothermal partial melt experiments at 2kbar between 700 - 800°C on fine grained high metamorphic rocks (andalusite-cordierited-biotite-zone) of the BC formation. The experimental melts are water rich and in disequilibrium with the melting rock. Initial melt composition is heterogeneous for short run duration, reflective a lack of chemical equilibrium between individual melt pools. Rock core scale heterogeneity decreased with time indicating partial homogenization of melt compositions. A simultaneous shift of melt composition to higher silica content with time was observed. The silica content of the melt increased due to local melt/mineral reactions. Melt textures indicate that reactive melt transport is most efficient along grain boundaries rimmed by dissimilar grains. Melt heterogeneity resulted in chemical potential gradients which are major driving forces for initial melt migration and govern melt distribution during initial melting. An additional subject of the thesis is the crystal size distributions of opaque minerals in a fine-grained, high-grade meta-pelite of the Big Cottonwood which were obtained from 3D X-ray tomography (uCT) and 2D thin section analysis. µCT delivers accurate size distributions within a restricted range (~ a factor of 20 in size in a single 3D image), while the absolute number of crystals is difficult to obtain from these sparsely distributed, small crystals on the basis of 2D images. Crystal size distributions obtained from both methods are otherwise similar. - Ce travail de recherche a été entrepris dans le but d'étudier les processus de fusion partielle dans les roches fortement métamorphiques de l'auréole de contact de Little Cottonwood (Utah, USA) et ceci afin de comprendre la génération de liquide de fusion, la migration de ces liquides et la géométrie de la distribution initiale des liquides de fusion à l'échelle du grain durant l'anatexie de la croûte. L'emplacement du petit massif intrusif de Little Cottonwood a produit une auréole de contact dans les roches pélitiques encaissantes appartenant à la Foimation du Big Cottonwood (BC). Les isogrades métamorphiques dans les roches pélitiques varient de l'isograde de la biotite à la deuxième isograde de la sillimanite en fonction de la distance par rapport au massif intrusif. Les migmatites sont restreintes aux zones montrant le plus haut degré métamorphique et résultent de la fusion partielle des roches de la Formation de BC. Le premier liquide de fusion a été produit par la réaction de déshydratation combinée de la muscovite et de la biotite dans le champ de stabilité du feldspath potassique Pt de la sillimanite. L'extraction du liquide de fusion des pélites forme des restites (magnétites + cordiérite + aluminosilicate ± biotite) entourées par des zones de quartzites enrichies en feldspath. Cette texture est le résultat de l'infiltration graduelle du liquide de fusion partielle dans les quartzites. Des accumulations distinctes et plus larges de liquide de fusion ont lieu dans des domaines d'extension ou de transpression tels que les boudins, les veines, et les zones de cisaillement ductile. La composition des liquides de fusion est similaire à celle des liquides pegmatoïdes, et ces liquides sont apparemment très mobiles et capables d'infiltrer les quartzites. Ces liquides de fusion ont la même composition que les premiers liquides produits dans les expériences hydrotheunales de fusion partielle à 2kbar et entre 700-800° C sur les roches finement grenues et hautement métamorphiques (andalousite-cordiérite-biotite zone) de la Formation de BC. Les liquides de fusion obtenus expérimentalement sont riches en eau et sont en déséquilibre avec la roche en fusion. La composition initiale des liquides de fusion est hétérogène pour les expériences de courte durée et reflète l'absence d'équilibre chimique entre les différentes zones d'accumulation des liquides de fusion. L'hétérogénéité à l'échelle du noyau s'estompe avec le temps et témoigne de l'homogénéisation de la composition des liquides de fusion. Par ailleurs, on observe parallèlement un décalage de la composition des liquides vers des compositions plus riches en silice au cours du temps. Le contenu en silice des liquides de fusion évolue vers un liquide pegmatitique en raison des réactions liquides/minéraux. Les textures des liquides de fusion indiquent que le transport des liquides est plus efficace le long des bordures de grains bordés par des grains différents. Aucun changement apparent du volume total n'est visible. L'hétérogénéité des liquides s'accompagne d'un gradient de potentiel chimique qui sert de moteur principal à la migration des liquides et à la distribution des liquides durant la fusion. Un sujet complémentaire de ce travail de thèse réside dans l'étude de la distribution de la taille des cristaux opaques dans les pélites finement grenues et fortement métamorphiques de la Formation de Big Cottonwood. Les distributions de taille ont été obtenues suite à l'analyse d'images 3D acquise par tomographie ainsi que par analyse de lames minces. La microtomographie par rayon X fournit une distribution de taille précise sur une marge restreinte (- un facteur de taille 20 dans une seule image 3D), alors que le nombre absolu de cristaux est difficile à obtenir sur la base d'image 2D en raison de la petite taille et de la faible abondance de ces cristaux. Les distributions de taille obtenues par les deux méthodes sont sinon similaire. Abstact: Chemical differentiation of the primitive Earth was due to melting and separation of melts. Today, melt generation and emplacement is still the dominant process for the growth of the crust. Most granite formation is due to partial melting of the lower crust, followed by transport of magma through the crust to the shallow crust where it is emplaced. Partial melting and melt segregation are essential steps before such a granitic magma can ascent through the crust. The chemistry and physics of partial melting and segregation is complex. Hence detailed studies, in which field observations yield critical information that can be compared to experimental observations, are crucial to the understanding of these fundamental processes that lead and are leading to the chemical stratification of the Earth. The research presented in this thesis is a combined field and experimental study of partial melting of high-grade meta-pelitic rocks of the Little Cottonwood contact aureole (Utah, USA). Contact metamorphic rocks are ideal for textural studies of melt generation, since the relatively short times of the metamorphic event prevents much of the recrystallization which plagues textural studies of lower crustal rocks. The purpose of the study is to characterize melt generation, identify melting reactions, and to constrain melt formation, segregation and migration mechanisms. In parallel an experimental study was undertaken to investigate melt in the high grade meta pelitic rocks, to confirm melt composition, and to compare textures of the partial molten rock cores in the absence of deformation. Results show that a pegmatoidal melt is produced by partial melting of the pelitic rocks. This melt is highly mobile. It is capable of pervasive infiltration of the adjacent quartzite. Infiltration results in rounded quartz grains bordered by a thin feldspar rim. Using computed micro X-ray tomography these melt networks can be imaged. The infiltrated melt leads to rheological weakening and to a decompaction of the solid quartzite. Such decompaction can explain the recent discovery of abundant xenocrysts in many magmas, since it favors the isolation of mineral grains. Pervasive infiltration is apparently strongly influenced by melt viscosity and melt-crystal wetting behavior, both of which depend on the water content of melt and the temperature. In all experiments the first melt is produced on grain boundaries, dominantly by the local minerals. Grain scale heterogeneity of a melting rock leads thus to chemical concentration gradients in the melt, which are the driving force for initial melt migration. Pervasive melt films along grain boundaries leading to an interconnected network are immediately established. The initial chemical heterogeneities in the melt diminish with time. Résumé large public: La différenciation chimique de la Terre primitive est la conséquence de la fusion des roches et de la séparation des liquides qui en résultent. Aujourd'hui, la production de liquide magmatique est toujours le mécanisme dominant pour la croissance de la croûte terrestre. Ainsi la formation de la plupart des granites est un processus qui implique la production de magma par fusion partielle de la croûte inférieure, la migration de ces magmas à travers la croûte et finalement son emplacement dans les niveaux superficielle de la croûte terrestre. Au cours de cette évolution, les processus de fusion partielle et de ségrégation sont des étapes indispensables à l'ascension des granites à travers la croûte. Les conditions physico-chimiques nécessaires à la fusion partielle et à l'extraction de ces liquides sont complexes. C'est pourquoi des études détaillées des processus de fusion partielle sont cruciales pour la compréhension de ces mécanismes fondamentaux responsables de la stratification chimique de la Terre. Parmi ces études, les observations de terrain apportent notamment des informations déterminantes qui peuvent être comparées aux données expérimentales. Le travail de recherche présenté dans ce mémoire de thèse associe études de terrain et données expérimentales sur la fusion partielle des roches pélitiques de haut degré métamorphiques provenant de l'auréole de contact de Little Cottonwood (Utah, USA). Les roches du métamorphisme de contact sont idéales pour l'étude de la folination de liquide de fusion. En effet, la durée relativement courte de ce type d'événement métamorphique prévient en grande partie la recristallisation qui perturbe les études de texture des roches dans la croûte inférieure. Le but de cette étude est de caractériser la génération des liquides de fusion, d'identifier les réactions responsables de la fusion de ces roches et de contraindre la formation de ces liquides et leur mécanisme de ségrégation et de migration. Parallèlement, des travaux expérimentaux ont été entrepris pour reproduire la fusion partielle de ces roches en laboratoire. Cette étude a été effectuée dans le but de confirmer la composition chimique des liquides, et de comparer les textures obtenues en l'absence de déformation. Les résultats montrent qu'un liquide de fusion pegmatoïde est produit par fusion partielle des roches pélitiques. La grande mobilité de ce liquide permet une infiltration pénétrative dans les quarzites. Ces infiltrations se manifestent par des grains de quartz arrondis entourés par une fine bordure de feldspath. L'utilisation de la tomography à rayons X a permis d'obtenir des images de ce réseau de liquide de fusion. L'infiltration de liquide de fusion entraîne un affaiblissement de la rhéologie de la roche ainsi qu'une décompaction des quartzites massifs. Une telle décompaction peut expliquer la découverte récente d'abondants xénocristaux dans beaucoup de magmas, puisque elle favorise l'isolation des minéraux. L'infiltration pénétrative est apparemment fortement influencée par la viscosité du fluide de fusion et le comportement de la tension superficielle entre les cristaux et le liquide, les deux étant dépendant du contenu en eau dans le liquide de fusion et de la température. Dans toutes les expériences, le premier liquide est produit sur les bordures de grains, principalement par les minéraux locaux. L'hétérogénéité à l'échelle des grains d'une roche en fusion conduit donc à un gradient de concentration chimique dans le liquide, qui sert de moteur à l'initiation de la migration du liquide. Des fines couches de liquide de fusion le long de bordures de grains formant un réseau enchevêtré s'établit immédiatement. Les hétérogénéités chimiques initiales dans le liquide s'estompent avec le temps.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au cours des deux dernières décennies, la technique d'imagerie arthro-scanner a bénéficié de nombreux progrès technologiques et représente aujourd'hui une excellente alternative à l'imagerie par résonance magnétique (IRM) et / ou arthro-IRM dans l'évaluation des pathologies de la hanche. Cependant, elle reste limitée par l'exposition aux rayonnements ionisants importante. Les techniques de reconstruction itérative (IR) ont récemment été mis en oeuvre avec succès en imagerie ; la littérature montre que l'utilisation ces dernières contribue à réduire la dose d'environ 40 à 55%, comparativement aux protocoles courants utilisant la rétroprojection filtrée (FBP), en scanner de rachis. A notre connaissance, l'utilisation de techniques IR en arthro-scanner de hanche n'a pas été évaluée jusqu'à présent. Le but de notre étude était d'évaluer l'impact de la technique ASIR (GE Healthcare) sur la qualité de l'image objective et subjective en arthro-scanner de hanche, et d'évaluer son potentiel en terme de réduction de dose. Pour cela, trente sept patients examinés par arthro-scanner de hanche ont été randomisés en trois groupes : dose standard (CTDIvol = 38,4 mGy) et deux groupes de dose réduite (CTDIvol = 24,6 ou 15,4 mGy). Les images ont été reconstruites en rétroprojection filtrée (FBP) puis en appliquant différents pourcentages croissants d'ASIR (30, 50, 70 et 90%). Le bruit et le rapport contraste sur bruit (CNR) ont été mesurés. Deux radiologues spécialisés en imagerie musculo-squelettique ont évalué de manière indépendante la qualité de l'image au niveau de plusieurs structures anatomiques en utilisant une échelle de quatre grades. Ils ont également évalué les lésions labrales et du cartilage articulaire. Les résultats révèlent que le bruit augmente (p = 0,0009) et le CNR diminue (p = 0,001) de manière significative lorsque la dose diminue. A l'inverse, le bruit diminue (p = 0,0001) et le contraste sur bruit augmente (p < 0,003) de manière significative lorsque le pourcentage d'ASIR augmente ; on trouve également une augmentation significative des scores de la qualité de l'image pour le labrum, le cartilage, l'os sous-chondral, la qualité de l'image globale (au delà de ASIR 50%), ainsi que le bruit (p < 0,04), et une réduction significative pour l'os trabuculaire et les muscles (p < 0,03). Indépendamment du niveau de dose, il n'y a pas de différence significative pour la détection et la caractérisation des lésions labrales (n=24, p = 1) et des lésions cartilagineuses (n=40, p > 0,89) en fonction du pourcentage d'ASIR. Notre travail a permis de montrer que l'utilisation de plus de 50% d'ASIR permet de reduire de manière significative la dose d'irradiation reçue par le patient lors d'un arthro-scanner de hanche tout en maintenant une qualité d'image diagnostique comparable par rapport à un protocole de dose standard utilisant la rétroprojection filtrée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tomodensitométrie (CT) est une technique d'imagerie dont l'intérêt n'a cessé de croître depuis son apparition dans le début des années 70. Dans le domaine médical, son utilisation est incontournable à tel point que ce système d'imagerie pourrait être amené à devenir victime de son succès si son impact au niveau de l'exposition de la population ne fait pas l'objet d'une attention particulière. Bien évidemment, l'augmentation du nombre d'examens CT a permis d'améliorer la prise en charge des patients ou a rendu certaines procédures moins invasives. Toutefois, pour assurer que le compromis risque - bénéfice soit toujours en faveur du patient, il est nécessaire d'éviter de délivrer des doses non utiles au diagnostic.¦Si cette action est importante chez l'adulte elle doit être une priorité lorsque les examens se font chez l'enfant, en particulier lorsque l'on suit des pathologies qui nécessitent plusieurs examens CT au cours de la vie du patient. En effet, les enfants et jeunes adultes sont plus radiosensibles. De plus, leur espérance de vie étant supérieure à celle de l'adulte, ils présentent un risque accru de développer un cancer radio-induit dont la phase de latence peut être supérieure à vingt ans. Partant du principe que chaque examen radiologique est justifié, il devient dès lors nécessaire d'optimiser les protocoles d'acquisitions pour s'assurer que le patient ne soit pas irradié inutilement. L'avancée technologique au niveau du CT est très rapide et depuis 2009, de nouvelles techniques de reconstructions d'images, dites itératives, ont été introduites afin de réduire la dose et améliorer la qualité d'image.¦Le présent travail a pour objectif de déterminer le potentiel des reconstructions itératives statistiques pour réduire au minimum les doses délivrées lors d'examens CT chez l'enfant et le jeune adulte tout en conservant une qualité d'image permettant le diagnostic, ceci afin de proposer des protocoles optimisés.¦L'optimisation d'un protocole d'examen CT nécessite de pouvoir évaluer la dose délivrée et la qualité d'image utile au diagnostic. Alors que la dose est estimée au moyen d'indices CT (CTDIV0| et DLP), ce travail a la particularité d'utiliser deux approches radicalement différentes pour évaluer la qualité d'image. La première approche dite « physique », se base sur le calcul de métriques physiques (SD, MTF, NPS, etc.) mesurées dans des conditions bien définies, le plus souvent sur fantômes. Bien que cette démarche soit limitée car elle n'intègre pas la perception des radiologues, elle permet de caractériser de manière rapide et simple certaines propriétés d'une image. La seconde approche, dite « clinique », est basée sur l'évaluation de structures anatomiques (critères diagnostiques) présentes sur les images de patients. Des radiologues, impliqués dans l'étape d'évaluation, doivent qualifier la qualité des structures d'un point de vue diagnostique en utilisant une échelle de notation simple. Cette approche, lourde à mettre en place, a l'avantage d'être proche du travail du radiologue et peut être considérée comme méthode de référence.¦Parmi les principaux résultats de ce travail, il a été montré que les algorithmes itératifs statistiques étudiés en clinique (ASIR?, VEO?) ont un important potentiel pour réduire la dose au CT (jusqu'à-90%). Cependant, par leur fonctionnement, ils modifient l'apparence de l'image en entraînant un changement de texture qui pourrait affecter la qualité du diagnostic. En comparant les résultats fournis par les approches « clinique » et « physique », il a été montré que ce changement de texture se traduit par une modification du spectre fréquentiel du bruit dont l'analyse permet d'anticiper ou d'éviter une perte diagnostique. Ce travail montre également que l'intégration de ces nouvelles techniques de reconstruction en clinique ne peut se faire de manière simple sur la base de protocoles utilisant des reconstructions classiques. Les conclusions de ce travail ainsi que les outils développés pourront également guider de futures études dans le domaine de la qualité d'image, comme par exemple, l'analyse de textures ou la modélisation d'observateurs pour le CT.¦-¦Computed tomography (CT) is an imaging technique in which interest has been growing since it first began to be used in the early 1970s. In the clinical environment, this imaging system has emerged as the gold standard modality because of its high sensitivity in producing accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase of the number of CT examinations performed has raised concerns about the potential negative effects of ionizing radiation on the population. To insure a benefit - risk that works in favor of a patient, it is important to balance image quality and dose in order to avoid unnecessary patient exposure.¦If this balance is important for adults, it should be an absolute priority for children undergoing CT examinations, especially for patients suffering from diseases requiring several follow-up examinations over the patient's lifetime. Indeed, children and young adults are more sensitive to ionizing radiation and have an extended life span in comparison to adults. For this population, the risk of developing cancer, whose latency period exceeds 20 years, is significantly higher than for adults. Assuming that each patient examination is justified, it then becomes a priority to optimize CT acquisition protocols in order to minimize the delivered dose to the patient. Over the past few years, CT advances have been developing at a rapid pace. Since 2009, new iterative image reconstruction techniques, called statistical iterative reconstructions, have been introduced in order to decrease patient exposure and improve image quality.¦The goal of the present work was to determine the potential of statistical iterative reconstructions to reduce dose as much as possible without compromising image quality and maintain diagnosis of children and young adult examinations.¦The optimization step requires the evaluation of the delivered dose and image quality useful to perform diagnosis. While the dose is estimated using CT indices (CTDIV0| and DLP), the particularity of this research was to use two radically different approaches to evaluate image quality. The first approach, called the "physical approach", computed physical metrics (SD, MTF, NPS, etc.) measured on phantoms in well-known conditions. Although this technique has some limitations because it does not take radiologist perspective into account, it enables the physical characterization of image properties in a simple and timely way. The second approach, called the "clinical approach", was based on the evaluation of anatomical structures (diagnostic criteria) present on patient images. Radiologists, involved in the assessment step, were asked to score image quality of structures for diagnostic purposes using a simple rating scale. This approach is relatively complicated to implement and also time-consuming. Nevertheless, it has the advantage of being very close to the practice of radiologists and is considered as a reference method.¦Primarily, this work revealed that the statistical iterative reconstructions studied in clinic (ASIR? and VECO have a strong potential to reduce CT dose (up to -90%). However, by their mechanisms, they lead to a modification of the image appearance with a change in image texture which may then effect the quality of the diagnosis. By comparing the results of the "clinical" and "physical" approach, it was showed that a change in texture is related to a modification of the noise spectrum bandwidth. The NPS analysis makes possible to anticipate or avoid a decrease in image quality. This project demonstrated that integrating these new statistical iterative reconstruction techniques can be complex and cannot be made on the basis of protocols using conventional reconstructions. The conclusions of this work and the image quality tools developed will be able to guide future studies in the field of image quality as texture analysis or model observers dedicated to CT.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectifs: Comparer la qualité d'image entre des protocoles dose-standard avec rétroprojection filtrée et basse-dose avec reconstruction itérative en scanner du rachis cervical. Matériels et méthodes: 40 patients ont été investigués par scanner du rachis cervical et prospectivement randomisés en 2 groupes: dose-standard (120kV, 275mAs) avec rétroprojection filtrée, basse-dose (120kV, 150mAs) avec reconstruction itérative. Mesure du bruit, signal-sur-bruit et contraste-sur-bruit. Analyse semi-quantitative (4 points) par 2 observateurs indépendants des disques, foramens, cordon médullaire, ligaments, parties molles et vertèbres, en C3-C4 et C6-C7. Evaluation semi-quantitative (10 points) de la qualité d'image globale. Les paramètres de dose ont été mesurés. Résultats: Il n'y avait aucune différence significative de bruit, signal-sur-bruit ou contraste-sur-bruit entre les 2 protocoles (p≥0.39). En basse-dose avec reconstruction itérative, la visibilité était significativement meilleure pour les disques, foramens et ligaments (p≤0.05), égale pour le cordon médullaire et moins bonne pour les parties molles et vertèbres (p≤0.02). La qualité d'image globale était meilleure, avec une réduction de dose de 41%. Conclusion: Le scanner du rachis cervical basse-dose avec reconstruction itérative fournit des images égales ou meilleures pour les disques, foramens et ligaments, tout en réduisant la dose d'environ 40%.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectifs: Comparaison des performances en qualité d'image des deux types de systèmes CR. Matériels et méthodes: Les performances ont été mesurées au moyen de la fonction de transfert de modulation (FTM), du spectre de bruit, de l'efficacité quantique de détection (DQE),le seuil de détection du contraste en épaisseur d'or et la dose glandulaire moyenne. Les systèmes CR à aiguilles Agfa HM5.0 et Carestream SNP-M1 ont étécomparés aux systèmes à poudre Agfa MM3.0, Fuji ProfectCS et Carestream EHR-M3. Résultats: La FTM à 5mm-1 de Agfa HM5,0 et Carestream SNP-M1 est 0,21 et 0,27, et entre 0,14 et 0,16 pour les systèmes à poudre. Un DQE maximal de 0,51 et 0,5 a étéobtenu pour Agfa HM5,0 et Carestream SNP-M1, et 0,35, 0,50 et 0,34 pour Agfa MM3,0, Fuji Profect et Carestream EHR-M3. Des valeurs de DQE à 5mm-1 de0,18 et 0,13 ont été obtenues pour Agfa HM5,0 et Carestream SNP-M1, et entre 0,04 et 0,065 pour les systèmes à poudre. Les seuils de détection du contrastede Agfa HM5,0 et Carestream SNP-M1 étaient 1,33im et 1,29im, et 1,45im et 1,63im pour Agfa MM3,0 et Fuji Profect. Conclusion: Les systèmes à aiguilles offrent des meilleures FTM et DQE et un seuil de visibilité du contraste plus bas que les systèmes à poudre .

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En observant les dynamiques scientifiques et institutionnelles à l'oeuvre autour du développement des nanosciences et des nanotechnologies, on observe des rapprochements entre certaines disciplines, dont la chimie, et la transformation de leur identité et de leurs frontières. Ce chapitre rend compte de la manière dont la communauté des chimistes réagit à ces transformations mais aussi comment elle perçoit les alertes sur l'environnement et sur les risques toxicologiques et éco-toxicologiques potentiels et ce qu'elle en fait. On constate alors que les nanoparticules impactent la communauté chimique et contribuent à la verdir (en termes d'image dans la société comme en termes de réduction effectives des nuisances) encore un peu plus. Le texte tente de qualifier le phénomène et de répondre finalement à la question : « comment les nanoparticules poussent la chimie vers le développement durable ? »

Relevância:

80.00% 80.00%

Publicador:

Resumo:

F. IIv-2v Incipits des vêpres et des petites heures (addit. XVIe s.). F. 3 Temporal. F. 200 Calendrier de Paris, avec notes marginales concernant la famille de Fontenay (XVIe s.). F. 206-283 Psautier et litanies. F. 284 Ordo officii pour l'Avent. F. 296 Commun des saints. F. 320 Sanctoral. F. 566v Bénédictions pour les leçons de matines (XVIe s.). F. II Certificat de confirmation de Jérôme de Fontenay (1530).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les plantes sont essentielles pour les sociétés humaines. Notre alimentation quotidienne, les matériaux de constructions et les sources énergétiques dérivent de la biomasse végétale. En revanche, la compréhension des multiples aspects développementaux des plantes est encore peu exploitée et représente un sujet de recherche majeur pour la science. L'émergence des technologies à haut débit pour le séquençage de génome à grande échelle ou l'imagerie de haute résolution permet à présent de produire des quantités énormes d'information. L'analyse informatique est une façon d'intégrer ces données et de réduire la complexité apparente vers une échelle d'abstraction appropriée, dont la finalité est de fournir des perspectives de recherches ciblées. Ceci représente la raison première de cette thèse. En d'autres termes, nous appliquons des méthodes descriptives et prédictives combinées à des simulations numériques afin d'apporter des solutions originales à des problèmes relatifs à la morphogénèse à l'échelle de la cellule et de l'organe. Nous nous sommes fixés parmi les objectifs principaux de cette thèse d'élucider de quelle manière l'interaction croisée des phytohormones auxine et brassinosteroïdes (BRs) détermine la croissance de la cellule dans la racine du méristème apical d'Arabidopsis thaliana, l'organisme modèle de référence pour les études moléculaires en plantes. Pour reconstruire le réseau de signalement cellulaire, nous avons extrait de la littérature les informations pertinentes concernant les relations entre les protéines impliquées dans la transduction des signaux hormonaux. Le réseau a ensuite été modélisé en utilisant un formalisme logique et qualitatif pour pallier l'absence de données quantitatives. Tout d'abord, Les résultats ont permis de confirmer que l'auxine et les BRs agissent en synergie pour contrôler la croissance de la cellule, puis, d'expliquer des observations phénotypiques paradoxales et au final, de mettre à jour une interaction clef entre deux protéines dans la maintenance du méristème de la racine. Une étude ultérieure chez la plante modèle Brachypodium dystachion (Brachypo- dium) a révélé l'ajustement du réseau d'interaction croisée entre auxine et éthylène par rapport à Arabidopsis. Chez ce dernier, interférer avec la biosynthèse de l'auxine mène à la formation d'une racine courte. Néanmoins, nous avons isolé chez Brachypodium un mutant hypomorphique dans la biosynthèse de l'auxine qui affiche une racine plus longue. Nous avons alors conduit une analyse morphométrique qui a confirmé que des cellules plus anisotropique (plus fines et longues) sont à l'origine de ce phénotype racinaire. Des analyses plus approfondies ont démontré que la différence phénotypique entre Brachypodium et Arabidopsis s'explique par une inversion de la fonction régulatrice dans la relation entre le réseau de signalisation par l'éthylène et la biosynthèse de l'auxine. L'analyse morphométrique utilisée dans l'étude précédente exploite le pipeline de traitement d'image de notre méthode d'histologie quantitative. Pendant la croissance secondaire, la symétrie bilatérale de l'hypocotyle est remplacée par une symétrie radiale et une organisation concentrique des tissus constitutifs. Ces tissus sont initialement composés d'une douzaine de cellules mais peuvent aisément atteindre des dizaines de milliers dans les derniers stades du développement. Cette échelle dépasse largement le seuil d'investigation par les moyens dits 'traditionnels' comme l'imagerie directe de tissus en profondeur. L'étude de ce système pendant cette phase de développement ne peut se faire qu'en réalisant des coupes fines de l'organe, ce qui empêche une compréhension des phénomènes cellulaires dynamiques sous-jacents. Nous y avons remédié en proposant une stratégie originale nommée, histologie quantitative. De fait, nous avons extrait l'information contenue dans des images de très haute résolution de sections transverses d'hypocotyles en utilisant un pipeline d'analyse et de segmentation d'image à grande échelle. Nous l'avons ensuite combiné avec un algorithme de reconnaissance automatique des cellules. Cet outil nous a permis de réaliser une description quantitative de la progression de la croissance secondaire révélant des schémas développementales non-apparents avec une inspection visuelle classique. La formation de pôle de phloèmes en structure répétée et espacée entre eux d'une longueur constante illustre les bénéfices de notre approche. Par ailleurs, l'exploitation approfondie de ces résultats a montré un changement de croissance anisotropique des cellules du cambium et du phloème qui semble en phase avec l'expansion du xylème. Combinant des outils génétiques et de la modélisation biomécanique, nous avons démontré que seule la croissance plus rapide des tissus internes peut produire une réorientation de l'axe de croissance anisotropique des tissus périphériques. Cette prédiction a été confirmée par le calcul du ratio des taux de croissance du xylème et du phloème au cours de développement secondaire ; des ratios élevés sont effectivement observés et concomitant à l'établissement progressif et tangentiel du cambium. Ces résultats suggèrent un mécanisme d'auto-organisation établi par un gradient de division méristématique qui génèrent une distribution de contraintes mécaniques. Ceci réoriente la croissance anisotropique des tissus périphériques pour supporter la croissance secondaire. - Plants are essential for human society, because our daily food, construction materials and sustainable energy are derived from plant biomass. Yet, despite this importance, the multiple developmental aspects of plants are still poorly understood and represent a major challenge for science. With the emergence of high throughput devices for genome sequencing and high-resolution imaging, data has never been so easy to collect, generating huge amounts of information. Computational analysis is one way to integrate those data and to decrease the apparent complexity towards an appropriate scale of abstraction with the aim to eventually provide new answers and direct further research perspectives. This is the motivation behind this thesis work, i.e. the application of descriptive and predictive analytics combined with computational modeling to answer problems that revolve around morphogenesis at the subcellular and organ scale. One of the goals of this thesis is to elucidate how the auxin-brassinosteroid phytohormone interaction determines the cell growth in the root apical meristem of Arabidopsis thaliana (Arabidopsis), the plant model of reference for molecular studies. The pertinent information about signaling protein relationships was obtained through the literature to reconstruct the entire hormonal crosstalk. Due to a lack of quantitative information, we employed a qualitative modeling formalism. This work permitted to confirm the synergistic effect of the hormonal crosstalk on cell elongation, to explain some of our paradoxical mutant phenotypes and to predict a novel interaction between the BREVIS RADIX (BRX) protein and the transcription factor MONOPTEROS (MP),which turned out to be critical for the maintenance of the root meristem. On the same subcellular scale, another study in the monocot model Brachypodium dystachion (Brachypodium) revealed an alternative wiring of auxin-ethylene crosstalk as compared to Arabidopsis. In the latter, increasing interference with auxin biosynthesis results in progressively shorter roots. By contrast, a hypomorphic Brachypodium mutant isolated in this study in an enzyme of the auxin biosynthesis pathway displayed a dramatically longer seminal root. Our morphometric analysis confirmed that more anisotropic cells (thinner and longer) are principally responsible for the mutant root phenotype. Further characterization pointed towards an inverted regulatory logic in the relation between ethylene signaling and auxin biosynthesis in Brachypodium as compared to Arabidopsis, which explains the phenotypic discrepancy. Finally, the morphometric analysis of hypocotyl secondary growth that we applied in this study was performed with the image-processing pipeline of our quantitative histology method. During its secondary growth, the hypocotyl reorganizes its primary bilateral symmetry to a radial symmetry of highly specialized tissues comprising several thousand cells, starting with a few dozens. However, such a scale only permits observations in thin cross-sections, severely hampering a comprehensive analysis of the morphodynamics involved. Our quantitative histology strategy overcomes this limitation. We acquired hypocotyl cross-sections from tiled high-resolution images and extracted their information content using custom high-throughput image processing and segmentation. Coupled with an automated cell type recognition algorithm, it allows precise quantitative characterization of vascular development and reveals developmental patterns that were not evident from visual inspection, for example the steady interspace distance of the phloem poles. Further analyses indicated a change in growth anisotropy of cambial and phloem cells, which appeared in phase with the expansion of xylem. Combining genetic tools and computational modeling, we showed that the reorientation of growth anisotropy axis of peripheral tissue layers only occurs when the growth rate of central tissue is higher than the peripheral one. This was confirmed by the calculation of the ratio of the growth rate xylem to phloem throughout secondary growth. High ratios are indeed observed and concomitant with the homogenization of cambium anisotropy. These results suggest a self-organization mechanism, promoted by a gradient of division in the cambium that generates a pattern of mechanical constraints. This, in turn, reorients the growth anisotropy of peripheral tissues to sustain the secondary growth.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Soitinnus: piano.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The emergence of depth sensors has made it possible to track – not only monocular cues – but also the actual depth values of the environment. This is especially useful in augmented reality solutions, where the position and orientation (pose) of the observer need to be accurately determined. This allows virtual objects to be installed to the view of the user through, for example, a screen of a tablet or augmented reality glasses (e.g. Google glass, etc.). Although the early 3D sensors have been physically quite large, the size of these sensors is decreasing, and possibly – eventually – a 3D sensor could be embedded – for example – to augmented reality glasses. The wider subject area considered in this review is 3D SLAM methods, which take advantage of the 3D information available by modern RGB-D sensors, such as Microsoft Kinect. Thus the review for SLAM (Simultaneous Localization and Mapping) and 3D tracking in augmented reality is a timely subject. We also try to find out the limitations and possibilities of different tracking methods, and how they should be improved, in order to allow efficient integration of the methods to the augmented reality solutions of the future.