77 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
Introduction: Les kystes synoviaux localisés à l'épaule sont des conditions rares résultant de tendinopathies rompues de la coiffe des rotateurs, d'une omarthrose sévère, d'arthropathies microcristallines de l'articulation acromio-claviculaire ou gléno-humérale, ou d'une atteinte secondaire à un rhumatisme inflammatoire chronique. Ils se présentent cliniquement le plus souvent sous la forme d'une tuméfaction fluctuante indolore en regard du moignon de l'épaule ou de l'articulation acromio-claviculaire. L'imagerie par échographie permet de caractériser aisément la présence de ces kystes. La prise en charge thérapeutique est généralement non invasive par aspiration-infiltration. Les cas réfractaires sont susceptibles de subir une intervention chirurgicale en fonction de l'âge et de l'état général du patient.Patients et Méthodes: Nous rapportons les cas de 3 patients avec imagerie par échographie et IRM ou Scanner. Le premier cas est celui d'un homme de 47 ans, greffé rénal, présentant une arthrite récidivante des épaules sur arthropathie microcristalline mixte. De multiples kystes synoviaux sont mis en évidence dans la musculature du supra-épineux gauche, communiquant avec l'articulation acromio-claviculaire. Le patient a bénéficié à plusieurs ponctions-infiltrations dirigées par ultrasonographie. Le deuxième cas est celui d'un patient de 32 ans connu pour une arthrite psoriasique évoluant depuis 6 ans. Il présente une importante tuméfaction en regard du biceps à gauche sur un kyste synovial provenant de l'articulation gléno-humérale. Il bénéficie également d'une ponction-infiltration dirigée par ultrason. Le troisième cas est celui d'une femme de 91 ans chez qui au status d'entrée on objective une volumineuse masse polylobée en regard de l'acromio-claviculaire, présente depuis 2002 qui n'a jamais été symptomatique. Un US, puis un CT montrent qu'il s'agit de volumineux kystes articulaires en relation avec une arthropathie sévère dégénérative et à apatite de l'acromio-claviculaire.Résultats: Les trois patients ont bénéficié d'une imagerie diagnostique par échographie complétée par une IRM ou Scanner. Tous les trois ont également subi une aspiration dirigée sous échographie. Dans le premier cas, deux aspiration-infiltration des kystes qui apportaient une évolution favorable avec diminution important des kystes. Dans le deuxième cas nous avons retrouvé un kyste après 2 aspirations et dans ce cas une intervention chirurgicale est considérée. Dans le troisième cas, asymptomatique, une résection à visée esthétique a été refusée par la patiente.Conclusion: Les kystes synoviaux localisés à l'épaule restent des conditions rares, provenant d'entités diverses. Nous rapportons le développement de kystes synoviaux de l'épaule dans une arthropathie microcristalline chez un patient greffé rénal, dans une arthrite psoriasique chez un jeune patient en poussée inflammatoire, et finalement de gros kystes asymptomatiques chroniques sur une atteinte dégénérative et microcristalline chez une patiente âgée. Le diagnostic de ces kystes peut être rapidement obtenu par échographie, permettant l'aspiration guidée avec analyse du liquide. En raison d'un fort taux de récidive malgré un traitement par aspiration-infiltration, une intervention chirurgicale de ces kystes est considérée.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Ce travail décrit une étude, qui a visé à évaluer la performance d'un questionnaire de satisfaction en développement, destiné à mesurer l'opinion de patients infectés par le VIH suivis ambulatoirement. 1. Problématique. 1.1. La qualité des soins, une définition. 1.2. L'opinion des patients : comment la mesurer ? Le questionnaire, les questionnaires existants, le focus groups, description de la technique. 2. Patients et méthodes. 2.1. Critères d'inclusion et d'exclusion. 2.2. Les envois et les rappels. 2.3. Stabilité test-retest. 2.4. Le recrutement. 3. Résultats. 3.1. Acceptabilité du questionnaire : participation. 3.2. Représentativité de l'échantillon. 3.3. Scores par dimension. 3. 4. Evaluation de la validité du questionnaire, convergence des items par dimension et cohérence interne. 3.5. Les questions issues du questionnaire SF-36. 4. Discussion. 4.1. Coping et méthodes alternatives. 4.2. Impact sur les service d'une enquête sur la qualité des soins. 5.1. Le questionnaire de satisfaction élaboré. 5.2. Les différents questionnaires des Hospices : patients hospitalisés et ambulatoires. 5.3. Formulaire d'information de l'enquête par questionnaire. 5.4. Formulaire de consentement à l'enquête. 5.5. Lettre d'accompagnement du questionnaire. 5.6. Profil socio-démographique et résultats complets par item.
Resumo:
RESUME L'architecture nucléaire ainsi que l'ultrastructure des microtubules ont été abondamment étudiées par des méthodes cytochimiques utilisant des échantillons fixés chimiquement, enrobés dans des résines ou fixés à basse température. Les échantillons fixés à basse température pouvant aussi avoir été substitués, déshydratés et enrobés dans des résines pour la plupart hydrophiles. Ici, nous avons étendu ces études en utilisant la microscopie électronique effectuée sur des sections hydratées (CEMOVIS) permettant d'observer les échantillons dans un état le plus proche de leur état natif. De plus, nous avons effectué de la tomographie électronique sur des sections hydratées (TOVIS) afin d'obtenir une vision tridimensionnelle de : 1) la périphérie du noyau et de la région périchromatinienne et 2) de la lumière des microtubules. Concernant l'architecture nucléaire Nos observations montrent que le nucléole et la chromatine condensée sont facilement visualisés grâce à la texture spécifique qu'ils arborent. Au contraire, la visualisation de domaines nucléaires importants et spécialement ceux qui contiennent des ribonucléoprotéines, est rendue difficile, à cause du faible contraste qui caractérise l'espace interchromatinien. Ceci est essentiellement dû à la quantité d'information présente dans le volume de la section qui semble être superposée, lorsque observée sur des micrographies en deux dimensions. La tomographie nous a permis de mieux visualiser les différentes régions du noyau. Les mottes de chromatine condensée sont décorées à leur périphérie (région périchromatinienne), par nombre de fibrilles et granules. Des tunnels d'espace interchromatinien sont occasionnellement observés en train de traverser des régions de chromatine condensée favorisant l'accès aux pores nucléaires. Enfin, nous avons pu, au niveau d'un pore unique, observer la plupart des structures caractéristiques du complexe de pore nucléaire. Concernant l'ultrastructure des microtubules: Nous avons démontré que la polarité d'un microtubule observé in situ en section transversale, par CEMOVIS, est directement déduite de l'observation de la chiralité de ses protofilaments. Cette chiralité, a été établie précédemment comme étant liée à la morphologie des sous unités de tubuline. La tomographie électronique effectuée sur des sections hydratées, nous a permis d'observer les microtubules dans leur contexte cellulaire avec une résolution suffisante pour visualiser des détails moléculaires, comme les monomères de tubuline. Ainsi, des molécules n'ayant pas encore été caractérisées, ont été observées dans la lumière des microtubules. Ces observations ont été effectuées autant sur des cellules observées en coupe par CEMOVIS que sur des cellules congelées dans leur totalité par immersion dans un bain d'éthane liquide. Enfin, nous avons montré que les microtubules étaient aussi de formidables objets, permettant une meilleure compréhension des artéfacts de coupe occasionnés lors de la préparation des échantillons par CEMOVIS. Les buts des études qui seront menées â la suite de ce travail seront de 1) essayer de localiser des domaines nucléaires spécifiques par des approches cytochimiques avant la congélation des cellules. 2) Appliquer des méthodes de moyennage afin d'obtenir un modèle tridimensionnel de la structure du complexe de pore nucléaire dans son contexte cellulaire. 3) Utiliser des approches biochimiques afin de déterminer la nature exacte des particules qui se trouvent dans la lumière des microtubules. ABSTRACT Nuclear architecture as well as microtubule ultrastructure have been extensively investigated by means of different methods of ultrastructural cytochemistry using chemically fixed and resin embedded samples or following cryofixation, cryosubstitution and embedding into various, especially partially hydrophilic resins. Here, we extend these studies using cryoelectron microscopy of vitreous sections (CEMOVIS) which allows one to observe the specimen as close as possible to its native state. Furthermore, we applied cryoelectron tomography of vitreous sections (TOVIS) in order to obtain athree-dimensional view of: 1) the nuclear periphery, and of the perichromatin region, and 2) the microtubule lumen. Concerning the nuclear architecture: Our observations show that nucleoli and condensed chromatin are well recognisable due to their specific texture. Conversely, the visualisation of other important nuclear domains, especially those containing ribonucleoproteins, is seriously hampered by a generally low contrast of the interchromatin region. This is mainly due to the plethora of information superposed in the volume of the section observed on two-dimensional micrographs. Cryoelectron tomography allowed us to better visualise nuclear regions. Condensed chromatin clumps are decorated on their periphery, the perichromatin region, by numerous fibrils and granules. Tunnels of interchromatin space can occasionally be found as crossing condensed chromatin regions, thus, allowing the access to nuclear pores. Finally, we were able to use TOVIS to directly distinguish most of the nuclear pore complex structures, at the level of a single pore. Concerning the microtubule ultrastructure: We have demonstrated that the polarity of across-sectioned microtubule observed in situ by CEMOVIS wás directly deducible from the visualisation of the tubulin protofiíaments' chirality. This chirality has been established before as related to the shape. of the tubulin subunits. Cryoelectron tomography allowed us to observe microtubules in their cellular context at a resolution sufficient to resolve molecular details such as their tubulin monomers. In this way, uncharacterized molecules were visualised in the microtubule lumen. These observations were made either on samples prepared by CEMOVIS or plunge freezing of whole cells. Finally, we have shown that microtubules are also relevant objects for the understanding of cutting artefacts, when performing CEMOVIS. The goals of our further studies will be to: 1) try to speciifically target different nuclear domains by cytochemical approaches in situ, prior to cryofixation. 2) Apply averaging methods in order to obtain a three-dimensional model of the nuclear pore complex at work, in its cellular context. 3) Use biochemical analysis combined in a second time to immunocytochemical approaches, to determine the exact nature of the microtubule's luminal particles.
Resumo:
Contexte: Le consensus actuel sur les modalités de traitement des carcinomes de l'endomètre restreint les indications de lymphadénectomie pelvienne aux cas à risque de récidive élevé (©Cancer de l'endomètre, Collection Recommandations & référentiels, INCa, Boulogne-Billancourt, novembre 2010). Ce risque est évalué en combinant la biologie de la tumeur (type histologique, grade des carcinomes endométrioïdes) et le stade (degré d'infiltration du myomètre, atteinte du col). Le degré d'infiltration du myomètre peut être évalué en pré- ou per-opératoire par l'imagerie (IRM), l'examen extemporané de la pièce d'hystérectomie totale ou une combinaison de ces deux méthodes. Objectifs: Le but de ce travail était d'évaluer rétrospectivement la performance de l'examen extemporané dans l'évaluation de l'infiltration myométriale par les carcinomes de l'endomètre dans notre centre. Méthode: Les cas d'hystérectomie totale pour carcinome de l'endomètre enregistrés de 2009 à 2013 (février) (50 mois) ont été extraits du système informatique de notre Institut, les rapports d'examen analysés. Pour les 25 cas dans lesquels un examen extemporané a été réalisé, nous avons comparé l'infiltration du myomètre évaluée en per-opératoire (< 50%, > ou égal à 50%) et le stade pathologique définitif, selon la classification TNM 2009 (pT1a < 50%, pT1b > ou égal à 50%). Une infiltration > ou égale à 50% était considérée comme un résultat «positif», une infiltration < 50% comme un résultat «négatif». Résultats : Sur 25 cas, la sensibilité de l'examen extemporané était de 87,5% (6 cas pT1b sur 7 diagnostiqués lors de l'examen extemporané) et sa spécificité de 100%. La valeur prédictive négative était de 94,7% et la valeur prédictive positive de 100%. Une lymphadénectomie a été réalisée chez 10 patientes, dont 6 chez lesquelles l'examen extemporané avait montré une infiltration du myomètre > 50%. Dans ce groupe, le stade définitif était pN0 dans 66,7% et pN > 0 dans 33,3%. Discussion: Dans cette série, l'évaluation extemporanée de l'infiltration du myomètre par les carcinomes de l'endomètre avait une sensibilité de 87,5% et une spécificité de 100%. Ces résultats sont en accord avec ceux de grandes études récentes (Kumar S et al., Gynecol Oncol 2012;127:525-31). En comparaison, la performance de l'IRM dans la littérature est controversée. Conclusion: Dans cette courte série, limitée à un centre, l'examen extemporané se révèle performant pour guider le chirurgien dans les indications de lymphadénectomie pelvienne chez les patientes atteintes d'un carcinome de l'endomètre.
Resumo:
Résumé Objectif: l'observation des variations de volume de la matière grise (MG), de la matière blanche (MB), et du liquide céphalo-rachidien (LCR) est particulièrement utile dans l'étude de nombreux processus physiopathologiques, la mesure quantitative 'in vivo' de ces volumes présente un intérêt considérable tant en recherche qu'en pratique clinique. Cette étude présente et valide une méthode de segmentation automatique du cerveau avec mesure des volumes de MG et MB sur des images de résonance magnétique. Matériel et Méthode: nous utilisons un algorithme génétique automatique pour segmenter le cerveau en MG, MB et LCR à partir d'images tri-dimensionnelles de résonance magnétique en pondération Ti. Une étude morphométrique a été conduite sur 136 sujets hommes et femmes de 15 à 74 ans. L'algorithme a ensuite été validé par 5 approches différentes: I. Comparaison de mesures de volume sur un cerveau de cadavre par méthode automatique et par mesure de déplacement d'eau selon la méthode d'Archimède. 2. Comparaison de mesures surfaces sur des images bidimensionnelles segmentées soit par un traçage manuel soit par la méthode automatique. 3. Evaluation de la fiabilité de la segmentation par acquisitions et segmentations itératives du même cerveau. 4. Les volumes de MG, MB et LCR ont été utilisés pour une étude du vieillissement normal de la population. 5. Comparaison avec les données existantes de la littérature. Résultats: nous avons pu observer une variation de la mesure de 4.17% supplémentaire entre le volume d'un cerveau de cadavre mesuré par la méthode d'Archimède, en majeure partie due à la persistance de tissus après dissection_ La comparaison des méthodes de comptage manuel de surface avec la méthode automatique n'a pas montré de variation significative. L'épreuve du repositionnement du même sujet à diverses reprises montre une très bonne fiabilité avec une déviation standard de 0.46% pour la MG, 1.02% pour la MB et 3.59% pour le LCR, soit 0.19% pour le volume intracrânien total (VICT). L'étude morphométrique corrobore les résultats des études anatomiques et radiologiques existantes. Conclusion: la segmentation du cerveau par un algorithme génétique permet une mesure 100% automatique, fiable et rapide des volumes cérébraux in vivo chez l'individu normal.
Resumo:
Contexte : Les patients souffrant d'un épisode dépressif sévère sont fréquemment traités par des inhibiteurs sélectifs de la recapture de la sérotonine (SSRI). Cependant, seulement 30-50% des patients répondront à ce type de traitement. Actuellement, il n'existe pas de marqueur biologique utilisable pour prédire la réponse à un traitement par SSRI. Un délai dans la mise en place d'une thérapie efficace peut avoir comme conséquences néfastes une augmentation du risque de suicide et une association avec un moins bon pronostic à long terme lors d'épisodes ultérieurs. Objectif : Par l'étude du métabolisme cérébral par tomographie par émission de positons (PET) au F-18-fluorodeoxyglucose (FDG), nous étudierons la présence de corrélations éventuelles entre la réponse clinique, qui généralement survient dans les 4 à 6 semaines après l'instauration du traitement antidépresseur, et une modification du métabolisme cérébral mesuré plus précocement, dans le but d'identifier les futurs répondeurs au traitement par SSRI. Méthodes : Cette étude longitudinale comprendra 20 patients unipolaires avec un épisode dépressif sévère au bénéfice d'un traitement par SSRI. Chacun des patients aura deux examens PET cérébraux au F-18-FDG. Le premier PET aura lieu juste avant le début du traitement aux SSRI et le second dans la 3ème semaine après début du traitement. La réponse clinique sera mesurée à 3 mois, et les répondeurs seront identifiés par une diminution significative des scores lors d'évaluation sur échelles de dépression. La recherche d'altérations métaboliques cérébrales sera faite en évaluant: (1) l'examen de base ou (2) l'examen PET précoce, à la recherche d'altérations spécifiques corrélées à une bonne réponse clinique, afin d'obtenir une valeur pronostique quant à la réponse au traitement. L'analyse de l'imagerie cérébrale utilisera la technique SPM (Statistical Parameter Mapping) impliquant un traitement numérique voxel par voxel des images PET. Résultats escomptés : Cette étude caractérisant les variations du métabolisme cérébral dans la phase précoce d'un traitement par SSRI vise à identifier des marqueurs métaboliques potentiels fournissant une valeur prédictive quant à la future efficacité du traitement SSRI introduit. Plus-value escomptée : L'identification d'un tel marqueur métabolique permettrait d'identifier rapidement les futurs répondeurs aux SSRI, et par conséquent d'éviter de proposer aux non-répondeurs la poursuite d'une médication, pendant plusieurs semaines, qui aurait peu de chance d'être efficace. Ainsi, une identification précoce des répondeurs aux SSRI pourrait permettre d'éviter des délais dans la mise en place d'une thérapie efficace et d'obtenir une amélioration du pronostic à plus long terme, avec une influence favorable sur les coûts de la santé.
Resumo:
Résumé Les patients ayant subi une transplantation cardiaque nécessitent un traitement immunosuppresseur à vie. Or un tel traitement entraîne différents effets secondaires, en fonction du médicament et des doses utilisés. La ciclosporine, connue pour sa puissante action immunosuppressive, est utilisée chez ces patients avec grand succès. Ainsi, ces dernières années, on a assisté à une diminution de la morbidité et de la mortalité post- transplantation. Ce succès s'accompagne toutefois d'effets secondaires, qui s'expriment principalement par une hypertension artérielle (HTA) et une dysfonction rénale voire une insuffisance rénale (augmentation de la créatinine et diminution de la clearance de la créatinine). L'introduction d'un nouvel immunosuppresseur, le mycophénolate mofétil (MMF, Cellcept), qui remplace l'azathioprine (AZA), a permis une réduction importante des doses de ciclosporine de 3-5mg/l(g/j à 1- 3mg/l(g/j. Or certaines études ont permis d'observer que l'utilisation du MMF associé à de faibles doses de ciclosporine après la transplantation entraîne une meilleure évolution chez les patients, notamment pour ce qui est de la tension artérielle (TA) et de la fonction rénale. Objectifs Il s'agit de déterminer l'influence, dans le temps, du MMF associé à de faibles doses de ciclosporine sur la TA et la fonction rénale chez les patients transplantés cardiaques, dans deux cas de figure: d'une part lorsque le traitement est commencé immédiatement après la transplantation, d'autre part lorsqu'il n'est introduit qu'une fois la détérioration de la fonction rénale apparue. Patients et méthodes La présente analyse rétrospective porte sur 105 patients ayant subi une transplantation cardiaque au CHUV de Lausanne, évalués un an après la greffe. Les patients ont été subdivisés en 3 groupes. Le groupe 1(67 patients) a reçu de la ciclosporine à doses conventionnelles (3-5mg11<g/j) et de l'azathioprine dès la transplantation. Les patients du groupe II (30 personnes) ont également reçu de la ciclosporine et de l'azathioprine, mais, en raison d'une détérioration rénale progressive, de myalgies ou d'arthralgies secondaires à la ciclosporine, ont bénéficié d'une modification du traitement consistant en une réduction des doses de ciclosporine en association avec du MMF (2gr1j) à la place de l'azathioprine. Enfin, les patients du groupe III (8 patients suivis pendant 2 ans maximum), ont reçu, dès la transplantation, du MMF (2g/D associé à de faibles doses de ciclosporine (jusqu'à 50% de moins que la dose conventionnelle, c'est-à-dire entre 1,0 et 1,5 meg/j). La TA, la créatinine, la clearance de la créatinine, l'incidence des infections et des rejets ont été analysées. Résultats La TA et la créatinine ont augmenté significativement au cours de la première année dans les 3 groupes, sans différences significatives entre ceux-ci. Pendant 5 ans, l'évolution des groupes I et II est restée similaire. Dans le groupe II, aucune amélioration de la créatinine et de la tension artérielle n'a été observée après la modification du traitement. Le groupe III, en revanche, a montré une très claire diminution de l'incidence des rejets aigus, aucun décès et une tendance (non significative) à une meilleure évolution de la créatinine et de la tension artérielle au cours de la première année en comparaison avec les groupes I et II. En ce qui concerne l'incidence des infections, il n'y a pas de différences entre les 3 groupes. Conclusion Une fois qu'une détérioration importante de la fonction rénale est apparue suite à l'administration de doses conventionnelles de ciclosporine, il est peu probable de réussir à récupérer la fonction rénale par une modification du traitement (MMF et faibles doses de ciclosporine), car le rein n'a plus de tissu fonctionnel de réserve. Le traitement associant le MMF à de faibles doses de ciclosporine administré dès la transplantation ayant montré une tendance à une meilleure évolution, notamment à une réduction de l'incidence des rejets (importante cause de mortalité) au cours de la première année, nous pensons que ce nouveau régime de traitement peut être plus bénéfique pour les patients s'il est introduit rapidement après la transplantation.
Resumo:
[Sommaire] Introduction. - Concepts biochimiques de base. - Concepts génétiques de base. - Quelques méthodes d'analyse de base en biologie. - Analyses génétiques - La caisse à outils de base. - Analyses génétiques - La caisse à outils spécialisée. - Les traces biologiques dans leur utilisation pratique. - Tests indicatifs et recherche des traces. - Quelques éléments d'évaluation probabiliste. - Au-delà du laboratoire. - Glossaire. - Index
Resumo:
Un nombre de plus en plus important d'études proposent l'exposition aux moisissures de l'environnement intérieur comme un facteur majeur dans l'apparition de symptômes respiratoires chez l'adulte et dans le développement de l'asthme chez l'enfant. Afin de contrôler l'incidence de telles pathologies dans la population générale, il est indispensable premièrement, de déterminer le niveau d'exposition aux particules fongiques qui déclenche les symptômes et deuxièmement d'identifier un marqueur environnemental associé de manière significative au tableau clinique. La première étude, choisie dans le cadre de cette note, s'inscrit dans le premier volet. Elle explore la relation entre la colonisation par des moisissures des voies aériennes de personnes asthmatiques et la concentration en spores de ces espèces fongiques dans l'air des habitations. La deuxième étude répond à la deuxième problématique en montrant qu'un marqueur environnemental, la fraction de (1-3)-beta-D-glucanes présente à la surface des particules fongiques, est corrélée au tableau des symptômes cliniques.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Introduction La stabilisation dynamique de la colonne lombaire a été développée comme alternative à la spondylodèse pour les lombalgies chroniques dans l'optique de réduire le risque de dégénération du segment adjacent. Le système de neutralisation dynamique « Dynesys » produit par Zimmer (Suisse) est un des produits les plus populaires. Des études portant sur un suivi à moyen terme ont montré des taux de révision dans près de 30% des patients. Nous avons observé quelques cas d'infections tardives chez nos patients et avons décidé de les passer systématiquement en revue. La bactérie Propionibacterium acnés a été récemment identifiée comme cause d'infections à bas bruit de matériel prothétique. Matériels et méthodes Nous présentons une série consécutive de 50 implantations du système Dynesys. Les patients ont été suivis pendant une durée moyenne de 51 mois (0 - 91). Durant cette période, nous avons identifié 12 complications de type infectieuse et 11 complications de type mécanique nécessitant une ré-opération ou une ablation de matériel dans un collectif de 17 patients. Résultats Les infections de matériel se sont produites après une durée médiane de 52 mois (2-77). Les germes trouvés étaient Propionibacterium acnés dans 7 patients sur 11 (seul η = 4 ou en combinaison η = 3). La présentation clinique associe des douleurs nouvelles ou en augmentation et, à la radiologie conventionnelle, un descellement des vis. Cependant, 73.5% des patients présentent, à des degrés divers, des signes radiologiques de descellements sans avoir de symptômes d'infection. Conclusion Le haut taux d'infections tardives avec des germes peu virulents ainsi que la fréquence des signes de descellements de vis constatés nous amènent à suspecter un défaut d'intégration au niveau de l'interface entre l'os et les vis. Les chirurgiens devraient être attentifs à ces signes et exclure activement une infection chez les patients présentant des douleurs nouvelles (ou en augmentation) en combinaison de signes de descellement radiologiques. Une attitude agressive de révision chirurgicale est recommandée dans ces cas.
Resumo:
We present a novel numerical approach for the comprehensive, flexible, and accurate simulation of poro-elastic wave propagation in 2D polar coordinates. An important application of this method and its extensions will be the modeling of complex seismic wave phenomena in fluid-filled boreholes, which represents a major, and as of yet largely unresolved, computational problem in exploration geophysics. In view of this, we consider a numerical mesh, which can be arbitrarily heterogeneous, consisting of two or more concentric rings representing the fluid in the center and the surrounding porous medium. The spatial discretization is based on a Chebyshev expansion in the radial direction and a Fourier expansion in the azimuthal direction and a Runge-Kutta integration scheme for the time evolution. A domain decomposition method is used to match the fluid-solid boundary conditions based on the method of characteristics. This multi-domain approach allows for significant reductions of the number of grid points in the azimuthal direction for the inner grid domain and thus for corresponding increases of the time step and enhancements of computational efficiency. The viability and accuracy of the proposed method has been rigorously tested and verified through comparisons with analytical solutions as well as with the results obtained with a corresponding, previously published, and independently bench-marked solution for 2D Cartesian coordinates. Finally, the proposed numerical solution also satisfies the reciprocity theorem, which indicates that the inherent singularity associated with the origin of the polar coordinate system is adequately handled.
Resumo:
L'index de consommation du glucose, SUV pour standardized uptake value, est largement utilisé en tomographie par émission de positons (TEP) pour quantifier la concentration relative de [18F]2-fluoro-2-désoxy-D-glucose (18F-FDG) dans les tissus. Cependant, cet indice dépend de nombreux facteurs méthodologiques et biologiques et son utilisation fait débat. Il est donc primordial d'instaurer un contrôle qualité régulier permettant d'assurer la stabilité de la mesure des indices quantitatifs. Dans cette optique, un fantôme spécifique avec inserts cylindriques de différentes tailles a été développé. L'objectif de cette étude est de montrer la sensibilité et l'intérêt de ce fantôme. Méthodes. - La sensibilité du fantôme a été étudiée à travers la mesure des SUV et des coefficients de recouvrement (RC). Plusieurs méthodes de mesure ont été utilisées. Les données ont été reconstruites en utilisant les algorithmes de routine clinique. Nous avons étudié la variation des RC en fonction de la taille des cylindres et le changement relatif de fixation, en utilisant des activités différentes. Le fantôme a ensuite été testé sur l'appareil d'un autre centre. Résultats. - Pour toutes les méthodes de mesure, une forte variation des RC avec la taille des cylindres, de l'ordre de 50 %, a été obtenue. Ce fantôme a également permis de mesurer un changement relatif de fixation qui s'est révélé être indépendant de la méthode de mesure. Malgré un étalonnage des deux systèmes TEP/TDM, des différences de quantification d'environ 20 % ont subsisté. Conclusion. - Les résultats obtenus montrent l'intérêt de ce fantôme dans le cadre du suivi des mesures quantitatives.