167 resultados para imagerie calcique
Resumo:
Calcium hydroxyapatite crystal deposition is a common disorder, which sometimes causes acute pain as calcifications dissolve and migrate into adjacent soft tissue. Intraosseous calcium penetration has also been described. We illustrate the appearance of these lesions using a series of 35 cases compiled by members of the French Society of Musculoskeletal Imaging (Société d'Imagerie Musculo-Squelettique, SIMS). The first group in our series (7 cases) involved calcification-related cortical erosions of the humeral and femoral diaphyses, in particular at the pectoralis major and gluteus maximus insertions. A second group (28 cases) involved the presence of calcium material in subcortical areas. The most common site was the greater tubercle of the humerus, accompanying a calcifying tendinopathy of the supraspinatus. In addition, an extensive intramedullary diffusion of calcium deposits was observed in four of these cases, associated with cortical erosion in one case and subcortical lesions in three cases. Cortical erosions and intraosseous migration of calcifications associated with calcific tendinitis may be confused with neoplasm or infection. It is important to recognize atypical presentations of hydroxyapatite deposition to avoid unnecessary investigation or surgery.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
Le syndrome douloureux fémoro-patellaire (SDFP) est l'une des causes les plus fréquentes de douleur antérieure du genou chez l'adolescent et l'adulte. De par son étiologie complexe, multifactorielle et encore mal comprise, sa prise en charge est un important challenge pour le praticien. Le diagnostic se fait principalement sur l'anamnèse et l'examen clinique du genou mais aussi de l'ensemble du membre inférieur, pouvant parfois nécessiter la réalisation d'une imagerie. Le traitement est dans la grande majorité des cas conservateur, principalement axé sur la rééducation avec de la physiothérapie ciblée et personnalisée. Le traitement chirurgical est réservé aux cas présentant une anomalie structurelle causale. Patellofemoral pain syndrome (PFPS) is one of the most frequent cause of anterior knee pain in adolescents and adults. Due to its complex etiology, which is multifactorial and still poorly understood, its management is a major challenge for the practitioner. The diagnosis is made primarily on the history and clinical examination of the knee, but also of the entire lower limb, which may sometimes require the completion of imaging. The treatment is mostly conservative, focussing on rehabilitation with targeted and personalized therapy. Surgical treatment is reserved for cases with a causal structural lesion.
Resumo:
CERN-MEDICIS (Medical Isotopes Collected from ISOLDE) est une plateforme de recherche destinée à la production de radioisotopes biomédicaux. Inauguré en 2014, il produira progressivement un nombre croissant de radioisotopes grâce au faisceau de protons ISOLDE déjà existant. Ce projet réunit des spécialistes du cancer, des chirurgiens, des experts en médecine nucléaire, en radiochimie et radiopharmacie et les scientifiques du CERN. Les radioisotopes ainsi produits seront destinés à la recherche fondamentale contre le cancer, à des études précliniques ainsi qu'au développement de protocoles d'imagerie et de thérapie destinés aux patients.Le CERN, les HUG, le CHUV, l'ISREC et l'EPFL qui soutiennent ce projet seront les premiers bénéficiaires de ces radioisotopes novateurs dont la distribution sera ensuite étendue à d'autres centres européens. CERN-MEDICIS is a facility dedicated to research and development in life science and medical applications. The research platform was inaugurated in October 2014 and will produce an increasing range of innovative isotopes using the proton beam of ISOLDE for fundamental studies in cancer research, for new imaging and therapy protocols in cell and animal models and for preclinical trials, possibly extended to specific early phase clinical studies (phase 0) up to phase I trials. CERN, the University Hospital of Geneva (HUG), the University Hospital of Lausanne (CHUV), the Swiss Institute for Experimental Cancer (ISREC) at Swiss Federal Institutes of Technology (EPFL) that currently support the project will benefit of the initial production that will then be extended to other centers.
Resumo:
L'année 2014 a été marquée par de nouvelles acquisitions thérapeutiques en médecine d'urgence.L'estimation de la probabilité d'une néphrolithiase permet d'éviter une imagerie chez les patients à haut risque. L'hypothermie thérapeutique post-arrêt cardiorespiratoire n'a pas de bénéfice par rapport à une stratégie de normothermie contrôlée. Le traitement d'une bronchite aiguë sans signe de gravité par co-amoxicilline ou AINS est inutile. L'adjonction de colchicine au traitement standard de la péricardite aiguë diminue le risque de récidive. L'ajustement du seuil de D-dimères à l'âge permet de réduire le recours à l'imagerie en cas de risque non élevé d'embolie pulmonaire. Enfin, un monitorage invasif précoce n'apporte pas de bénéfice à la prise en charge initiale du choc septique. The year 2014 was marked by new therapeutic acquisitions in emergency medicine. Nephrolithiasis likelihood estimation should avoid imaging in patients at high risk. Therapeutic hypothermia post cardio-respiratory arrest has no benefit compared to a strategy of controlled normothermia. Treatment of acute bronchitis with no signs of severity by coamoxicillin or NSAIDs is useless. Adding colchicine to standard treatment of acute pericarditis reduces the rate of recurrence. The D-dimerthreshold adjustment by age reduces the number of imaging in case of low or intermediate risk of pulmonary embolism. Finally, the speed of the initial management of septic shock is crucial to the outcome of patients, but an early invasive monitoring provides no benefit.
Resumo:
« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
L'encéphalopathie post-anoxique après arrêt cardiaque (AC) est une cause féquente d'admission pour coma en réanimation. Depuis les recommandations de 2003, l'hypothermie thérapeutique (HT) est devenue un standard de traitement après AC et est à l'origine de l'amélioration du pronostic au cours de cette derniere décennie. Les élements prédicteurs de pronostic validés par l'Académie Américaine de Neurologie avant l'ère de l'HT sont devenus moins précis. En effet, l'HT et la sédation retardent la reprise de la réponse motrice et peuvent altérer la valeur prédictive des réflexes du tronc cérébral. Une nouvelle approche est nécessaire pour établir un pronostic après AC et HT. L'enregistrement (pendant l'HTou peu après) d'une activité électroencéphalographique réactive et/ou continue est un bon prédicteur de récupération neurologique favorable après AC. Au contraire, la présence d'un tracé non réactif ou discontinu de type burst-suppression, avec une réponse N20 absente bilatérale aux potentiels évoqués somatosensoriels, sont presqu'à 100 % prédictifs d'un coma irréversible déjà à 48 heures après AC. L'HT modifie aussi la valeur prédictive de l'énolase neuronale spécifique (NSE), principal biomarqueur sérique de la lésion cérébrale post-anoxique. Un réveil avec bonne récupération neurologique a été récemment observé par plusieurs groupes chez des patients présentant des valeurs de NSE>33 μg/L à 48-72 heures : ce seuil ne doit pas être utilisé seul pour guider le traitement. L'imagerie par résonance magnétique de diffusion peut aider à prédire les séquelles neurologiques à long terme. Un réveil chez les patients en coma post-anoxique est de plus en plus observé, malgré l'absence précoce de signes moteurs et une élévation franche des biomarqueurs neuronaux. En 2014, une nouvelle approche multimodale du pronostic est donc nécessaire, pour optimiser la prédiction d'une évolution clinique favorable après AC. Hypoxic-ischemic encephalopathy after cardiac arrest (CA) is a frequent cause of intensive care unit (ICU) admission. Incorporated in all recent guidelines, therapeutic hypothermia (TH) has become a standard of care and has contributed to improve prognosis after CA during the past decade. The accuracy of prognostic predictors validated in 2006 by the American Academy of Neurology before the era of TH is less accurate. Indeed, TH and sedation may delay the recovery of motor response and alter the predictive value of brainstem reflexes. A new approach is needed to accurately establish prognosis after CA and TH. A reactive and/or continuous electroencephalogram background (during TH or shortly thereafter) strongly predicts good outcome. On the contrary, unreactive/spontaneous burst-suppression electroencephalogram pattern, together with absent N20 on somatosensory evoked potentials, is almost 100% predictive of irreversible coma. TH also affects the predictive value of neuronspecific enolase (NSE), the main serum biomarker of postanoxic injury. A good outcome can occur despite NSE levels >33 μg/L, so this cutoff value should not be used alone to guide treatment. Diffusion magnetic resonance imagery may help predict long-term neurological sequelae. Awakening from postanoxic coma is increasingly observed, despite the absence of early motor signs and pathological elevation of NSE. In 2014, a multimodal approach to prognosis is recommended to optimize the prediction of outcome after CA.
Redox dysregulation in schizophrenia : effect on myelination of cortical structures and connectivity
Resumo:
Cette thèse traite du rôle qu'un facteur de risque génétique développé chez les patients souffrant de schizophrénie, à savoir un déficit de la synthèse du glutathion, peut jouer dans les anomalies de la connectivité cérébrale trouvées chez ces patients. L'essentiel du travail a été consacré à évaluer la structure de la substance blanche dans l'ensemble du cerveau chez un modèle animal par une méthode similaire à celle utilisée en recherche clinique avec l'imagerie par résonance magnétique (IRM). Cette approche de translation inverse chez la souris knock-out de glutamate-cystéine ligase modulateur sous-unité (Gclm KO), avait l'objectif d'étudier l'effet des défenses redox déficientes sur le développement des connexions cérébrales, tout en excluant celui des facteurs non liés au génotype. Après avoir établi le protocole de recherche, l'influence d'une manipulation environnementale a également été étudiée. Pour effectuer une analyse statistique fiable des données d'IRM obtenues, nous .avons d'abord créé un atlas du cerveau de la souris afin de l'utiliser comme modèle pour une segmentation précise des différentes régions du cerveau sur les images IRM obtenues in vivo. Les données provenant de chaque région d'intérêt ont ensuite été étudiées séparément. La qualité de cette méthode a été évaluée dans une expérience de simulation pour déduire la puissance statistique réalisable dans chaque région en fonction du nombre d'animaux utilisés. Ces outils d'analyse nous ont permis d'évaluer l'intégrité de la substance blanche dans le cerveau des souris durant le développement grâce à une expérience longitudinale, en utilisant l'imagerie du tenseur de diffusion (DTI). Nous avons ainsi observé des anomalies dans les paramètres dérivés du tenseur (diffusivité et anisotropie) dans la Commissure Antérieure et le Fimbria/Fornix des souris Gclm KO, par rapport aux animaux contrôles. Ces résultats suggèrent une substance blanche endommagée dans ces régions. Dans une expérience électrophysiologique, Pascal Steullet a montré que ces anomalies ont des conséquences fonctionnelles caractérisées par une réduction de la vitesse de conduction dans les fibres nerveuses. Ces données renforcent les conclusions des analyses d'imagerie. Le mécanisme par lequel une dérégulation redox affecte la structure de la substance blanche reste encore à définir, car une analyse immunohistochimique des protéines constituantes de la couche de myéline des fibres concernées n'a pas donné de résultats concluants. Nous avons également constaté un élargissement des ventricules dans les jeunes souris Gclm KO, mais pas chez les adultes et des anomalies neurochimiques déjà connues chez ces animaux (Duarte et al. 2011), à savoir une réduction du Glutathion et une augmentation de l'acide N-acétylaspartique, de l'Alanine et du ratio Glutamine/Glutamate. Nous avons ensuite testé l'effet d'un stress environnemental supplémentaire, l'élevage en isolement social, sur le phénotype. Ce stress n'a eu aucun effet sur la structure de la substance blanche évaluée par DTI, mais a réduit la concentration de myo-Inositol et augmenté le ratio de Glutamine/Glutamate dans le cortex frontal. Nous avons aussi reproduit dans ce groupe indépendant d'animaux les effets du génotype sur le profil neurochimique, sur la taille des ventricules et aussi sur les paramètres dérivés du tenseur de diffusion dans le Fimbria/Fornix, mais pas dans la Commissure Antérieure. Nos résultats montrent qu'une dérégulation redox d'origine génétique perturbe la structure et la fonction de la substance blanche dans des régions spécifiques, causant ainsi l'élargissement des ventricules. Ces phénotypes rassemblent certaines caractéristiques neuro-anatomiques de la schizophrénie, mais les mécanismes qui en sont responsables demeurent encore inconnus. L'isolement social n'a pas d'effet sur la structure de la substance blanche évaluée par DTI, alors qu'il est prouvé qu'il affecte la maturation des oligodendrocytes. La neurochimie corticale et en particulier le rapport Glutamine/Glutamate a été affecté par le dérèglement redox ainsi que par l'isolement social. En conséquence, ce ratio représente un indice prometteur dans la recherche sur l'interaction du stress environnemental avec le déséquilibre redox dans le domaine de la schizophrénie. -- The present doctoral thesis is concerned with the role that a genetic risk factor for the development of schizophrenia, namely a deficit in Glutathione synthesis, may play in the anomalies of brain connectivity found in patients. Most of the effort was devoted to perform a whole-brain assessment of white matter structure in the Glutamate-Cysteine ligase modulatory knockout mouse model (Gclm KO) using Magnetic Resonance Imaging (MRI) techniques similar to those used in state-of-the-art clinical research. Such reverse translational approach taking brain imaging from the bedside to the bench aimed to investigate the role that deficient redox defenses may play in the development of brain connections while excluding all influencing factors beside the genotype. After establishing the protocol, the influence of further environmental manipulations was also studied. Analysis of MRI images acquired in vivo was one of the main challenges of the project. Our strategy consisted in creating an atlas of the mouse brain to use as segmentation guide and then analyze the data from each region of interest separately. The quality of the method was assessed in a simulation experiment by calculating the statistical power achievable in each brain region at different sample sizes. This analysis tool enabled us to assess white matter integrity in the mouse brain along development in a longitudinal experiment using Diffusion Tensor Imaging (DTI). We discovered anomalies in diffusivity parameters derived from the tensor in the Anterior Commissure and Fimbria/Fornix of Gclm KO mice when compared to wild-type animals, which suggest that the structure of these tracts is compromised in the KO mice. In an elegant electrophysiological experiment, Pascal Steullet has provided evidence that these anomalies have functional consequences in form of reduced conduction velocity in the concerned tracts, thus supporting the DTI findings. The mechanism by which redox dysregulation affects WM structure remains unknown, for the immunohistochemical analysis of myelin constituent proteins in the concerned tracts produced inconclusive results. Our experiments also detected an enlargement of the lateral ventricles in young but not adult Gclm KO mice and confirmed neurochemical anomalies already known to affect this animals (Duarte et al. 2011), namely a reduction in Glutathione and an increase in Glutamine/Glutamate ratio, N-acetylaspartate and Alanine. Using the same methods, we tested the effect of an additional environmental stress on the observed phenotype: rearing in social isolation had no effect on white matter structure as assessed by DTI, but it reduced the concentration of myo-Inositol and increased the Glutamine/Glutamate ratio in the frontal cortex. We could also replicate in this separate group of animals the effects of genotype on the frontal neurochemical profile, ventricular size and diffusivity parameters in the Fimbria/Fornix but not in the Anterior Commissure. Our data show that a redox dysregulation of genetic origin may disrupt white matter structure and function in specific tracts and cause a ventricular enlargement, phenotypes that resemble some neuroanatomical features of schizophrenia. The mechanism responsible remains however unknown. We have also demonstrated that environmental stress in form of social isolation does not affect white matter structure as assessed by DTI even though it is known to affect oligodendrocyte maturation. Cortical neurochemistry, and specifically the Glutamine to Glutamate balance was affected both by redox dysregulation and social isolation, and is thus a good target for further research on the interaction of redox imbalance and environmental stress in schizophrenia.
Resumo:
Le traitement médicamenteux du syndrome de Cushing secondaire à une hyperplasie surrénalienne macro-nodulaire bilatérale (bilateral macronodular adrenal hyperplasia, (BMAH)) est généralement administré pour une période limitée avant de procéder à l'exérèse chirurgicale des surrénales. Les antagonistes des récepteurs surrênaïïens aberrants se sont révélés inefficaces à long terme pour empêcher la surrénalectomie. Nous reportons le cas d'une patiente avec BMAH traitée durant 10 ans par des petites doses de kétoconazole, afin de contrôler la sécrétion de Cortisol. A l'âge de 48 ans, elle a présenté des céphalées et une hypertension artérielle. Les investigations ont donné les résultats suivants: absence de signes cliniques de syndrome de Cushing ; hyperplasie nodulaire des surrénales ; valeurs normales de la creatinine, le potassium et l'aldostérone plasmatiques ; valeurs normales des métanéphrines et de l'aldostérone urinaires ; élévation du Cortisol libre et des métabolites stéroïdiens urinaires ; et suppression de l'ACTH et de l'activité de la rénine plasmatiques. Un protocole de dépistage des récepteurs surrénaliens aberrants n'a pas montré de dépendance hormonale illégitime. Le kétoconazole a permis une normalisation rapide du Cortisol et de l'ACTH avec un effet qui persiste après 10 ans de traitement, tandis que l'imagerie surrénalienne ne montre pas de changement de taille et d'aspect de celles-ci. La sécrétion stéroidienne chez les patients présentant une BMAH est moins importante que celle de surrénales normales ou de tumeurs secrétrices et peut être contrôlée avec de petites doses de kétoconazole. Ce traitement, bien toléré, constitue une alternative au traitement chirurgical.
Resumo:
L'adoption de l'IRM dans le parcours diagnostique a déterminé la transition des biopsies aléatoires aux biopsies ciblées vers les lésions visibles à l'imagerie. L'utilisation de logiciels rendant possible la fusion d'images IRM et échographiques permet d'améliorer significativement la précision diagnostique de ces biopsies. De plus, pour déterminer l'éligibilité d'un patient à une thérapie focale, davantage de précision diagnostique est requise au niveau de toute la glande ; par conséquent, des biopsies avec une densité d'échantillonnage plus élevée par voie transpérinéale peuvent être proposées.Les nouvelles techniques de biopsie de la prostate permettent une prise en charge personnalisée grâce à une meilleure caractérisation de l'agressivité et de l'extension locale du cancer de la prostate. The adoption of multiparametric MRI within the diagnostic pathway has allowed urologists to move from random biopsy to targeted biopsy directed towards MR-visible lesions. The use of software for MR to TRUS fusion may enhance the diagnostic accuracy of targeted biopsy. To determine the eligibility for tissue-preserving approaches, further precision is required, and template prostate mapping biopsy may be offered. The employment of novel biopsy techniques provide better characterisation of the disease, and allows a tailored approach to a single subject.
Resumo:
La lithiase rénale est une pathologie connue depuis très longtemps. Elle est très intéressante d'un point de vue épidémiologique car elle est présente dans le monde entier et reflète les habitudes alimentaires, les conditions sanitaires et le niveau de vie des populations. En effet, sa localisation, sa nature et son âge d'apparition sont associés au niveau économique d'une population donnée. Dans les pays ayant un niveau socioéconomique bas, les enfants jusqu'à 10 ans sont plus touchés que les adultes, avec un rapport garçons/filles très élevé, atteignant plus de 10. La localisation des calculs rénaux est surtout vésicale et ils sont composés majoritairement de phosphate ou d'acide urique. Par contre, dans les populations avec un niveau socioéconomique plus élevé comme c'est le cas actuellement en Europe, les adultes entre 30 et 50 ans sont majoritairement touchés avec un rapport hommes/femmes situé entre 1.5 et 2.5. La lithiase est essentiellement rénale et composée d'oxalate de calcium. Actuellement, dans la plupart des pays du monde, le calcul a une localisation rénale et est de nature oxalo-calcique, reflétant une amélioration des conditions de vie et un meilleur niveau de médicalisation. Peu de pays possèdent les moyens d'effectuer de larges études pour estimer la prévalence de la lithiase rénale. Cependant, toutes les études effectuées confirment que les calculs rénaux sont en progression dans le monde entier. Une forte augmentation de la prévalence de la lithiase rénale a notamment été observée depuis la fin de la deuxième guerre mondiale avec une mise sur le marché plus importante ainsi qu'une consommation croissante de boissons sucrées, de protéines animales et de chocolat riche en oxalate avec en parallèle une diminution de la consommation de produits laitiers et une sédentarisation de la population. La lithiase rénale comprend en effet des facteurs de risques environnementaux et sa progression est donc en grande partie due aux changements des habitudes de vie. Au cours des dernières décennies, les changements de mode de vie ont également favorisé l'augmentation de l'hypertension artérielle, de l'obésité ainsi que du diabète dans la population générale, eux-mêmes associés à la lithiase rénale. Différentes études illustrent la prévalence croissante des calculs rénaux. Des études scandinaves datant de 1970-1980 démontrent que 19% des hommes de plus de 60 ans avaient des antécédents de lithiase urinaire. Aux États-Unis, l'étude de Stamatelou et al. (1) a démontré une progression de la lithiase rénale de 3.2% entre 1976 et 1980 et de 5.2% entre 1988 et 1994. En Allemagne, la prévalence de la lithiase rénale a augmenté de 17% entre 1980 et 2000. En 2001 en Espagne, 10% des sujets de plus de 60 ans avaient une lithiase rénale. L'étude française SU.VI.MAX a notamment révélé une prévalence de calculs rénaux de 9.5% chez les personnes de plus de 45 ans avec une prédominance masculine, 13.6% chez les hommes et 7.6% chez les femmes. Le rapport hommes/femmes était de 2.35 avec une tendance à la baisse. L'âge du premier calcul était en moyenne à 35 ans chez les hommes et à 30 ans chez les femmes. Plus de la moitié des patients lithiasiques de l'étude SU.VI.MAX récidivent au cours de leur vie, 54% des hommes et 52% des femmes. Le nombre d'épisodes dans la vie d'une personne ayant eu une fois un calcul rénal était en moyenne de 3, avec un intervalle moyen de 3.5 ans entre deux récidives.
Resumo:
Contexte L'hyperaldostéronisme primaire (HAP) est actuellement considéré comme la première cause d'hypertension artérielle secondaire. Son diagnostic est capital car il permet d'identifier des patients avec une cause potentiellement réversible d'hypertension. Cependant, le diagnostic et l'attitude thérapeutique (traitement médical vs. chirurgical) ne sont pas toujours évidents. Le cathétérisme sélectif des veines surrénaliennes (CVS) permet la détermination d'une latéralisation de la sécrétion d'aldostérone avec moins de risques de faux négatifs et de faux positifs que l'imagerie par scanner ou par IRM. Contrairement à d'autres pays européens, asiatiques ou américains, il n'existe pour le moment aucune donnée publiée sur le cathétérisme des veines surrénaliennes en Suisse. Objectifs Déterminer le taux de succès du CVS ainsi que ses déterminants cliniques au cours des 5 dernières années au CHUV, ainsi que démontrer l'utilité d'un cathétérisme des veines surrénaliennes lorsqu'une surrénalectomie est envisagée dans le cadre d'un hyperaldostéronisme primaire Méthodes Cette étude est rétrospective et monocentrique. La récolte de données s'est faite à partir de dossiers de 68 patients atteints d'hypertension artérielle (HTA) secondaire sur HAP biochimiquement confirmé et ayant eu un CVS au cours des 5 dernières années. Résultats Au CHUV, le taux de succès du CVS (cathétérisme bilatéral des veines surrénaliennes) s'élève à 60% (41/68). Dans 53% des cas, il y a discordance entre les résultats de l'imagerie standard et ceux du CVS. Une attitude thérapeutique basée sur l'imagerie standard aurait entrainé des traitements inappropriés : 43% des patients auraient subi une chirurgie inadéquate, et 10% n'auraient pas été candidats à une sanction chirurgicale alors qu'elle aurait été indiquée sur la base du CVS. Conclusions Le CVS doit être considéré comme l'étalon-or dans la prise en charge diagnostique de l'HAP lorsqu'une intervention chirurgicale est possible. En se basant uniquement sur l'imagerie, il en résulterait un taux élevé de traitement inapproprié. Aux vues des difficultés techniques associées à cet examen, de nouvelles procédures doivent être mises en place pour mener à une amélioration de son taux de succès et à l'interprétation des résultats.