849 resultados para Imagerie optique
Resumo:
Résumé Le concept de clairvoyance normative (Py & Somat, 1991), qui a vu le jour dans la continuité des études sur la norme d'internalité (Beauvois, 1984), traduit la connaissance du caractère normatif ou contre-normatif d'un type de comportements ou d'un type de jugements. Un certain nombre de recherches semble alors attester que la clairvoyance normative participe à l'obtention d'une évaluation positive. Toutefois, ces différentes recherches font toutes fi de l'idée qu'il existerait deux dimensions de la valeur sociale : l'utilité sociale et la désirabilité sociale. La prise en compte de ces deux dimensions, surtout si l'on admet que les normes sociales ne renvoient pas toutes à la même dimension (Beauvois, 1995 ; Dubois & Beauvois, 2005 ; Dubois, 2005), vient alors quelque peu compliquer le modèle liant clairvoyance normative et évaluation positive car elle suggère que la clairvoyance de certaines normes aidera avant tout à être bien évalué sur le plan de l'utilité sociale alors que la clairvoyance d'autres normes participera davantage à être évalué favorablement sur le plan de la désirabilité sociale. Ces réflexions ont été à la base de ce travail de thèse et ont conduit à la réalisation de notre première étude. Les quelques résultats inattendus que nous avons obtenus nous ont cependant incité par la suite à reconsidérer la pertinence de rattacher la notion de clairvoyance à certains types de contenu (internalité, autosuffisance, etc.), ce qui nous a amené à la proposition de deux nouvelles notions : la clairvoyance de l'utilité sociale et la clairvoyance de la désirabilité sociale. C'est dans l'optique de valider cette proposition que deux nouvelles études ont alors été réalisées. Si celles-ci appuient dans leur ensemble l'idée que les clairvoyances de l'utilité et de la désirabilité sociales seraient des indicateurs plus performants d'une évaluation sociale positive que ne le seraient les clairvoyances des normes sociales de jugement, elles n'ont néanmoins pas manqué de soulever de nouvelles questions. Cela nous a ainsi mené, dans un troisième temps, à nous interroger sur ce qui détermine la valeur en jeu dans une situation d'évaluation. Nos trois dernières études ont été construites dans ce dessein et ont participé, en conclusion de ce travail, à étayer l'idée que la clairvoyance de la valeur sociale des jugements ne permettrait l'obtention d'une évaluation positive que si celle-ci va de pair avec une certaine clairvoyance de la valeur sociale des éléments constitutifs de la situation d'interaction. Abstract The concept of normative clearsightedness (Py & Somat, 1991), born in continuity with studies on the norm of internality (Beauvois, 1984), reflects the knowledge of the normative or counter-normative nature of a type of behaviour or a type of judgement. Several researches appear to show that normative clearsightedness helps to obtain a positive evaluation. However, none of these researches takes into account the idea that there might be two dimensions of social value: social utility and social desirability. Considering those two dimensions, especially if we accept that not all social norms refer to the same dimension (Beauvois, 1995; Dubois & Beauvois, 2005; Dubois, 2005), somehow complicates the model linking normative clearsightedness with a positive evaluation. It suggests indeed that while clearsightedness of some norms will help first of all to get a good evaluation on the dimension of social utility, clearsightedness of other norms will help above all to get a good evaluation on the dimension of social desirability. These considerations were the foundation of this work and led to our first study. However, we reached some unexpected results that prompted us thereafter to reconsider the pertinence to attach the notion of clearsightedness to particular types of content (internality, self-sufficiency, etc.), which led us to propose two new notions: clearsightedness of social utility and clearsightedness of social desirability. Two new studies were thus executed to challenge this proposal. While these researches support as a whole that clearsightedness of social utility and social desirability are better indicators of positive evaluation than clearsightedness of social norms of judgement, they also raised new questions, which led us, in a third time, to wonder about what will determine the dominating social value in an evaluative situation. Our last three studies were designed to this purpose and helped to support the idea, in conclusion of this work, that the clearsightedness of the social value of judgements would bring a positive evaluation only if this clearsightedness is combined with a kind of clearsightedness of the social value of elements constituting the interaction's situation.
Resumo:
In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.
Resumo:
"Argent et stupéfiants, stupéfiants et argent" : c'est un binôme bien implanté dans l'imaginaire commun. La production, le transport et la vente de stupéfiants constituent l'un des principaux trafics illicites au niveau international et permettent, à travers le blanchiment de l'argent qui en est issu, de financer beaucoup d'activités illégales. Dans ce cadre, le monde judiciaire montre un intérêt tout particulier à pouvoir démontrer que des sommes d'argent ont été en contact avec des produits stupéfiants et donc de les relier à leur trafic. C'est dans cette optique que l'analyse des contaminations en produits stupéfiants que l'on retrouve sur les billets de banque constitue un outil intéressant. Il s'agit de pouvoir établir que des billets en circulation présentent peu de traces de stupéfiants alors que les billets saisis dans le cadre de la répression du trafic illicite de stupéfiants en présentent en quantité plus importante. Les résultats de cette étude confirment qu'il est possible de mettre en évidence une différence significative entre la population des billets en circulation et la population des billets saisis tant pour les francs suisses que pour les euros. La méthodologie développée pour déterminer si un lot de billets est relié au trafic de produits stupéfiants est ainsi validée et constitue une contribution nouvelle dans la lutte contre le trafic des stupéfiants.
Resumo:
Résumé La fragmentation des membranes est un processus commun à beaucoup d'organelles dans une cellule. Les mitochondries, le noyau, le réticulum endoplasmique, les phagosomes, les peroxisomes, l'appareil de Golgi et les lysosomes (vacuoles chez la levure) se fragmentent en plusieurs copies en réponse à des sitmulis environnementaux, tels que des stresses, ou dans une situtation normale durant le cycle cellulaire, afin d' être transférer dans les cellules filles. La fragmentation des membranes est également observée pendant le processus d'endocytose, lors de la formation de vésicules endocytiques, mais également dans tout le traffic intracellulaire, lors de la genèse d'une vésicule de transport. Le processus de fragmentation est donc généralement important. La découverte en 1991 d'une dynamin-like GTPase comme protéine impliquée dans la fragmentation de la membrane plasmique durant l'endocytose a ouvert ce domaine de recherche. Dès lors des dynamines ont été découvertes sur la pluspart des organelles, ce qui suggère un processus de fragmentation des membranes commun à l'ensemble de la cellule. Cependant, l'ensemble des protéines impliquées ainsi que le mécanisme de la fragmentation reste encore à élucider. Mon projet de thèse était d'établir un test in vitro de fragmentation des vacuoles utile à la compréhension du mécanisme de ce processus. Le choix de ce système est judicieux pour plusieurs raisons; premièrement les vacuoles fragmentent naturellement durant le cycle cellulaire, deuxièment leur taille permet de visualiser facilement leur morphologie par simple microscopie optique, finalement elles peuvent être isolées en quantité intéressante avec un haut degré de pureté. In vivo, les vacuoles peuvent être facilement fragmentées par un stress osmotique. Un tel test permet d'identifier des protéines impliquées dans le mécanisme comme dans le criblage que j'ai effectué sur l'ensemble de la collection de délétions des gènes non-essentiels chez la levure. Cependant un test in vitro est ensuite indispensable pour jouer avec les protéines découvertes afin d'en élucider le mécanisme. Avec mon test in vitro, j'ai confirmé l'implication des protéines SNAREs dans la fragmentation et j'ai permis de comprendre la régulation de la quantité de vacuoles et de leur taille par le complexe TORC1 dans une situation de stress. 7 Résumé large public Les cellules de chaque organisme sont composées de différents compartiments appelés organelles. Chacun possède une fonction bien définie afin de permettre la vie et la croissance de la cellule. Ils sont entourés de membrane, qui joue le role de barrière spécifiquement perméable, afin de garder l'intégrité de chacun. Dans des conditions de croissance normale, les cellules prolifèrent. Durant la division cellulaire amenant à la formation d'une nouvelle cellule, chaque organelle doit se diviser afin de fournir l'ensemble des organelles à la cellule fille. La division de chaque organelle nécessite la fragmentation de la membrane les entourant. Des protéines dynamine-like GTPase ont été découvertes sur presque l'ensemble des organelles d'une cellule. Elles sont impliquées dans les processus de fragmentation des membranes. Dès lors l'idée d'un mécanisme commun est apparu. Cependant cette réaction, par sa complexité, ne peut pas impliquer une protéine unique. La découverte d'autres facteurs et la compréhension du mécanisme reste à faire. La première étape peut se faire par étude in vivo, c'est-à-dire avec des cellules entières, la deuxième étape, quant à elle, nécessite d'isoler les protéines impliquées et de jouer avec les différents paramètres, ce qui signifie donc un travail in vitro, séparé des cellules. Mon travail a constisté à établir un procédé expérimental in vitro pour étudier la fragmentation des membranes. Je travaille avec des vacuoles de levures pour étudier les réactions membranaires. Les vacuoles sont les plus grandes organelles présentes dans les levures. Elles sont impliquées principalement dans la digestion. Comme toute organelle, elles se fragmentent durant la division cellulaire. Le procédé expérimental comporte une première étape, l'isolation des vacuoles et, deuxièmement, l'incubation de celles-ci avec des composés essentiels à la réaction. En parallèle, j'ai mis en évidence, par un travail in vivo, de nouvelles protéines impliquées dans le processus de fragmentation des membranes. Ceci a été fait en réalisant un criblage par microscopie d'une collection de mutants. Parmi ces mutants, j'ai cherché ceux qui présentaient un défaut dans la fragmentation des vacuoles. Ces deux procédés expérimentaux, in vitro et in vivo, m'ont permis de découvrir de nouvelles protéines impliquées dans cette réaction, ainsi que de mettre en évidence un mécanisme utlilisé par la cellule pour réguler la fragmentation des vacuoles. 8 Summary Fragmentation of membranes is common for many organelles in a cell. Mitochondria, nucleus, endoplasmic reticulum, phagosomes, peroxisomes, Golgi and lysosomes (vacuoles in yeast) fragment into multiple copies in response to environmental stimuli, such as stresses, or in a normal situation during the cell cycle in order to be transferred into the daughter cell. Fragmentation of membrane occurs during endocytosis, at the latest step in endocytic vesicle formation, and also in intracellular trafficking, when traffic vesicles bud. This field of research was opened in 1991 when a dynamin-like GTPase was found to be involved in fragmentation of the plasma membrane during endocytosis. Since dynamin-like GTPases have been found on most organelles, similarities in their mechanisms of fragmentation might exist. However, many proteins involved in the mechanism of fragmentation remain unknown. My thesis project was to establish an in vitro assay for membrane fragmentation in order to create a tool to study the mechanism of this process. I chose vacuoles as a model organelle for several reasons: first of all, vacuoles fragment under physiological conditions during cell cycle, secondly their size makes their morphology easily visible under the light microscope, and finally vacuoles can be isolated in good amounts with relatively high degrees of purity. In vivo, vacuole fragmentation can be induced with an osmotic shock. Such a simple assay facilitates the identification of new proteins involved in the process. I used this tool to screen of the entire knockout collection of non-essential genes in Saccharomyces cerevisiae for mutants defective in vacuole fragmentation. The in vitro system will be useful to characterize the mutants and to study the mechanism of fragmentation in detail. I used my in vitro assay to confirm the involvement of vacuolar SNARE proteins in fragmentation of the organelle and to uncover that number and size of vacuoles in the cell is regulated by the TORC1 complex via selective stimulation of fragmentation activity.
Resumo:
Contexte : la prévalence des épisodes dépressifs majeurs parmi la population âgée générale est de 1-4%. Plusieurs études proposent la dissociation entre la dépression à début tardive (late onset depression, LOD), plus souvent associée à des déficits neuropsychologiques, des lésions cérébrales et des facteurs de risque cardio-vasculaire, et la dépression à début précoce (early onset depression, EOD) associée, elle, aux facteurs génétiques et à certains profiles de personnalité. Toutefois, aucune étude transversale ou longitudinale n'a jusqu'à maintenant mesuré et comparé de façon concomitante les profiles cognitifs, la neuro-imagerie (IRM) et les profiles de personnalité des patients âgés LOD et EOD euthymiques. Méthodes : ce travail se base sur une étude menée par différents services des Hôpitaux Universitaires de Genève (HUG) et du Centre Hospitalier Universitaire Vaudois (CHUV) qui ont collaboré afin de recruter le collectif de patients dépressifs nécessaire. La partie expérimentale est divisée en deux parties. La première, transversale, compare 30 EOD, 11 LOD et 30 sujets contrôles, puis 38 EOD à 62 sujets contrôles. Une évaluation neuropsychologique, des évaluations des lésions et volumes cérébraux à l'IRM, ainsi que des traits de personnalité ont été effectuées. La deuxième partie, longitudinale, évalue sur 2 ans 28 patients EOD à 48 sujets contrôles avec les mêmes outils. Résultats : lors de la première partie, transversale, les performances cognitives et les volumes cérébraux sont préservés chez les patients EOD, alors que les patients LOD présentent une réduction significative de la mémoire épisodique et un taux plus élevé de lésions cérébrales périventriculaires (hyperintensités de la matière blanche) en comparaison avec les patients EOD et les sujets contrôles. Au niveau des traits de personnalité, les patients EOD sont associés à un niveau élevé de Névrosisme, en particulier les facettes Anxiété (N1) et Dépression (N3) mais diminué d'Extraversion, en particulier les facettes Chaleur (E1) et Emotions positives (E6). Dans la seconde partie, longitudinale, les performances cognitives et les volumes cérébraux des patients EOD sont restés, après les 2 ans de suivi (follow-up) comparables aux sujets contrôles. Les niveaux élevés du Névrosisme et sa facette Anxiété (N1) constatés au baseline diminuèrent pour atteindre un niveau normal. Les niveaux diminués des facettes Chaleur (E1) et Emotions positives (E6) au baseline ne persistèrent pas non plus. Seule la facette Dépression (N3) est restée chez les patients EOD significativement plus élevée que chez les sujets contrôles après les 2 ans de suivi. Conclusion : nos résultats supportent la dissociation entre EOD, associée à des facteurs génétiques et psychosociaux, et LOD associée aux facteurs de risque et comorbidités cardio-vasculaires. Après rémission d'un épisode dépressif aigu, les performances cognitives ainsi que les volumes cérébraux des patients EOD restent intactes au long terme, alors que le patient LOD garde des lésions cérébrales ainsi que des atteintes au niveau de la mémoire épisodique. Au niveau de la personnalité, la facette Dépression (N3) du domaine Névrosisme, connu pour être un facteur de risque de dépression, reste une caractéristique bien présente chez le patient EOD.
Resumo:
Rapport de synthèse : Les tumeurs de la paroi thoracique sont des pathologies graves dont le traitement principal consiste en une résection chirurgicale. L'enjeu majeur de cette intervention ontologique est de réséquer la totalité de la tumeur, ce qui nécessite une planification préopératoire minutieuse. Classiquement, l'identification et la localisation de la tumeur se fait à l'aide de la tomodensitométrie (computed tomography, CT) ou de l'imagerie par résonnance magnétique (1RM). Actuellement, l'imagerie nucléaire fonctionnelle par tomographie par émission de positons (positron emission tomography, PET) qui peut être couplée au CT (PET/CT) est de plus en plus appliquée aux patients présentant une tumeur maligne. Son efficacité a fréquemment été démontrée. Le but de la présente étude est d'évaluer la valeur du PET dans la planification de la résection des tumeurs de la paroi thoracique. Une analyse rétrospective de dix-huit patients opérés entre 2004 et 2006 a été réalisée; Dans ce groupe de patient, la taille de la tumeur mesurée sur la pièce opératoire réséquée a été comparée à la taille de la tumeur mesurée sur le CT et le PET. Les résultats démontrent que le CT surestimait de manière consistante la taille réelle de la tumeur par rapport au PET (+64% par rapport à +1%, P<0.001). De plus, le PET s'est avéré particulièrement performant pour prédire la taille des tumeurs de plus de 5.5 cm de diamètre par rapport au CT (valeur prédictive positive 80% par rapport à 44% et spécificité 93% par apport à 64%, respectivement). Cette étude démontre que le PET permettrait de mesurer la taille des tumeurs de la paroi thoracique de manière plus précise que le CT. Cette nouvelle modalité diagnostique s'avèrerait donc utile pour planifier les résections chirurgicales de telles tumeurs. A notre connaissance, aucune publication ne décrit la valeur du PET dans ce domaine. Les performances accrues du PET permettraient une meilleure délimitation des tumeurs ce qui améliorerait la précision de la résection chirurgicale. En conclusion, cette étude préliminaire rétrospective démontre la faisabilité du PET pour les tumeurs de la paroi thoracique. Ces résultats devraient être confirmés par une étude prospective incluant un plus grand nombre de patients avec la perspective de juger l'impact clinique réel du PET sur la prise en charge thérapeutique des patients.
Resumo:
Introduction La stabilisation dynamique de la colonne lombaire a été développée comme alternative à la spondylodèse pour les lombalgies chroniques dans l'optique de réduire le risque de dégénération du segment adjacent. Le système de neutralisation dynamique « Dynesys » produit par Zimmer (Suisse) est un des produits les plus populaires. Des études portant sur un suivi à moyen terme ont montré des taux de révision dans près de 30% des patients. Nous avons observé quelques cas d'infections tardives chez nos patients et avons décidé de les passer systématiquement en revue. La bactérie Propionibacterium acnés a été récemment identifiée comme cause d'infections à bas bruit de matériel prothétique. Matériels et méthodes Nous présentons une série consécutive de 50 implantations du système Dynesys. Les patients ont été suivis pendant une durée moyenne de 51 mois (0 - 91). Durant cette période, nous avons identifié 12 complications de type infectieuse et 11 complications de type mécanique nécessitant une ré-opération ou une ablation de matériel dans un collectif de 17 patients. Résultats Les infections de matériel se sont produites après une durée médiane de 52 mois (2-77). Les germes trouvés étaient Propionibacterium acnés dans 7 patients sur 11 (seul η = 4 ou en combinaison η = 3). La présentation clinique associe des douleurs nouvelles ou en augmentation et, à la radiologie conventionnelle, un descellement des vis. Cependant, 73.5% des patients présentent, à des degrés divers, des signes radiologiques de descellements sans avoir de symptômes d'infection. Conclusion Le haut taux d'infections tardives avec des germes peu virulents ainsi que la fréquence des signes de descellements de vis constatés nous amènent à suspecter un défaut d'intégration au niveau de l'interface entre l'os et les vis. Les chirurgiens devraient être attentifs à ces signes et exclure activement une infection chez les patients présentant des douleurs nouvelles (ou en augmentation) en combinaison de signes de descellement radiologiques. Une attitude agressive de révision chirurgicale est recommandée dans ces cas.
Resumo:
Introduction : Les tumeurs solides pseudo-papillaires du pancréas (SPT) sont des tumeurs rares, d'étiopathogénie encore incertaine.Le but de notre travail était de décrire les caractéristiques radiologiques des SPT dans le groupe d'âge pédiatrique et d'étudier leur corrélation avec les études anatomopathologiques en vue d'établir un diagnostic.Patients et Méthodes : Nous avons étudié rétrospectivement trois malades pédiatriques pour lesquelles le diagnostic de tumeur solide pseudo-papillaire du pancréas a été porté à l'examen d'une pièce opératoire. Ce groupe comprenait 3 jeunes filles et femmes (âge médian: 13 ans).Résultats : La tumeur a été découverte pendant le bilan de symptômes digestifs non spécifiques. Les examens biologiques n'étaient pas informatifs. Des investigations radiologiques complètes ont été réalisées y compris les ultrasons (US), la tomodensitométrie (CT) et l'imagerie par résonance magnétique (IRM).Celles-ci ont montré de volumineuses lésions nodulaires, peu vascularisées, de compositions habituellement hétérogènes, avec des composantes kystiques et hémorragiques identifiées dans les 3 cas. Un traitement chirurgical a été pratiqué chez toute les patientes. L'étude de la pièce opératoire a montré une tumeur encapsulée dans les 3 cas. Aucune métastase n'a été mise en évidence.Conclusion : Les SPT doivent être considérées dans le diagnostic différentiel des masses pancréatiques pédiatriques, en particulier chez les adolescentes. Certaines caractéristiques radiologiques comme des masses volumineuses bien circonscrites, des lésions hétérogènes avec des zones kystiques et hémorragiques, de plus entourées d'une pseudocapsule fibreuse réactive, suggèrent fortement le diagnostic de SPT. Celui-ci devrait ensuite être confirmé par une biopsie avant que la résection chirurgicale soit effectuée. Chez les enfants, Γ écho graphie abdominale reste la méthode de première intention, suivie par l'IRM comme technique d'imagerie de choix pour évaluer les caractéristiques et l'extension de la lésion, tout en évitant l'exposition des patients aux rayonnements ionisants.
Resumo:
Chaque année, près de 14000 personnes sont victimes d'un accident vasculaire cérébral (AVC) en Suisse (1). Parmi elles, 3000-4000 individus décèdent des suites de leur attaque et environ 2000 personnes survivent avec des séquelles qui peuvent être relativement importantes. Cette affection a donc un poids non négligeable en terme de morbidité et de mortalité ; dans les pays indistrualisés, elle représente la première cause de handicap, la deuxième cause de démence ainsi que la troisième cause de mortalité. Il existe deux types d'AVC : les accidents ischémiques et les accidents hémorragiques (2,3). Dans environ 80% des cas, les AVC sont des accidents ischémiques, résultant d'une occlusion artérielle ou veineuse - les ischémies sur occlusion veineuse étant rares en comparaison de celles sur occulsion artérielle. En outre, on parle d'accident ischémiques transitoires (AIT) lorsque les symptomes sont spontanément résolutifs en moins de 24 heures. Les accidents hémorragiques, quant à eux, ne constituent qu'une minorité des AVC (20%) et sont secondaires à une rupture de vaisseau. La physiopathologie des différents types d'AVC a été particulièrement bien étudiée, ce qui a permis de mettre en évidence un certain nombre de causes. Un AVC peut donc être d'origine cardiaque (embole à point de départ cardiaque, fibrillation auriculaire), d'origine athéromateuse (embole sur plaque d'athéromatose des vaisseaux pré-cérébraux) ou encore, la conséquence directe d'une hypertension artérielle (maladie des petits vaisseaux, hémorragies intracérébrales) (3). Il existe également des causes un peu moins fréquentes, telles que les dissections aortiques, les ruptures d'anévrisme, les malformations artério-veineuses, les états pro-coagulants, les vasculites, la prise de toxiques. De nombreux facteurs de risque ont été mis en évidence (3). Certains d'entre eux, tels que l'âge, le sexe ou l'éthnie, ne sont pas modifiables. Mais il en est d'autres sur lesquels il est possible d'avoir un impact positif et leur identification fait donc partie intégrante du bilan de base chez les patients victimes d'AVC. Il s'agit de l'hypertension artérielle, du diabète, du tabagisme actif et de l'hypercholestérolémie. La présentation clinique de l'AVC est fonction du territoire vasculaire touché (3). Historiquement, la localisation et la compréhension des fonctions cérébrales ont été le fruit de corrélations anatomo-clinique puis radiologico-clinique (2). Dans la majorité des cas, on étudiait la partie commune à toutes les lésions de différents patients présentant un symptôme, et cette partie était présumée responsable de cette fonction. Néanmoins, le patient pouvait présenter d'autres symptômes associés, ce qui peut représenter un certain biais. A l'heure actuelle, l'imagerie fonctionnelle remplace progressivement ces corrélations radiologico- cliniques (2). Finalement, des études de cas isolés, avec lésions relativement circonscrites, ont également contribués à la compréhension des fonctions cérébrales (4-12). Le but principal de cette étude est d'analyser les syndromes cliniquement isolées (CIS, atteinte d'une fonction cérébrale, d'un segment corporel) dans le registre lausannois des accidents vasculaires cérébraux en terme de facteurs de risques, et de caractéristiques de l'AVC (origine, localisation) afin de déterminer des facteurs indépendants de survenue de telles atteintes, d'un point de vue général et pour chacune d'entre elles.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
La place de l'imagerie est essentielle au cours des infections pulmonaires. La TDM doit être effectuée en cas de forte suspicion clinique de pneumonie avec aspect radiographique normal, équivoque ou non spécifique, ce qui concerne particulièrement les sujets immunodéprimés. Elle permet de détecter les anomalies associées ou une affection sous-jacente, d'orienter un lavage broncho-alvéolaire ou de guider une biopsie pulmonaire percutanée ou transbronchique. Les expressions d'un germe peuvent varier selon le degré d'immunodépression. Il en est ainsi pour la tuberculose au cours du sida. Les germes impliqués varient selon le type d'immunodépression, certaines infections pouvant engager rapidement le pronostic vital. Le spectre radiologique de l'aspergillose pulmonaire, complexe, doit être connu, ce diagnostic devant être proposé dans des conditions particulières.
Resumo:
Mon projet de recherche s'est articulé autour des arythmies supraventriculaires chez les patients adultes porteurs d'une cardiopathie congénitale (Adults with Congenital Heart Disease ou ACHD). Grâce aux progrès de la chirurgie cardiaque et de la cardiologie, la survie à l'âge adulte des enfants nés avec une malformation cardiaque est excellente et la population des ACHD ne cesse de croître, tout en vieillissant. Les arythmies cardiaques sont une complication à long terme bien connue chez ces patients et une des principales causes de mortalité et de morbidité. Mon travail de recherche comporte une perspective épidémiologique avec une étude de population et une perspective anatomique, avec une étude d'imagerie cardiaque par échographie. 1. Étude épidémiologique : Arythmies auriculaires (AA) chez les patients porteurs d'une cardiopathie congénitale. Sous le titre anglais Atrial Arrhythmias in Adults with Congenital Heart Disease, cette étude a été publiée dans le journal américain Circulation. A travers les résultats de cette étude, j'ai démontré, pour la première fois dans une aussi grande population, que les AA étaient fréquentes chez les patients ACHD, que le risque à long-terme pour ces patients de développer des AA était élevé, et que le développement d'AA avait un impact négatif en termes de mortalité, de morbidité et d'intervention. 2. Étude anatomique : Les paramètres échographiques associés à la fibrillation auriculaire (FA) chez les patients adultes porteurs d'une cardiopathie congénitale. Sous le titre anglais Mirror image atrial dilatation in Adult Patients with Atrial Fibrillation and Congenital Heart Disease, cette étude a été publiée dans le journal américain International Journal of Cardiology, j'ai démontré dans cette étude que les patients ACHD avec une pathologie isolée du coeur gauche présentaient une dilatation progressive de l'oreillette gauche (OG) lorsqu'ils développaient de la FA. Chez les patients avec une pathologie isolée du coeur droit, j'ai décrit une image « miroir » : l'oreillette droite (OD) était toujours plus grande que l'OG βί présentait une dilatation progressive lors de FA. Ces résultats soutiennent l'hypothèse que la FA pourrait provenir de l'OD dilatée chez les patients ACHD avec une pathologie du coeur droit et ouvrent de nouvelles perspectives diagnostiques et thérapeutiques chez ces patients:
Resumo:
Objectifs L'embolisation de l'artère splénique (EAS) proximale serait mieux tolérée que la distale ou segmentaire, les mêmes objectifs cliniques étant remplis. Notre hypothèse est que l'EAS proximale aurait un taux de complications inférieur notamment concernant les infections et infarcissements. Matériels et méthodes Soixante-treize patients ont bénéficié d'une EAS proximale vs. distale ou segmentaire dans un centre universitaire sur une période de 5 ans. Les données cliniques et l'imagerie préinterventionnelle ont été revues avec détermination du grade de la lésion traumatique splénique et de la quantité d'hémopéritoine. Les complications dues à l'intervention, 0 = pas de complications à 3 = complications importantes, ont été identifiées par le suivi postinterventionnel. Résultats Les complications dues à l'EAS proximale (N=11, médian = 1,0, range = 0-2, moyenne = 0,64) ne différaient pas de manière significative par rapport à celles de l'EAS distale (N=62, médian = 1,0, range = 0-3, moyenne = 0,87), U=303,0, Z = − 0,63, p = 0,30, r = − 0,07. Conclusion L'EAS proximale est une intervention sûre et efficace. Elle démontre de façon non-significative moins de complications postinterventionnelles et en particulier pas de splénectomie secondaire supplémentaire par rapport à l'EAS distale. Ces résultats nous encouragent à poursuivre une étude prospective qui pourrait révéler un avantage significatif de l'EAS proximale.
Resumo:
Pour mieux diffuser la langue française au monde, une date a été choisie, 20 mars. Des manifestations, dans le monde entier, célèbrent le rayonnement de la langue française. C’est un événement riche en activités divers qui mobilise chaque année de nombreux institutions, missions diplomatiques et culturelles, associations et individus. Nous avons remarqué que la journée de la francophonie, c’est une date qui est célébrée aussi par les CapVerdiens, spécialement par les lycéens. Dans les différents lycées CapVerdiens, notamment Santiago et São Vicente, nous constatons que cette date c’est l’occasion pour les apprenants d’exprimer leur goût prononcé pour la scène. Que ce soit en sketchs ou en chansons, en déclamations poétiques ou en histoires drôles, les apprenants démontrent une fois, leur plaisir à jouer, chanter, et rire en langue française. C’est dans cette optique, que s’intègre ce mémoire dont l’objet est de vérifier ou non si ces activités ont un impact positif dans l’apprentissage de la langue française. Nous avons donc, proposé de traiter le thème : Les activités de la francophonie réalisées dans certaines écoles secondaires de Santiago et São Vicente– CapVert : leurs impactes sur l'apprentissage du français. Nous aborderons dans un premier temps, de façon théorique, l’histoire de la francophonie en nous référant à de nombreuses sources d’informations et ouvrages différents traitant du sujet. La francophonie est complexe, elle a des notions de communauté de pays, de peuple, de langue parlées, et de valeurs, c’est dans ce cadre que nous nous intéresserons dans la même partie à comprendre se qu'est la francophonie, ces différentes définitions et sens à elle accordé. Nous développerons, ensuite, le parcours de la langue française au CapVert, où nous analyserons sa présence et son introduction dans l'enseignement secondaire. De même, nous analyserons l'histoire de la francophonie dans cet archipel, où nous présenterons les raisons de l'adhésion du CapVert à l'Organisation International de la Francophonie, et les intérêts du CapVert comme membre de cette organisation. Nous observerons l’influence que le théâtre, le chant, la comédie musical, le sketch entre autres activités, ont sur le déroulement des cours que sur les activités extra scolaire. C’est dans cette optique que dans la troisième partie, nous ferons une étude de cas des activités de la francophonie réalisées par les apprenants dans les écoles secondaires de Santiago et São Vicente. Nous tenterons d’établir ainsi l’influence des différentes activités et l’adhésion des élèves et professeurs. Cette étude s’appuiera sur des questionnaires remis aux enseignants et apprenants. Finalement, nous proposerons des perspectives et des suggestions pour l’exploitation de ces activités en classe de langue. Dans cette partie, nous proposerons des stratégies qui permettront aux enseignants de développer une véritable dynamique dans leurs actions en consacrant davantage de leur temps aux animations en français dans les lycées.