15 resultados para Positron annihilation

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. Plusieurs maladies neurodégénératives bénéficieraient de meilleures ap-proches diagnostiques, dont la maladie d’Alzheimer. Celle-ci affecte en particulier les systèmes cholinergiques du SNC, et de nombreuses études d’imagerie ont tenté d’évaluer la dégénérescence de ce système à des fins diagnostiques, à l’aide de ligands radioactifs de diverses composantes du système ACh. En définitive, la plupart de ces études ne se sont pas montrées satisfaisantes. À la recherche de meilleures approches dans ce domaine, nous avons décidé d’évaluer les possibilités offertes par le (-)-[18F]Fluoroethoxy-benzovesamicol ((-)-[18F]FEOBV), un agent émetteur de positons se liant au VAChT de façon spécifique et réversible. Avant d’en arriver à une utilisation humaine cependant, une validation animale en plusieurs étapes s’avère nécessaire, mais celle-ci nous est apparue justifiée à la lumière de résultats d’études préliminaires en TEP chez le rat, qui se sont montrées très prometteuses. Nous nous sommes donc attaqués à la caractérisation du métabolisme de cet agent. Ceci a exigé, dans un premier temps, la mise au point d’une méthode chromatographique d’analyse des métabolites sanguins et, dans un deuxième temps, l’évaluation de ces métabolites et de leur cinétique chez le rat. Ces données permettront ultérieurement, chez l’humain, de procéder à des études quantitatives en TEP. Étude #1: Une fois les paramètres chromatographiques optimisés, le TR du (–)-FEOBV fut établi à 7.92 ± 0.18 minutes. Étude #2 : Le métabolisme in vivo s’est montré très rapide et temporellement variable, mais un seul métabolite hydrophile a été identifié. La fonction d’apport au cerveau du (–)-[18F]FEOBV a pu être établie après correction pour la présence du métabolite détecté. Conclusion. Dans l’ensemble, le (–)-[18F]FEOBV semble très prometteur en tant que marqueur biologique du système cholinergique pré-synaptique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consolidation est le processus qui transforme une nouvelle trace mnésique labile en ‎une autre plus stable et plus solide. Une des tâches utilisées en laboratoire pour ‎l’exploration de la consolidation motrice dans ses dimensions comportementale et ‎cérébrale est la tâche d’apprentissage de séquences motrices. Celle-ci consiste à ‎reproduire une même série de mouvements des doigts, apprise de manière implicite ou ‎explicite, tout en mesurant l’amélioration dans l’exécution. Les études récentes ont ‎montré que, dans le cas de l’apprentissage explicite de cette tâche, la consolidation de la ‎trace mnésique associée à cette nouvelle habileté dépendrait du sommeil, et plus ‎particulièrement des fuseaux en sommeil lent. Et bien que deux types de fuseaux aient ‎été décrits (lents et rapides), le rôle de chacun d’eux dans la consolidation d’une ‎séquence motrice est encore mal exploré. En effet, seule une étude s’est intéressée à ce ‎rôle, montrant alors une implication des fuseaux rapides dans ce processus mnésique ‎suite à une nuit artificiellement altérée. D’autre part, les études utilisant l’imagerie ‎fonctionnelle (IRMf et PET scan) menées par différentes équipes dont la notre, ont ‎montré des changements au niveau de l’activité du système cortico-striatal suite à la ‎consolidation motrice. Cependant, aucune corrélation n’a été faite à ce jour entre ces ‎changements et les caractéristiques des fuseaux du sommeil survenant au cours de la nuit ‎suivant un apprentissage moteur. Les objectifs de cette thèse étaient donc: 1) de ‎déterminer, à travers des enregistrements polysomnographiques et des analyses ‎corrélationnelles, les caractéristiques des deux types de fuseaux (i.e. lents et rapides) ‎associées à la consolidation d’une séquence motrice suite à une nuit de sommeil non ‎altérée, et 2) d’explorer, à travers des analyses corrélationnelles entre les données ‎polysomnographiques et le signal BOLD (« Blood Oxygenated Level Dependent »), ‎acquis à l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), ‎l’association entre les fuseaux du sommeil et les activations cérébrales suite à la ‎consolidation de la séquence motrice. Les résultats de notre première étude ont montré ‎une implication des fuseaux rapides, et non des fuseaux lents, dans la consolidation ‎d’une séquence motrice apprise de manière explicite après une nuit de sommeil non ‎altérée, corroborant ainsi les résultats des études antérieures utilisant des nuits de ‎sommeil altérées. En effet, les analyses statistiques ont mis en évidence une ‎augmentation significative de la densité des fuseaux rapides durant la nuit suivant ‎l’apprentissage moteur par comparaison à la nuit contrôle. De plus, cette augmentation ‎corrélait avec les gains spontanés de performance suivant la nuit. Par ailleurs, les ‎résultats de notre seconde étude ont mis en évidence des corrélations significatives entre ‎l’amplitude des fuseaux de la nuit expérimentale d’une part et les gains spontanés de ‎performance ainsi que les changements du signal BOLD au niveau du système cortico-‎striatal d’autre part. Nos résultats suggèrent donc un lien fonctionnel entre les fuseaux ‎du sommeil, les gains de performance ainsi que les changements neuronaux au niveau ‎du système cortico-striatal liés à la consolidation d’une séquence motrice explicite. Par ‎ailleurs, ils supportent l’implication des fuseaux rapides dans ce type de consolidation ; ‎ceux-ci aideraient à l’activation des circuits neuronaux impliqués dans ce processus ‎mnésique et amélioreraient par la même occasion la consolidation motrice liée au ‎sommeil.‎

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire définira ce qu’on entend par modernité et postmodernité, tout en juxtaposant ces concepts philosophiques au cinéma pratiqué par le documentariste Pierre Perrault. Les modernistes influencés par les Lumières ont toujours considéré les progrès scientifiques comme des avancées nécessaires à l’atteinte d’une béatitude universelle. Pour eux, le salut des sociétés nécessite un passage du côté de la science, du rationalisme. Le problème avec une telle démarche est que tout discours qui se dissocie de la rationalité est immédiatement annihilé au profit d’une (sur)dominance du progrès. Il ne s’agit pas de dire que la modernité est à proscrire – loin de là! –, mais il serait temps d’envisager une remise en question de certaines de ses caractéristiques. La postmodernité, réflexion critique popularisée par Jean-François Lyotard, s’évertue à trouver des pistes de solution pour pallier à cette problématique. Elle est une critique de la domination exagérée des sciences dans la compréhension de notre monde. Il existe pourtant d’autres façons de l’appréhender, tels les mythes et les croyances. Ces récits irrationnels cachent souvent en eux des valeurs importantes (qu’elles soient d’ordre moral, écologique ou spirituel). Or, l’œuvre de Perrault regorge de ces petites histoires communautaires. Les deux films choisis pour notre travail – Le goût de la farine (1977) et Le pays de la terre sans arbre ou le Mouchouânipi (1980) – en sont l’exemple prégnant. Chacun d’eux présente des traditions autochtones (celles des Innus) opposées à la dictature du progrès. Et cette même opposition permet au réalisateur de forger un discours critique sur une modernité prête à tout pour effacer les coutumes uniques. Le cinéaste agit ainsi en postmoderniste, offrant une réflexion salutaire sur les pires excès véhiculés par les tenants du progrès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente à la fois des résultats de simulations numériques en plus de ré- sultats expérimentaux obtenus en laboratoire sur le rôle joué par les défauts de structure dans le silicium amorphe. Nos travaux de simulation numérique furent réalisés avec une nouvelle méthode de simulation Monte-Carlo cinétique pour décrire l’évolution tempo- relle de modèles de silicium amorphe endommagés sur plusieurs échelles de temps jus- qu’à une seconde à la température pièce. Ces simulations montrent que les lacunes dans le silicium amorphe sont instables et ne diffusent pas sans être détruites. Nous montrons également que l’évolution d’un modèle de silicium amorphe endommagé par une colli- sion ionique lors d’un recuit peut être divisée en deux phases : la première est dominée exclusivement par la diffusion et la création/destruction de défauts de liaison, alors que la deuxième voit les créations/destructions de liens remplacées par des échanges de liens entre atomes parfaitement coordonnés. Les défauts ont aussi un effet sur la viscosité du silicium amorphe. Afin d’approfondir cette question, nous avons mesuré la viscosité du silicium amorphe et du silicium amorphe hydrogéné sous l’effet d’un faisceau d’ions. Nous montrons que la variation de la viscosité dans les deux matériaux est différente : le silicium amorphe hydrogéné a une viscosité constante en fonction de la fluence des ions alors que le silicium amorphe pur a une viscosité qui augmente de façon linéaire. Pour de faibles fluences, la viscosité du silicium hydrogéné est plus grande que la viscosité sans hydrogène. La présence d’hydrogène diminue également l’amplitude de la variation logarithmique de la contrainte observée lors de la relaxation à la température de la pièce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La partie création de ce mémoire se veut soutenue par une tension narrative reliée à la curiosité suscitée par le personnage principal, de prime abord énigmatique, qui se dévoile de façon capricieuse par un changement constant de focalisation et de temporalité. Nathan vit à une ère où l’humanité a frôlé l’extinction, et où tout est à repenser après l’annihilation du virus ramenant les morts à la vie. N’ayant pas été témoin de ces horreurs, ses plus grandes préoccupations concernent son cheminement vers l’authenticité. Saltimbanque de métier, il voyage de communauté en communauté, où chacune a fait ses choix pour recréer le monde. Sa volonté de prôner l’art dans un processus de reconstruction sociale et sa poursuite d’une image perdue le pousseront toujours plus loin dans ses pérégrinations; vers des réalités qui le conduiront à redéfinir son univers. La partie essai s’interroge sur les procédés formant la tension narrative des romans d’Émile Ajar, pseudonyme laissant deviner la plume expérimentée de Romain Gary qui se réinvente dans l’anonymat. L’attention est centrée sur les jeux de narration, le rôle actanciel des personnages et l’orchestration formelle des récits, à savoir s’ils sont assez similaires pour lier les opus et les constituer en une série unifiée. Cette réflexion à la recherche de l’essence de l’oeuvre ajarienne, touchante par ses antihéros souvent démunis dans leur quête existentielle, a été une inspiration pour la rédaction de Le jour où la Terre en avait vu d’autres. Les rêves de Nathan sont racontés à la première personne, rejoignant certaines modalités ajariennes où la psyché des protagonistes se révèle par une narration au “je”. Les questionnements sur la tension narrative ont été déclencheurs de cette première démarche d’écriture romanesque, même si elle est située dans un cadre complètement autre et use d’une plume bien différente de celle d’Ajar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente mes travaux ayant menés au développement d’une première génération de radioligands marqués au fluor-18 (t1/2 = 110 min) et au carbone-11 (t1/2 = 20.4 min) destinés à l’imagerie cérébrale in vivo du récepteur tyrosine kinase neurotrophique de type 2 (TrkB) en tomographie par émission de positons (TEP). Ces travaux reposent sur l’identification récente de ligands de TrkB non peptidiques à hautes affinités dérivés du 7,8-dihydroxyflavone. La synthèse d’une série de dérivés du 7,8-dihydroxyflavone non-radioactifs de même que des précuseurs à l’incorporation du fluro-18 et du carbone-11 a d’abord été effectuée. Partant des précurseurs adéquats synthétisés, la radiosynthèse de deux radioligands, l’un marqué au fluor-18 et l’autre au carbone-11, a été développée. Ces radiosynthèses reposent respectivement sur une 18F-radiofluorination nucléophile aromatique nouvelle et hautement efficace et sur une 11C-méthylation N-sélective. Les radiotraceurs de TrkB ainsi obtenus ont ensuite été évalués in vitro en autoradiographie et in vivo en tant que traceurs TEP dans des rats. L’évaluation des propriétés physico-chimique de même que de la stabilité in vitro des radiotraceurs sont présentées. Partant d’une série d’analogues cristallisés de ces flavones synthétiques, une étude de relation structure-activité a été menée. La combinaison de cette étude, de pair avec l’évaluation in vivo de la première génération de radiotraceurs de TrkB a aussi permis d’investiguer les pharmacophores nécessaires à l’affinité de ces ligands de même que d’identifier des fragments structurels associés au métabolisme des radiotraceurs. La radiosynthèse d’un troisième radioligand de TrkB et son évaluation TEP in vivo de même que la mise en lumière des modifications structurelles utiles au développement d’une seconde génération de radioligands de TrkB avec des propriétés optimisées pour fin d’imagerie TEP sont aussi détaillés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stimulation du nerf vague (SNV) a reçu l’approbation de Santé Canada en 2001, comme en Europe, pour le traitement de la dépression réfractaire et en 2005 aux États-Unis. Les études européennes et américaines rapportent un taux de réponse de 50% et de rémission de 30% après un an de traitement. La sélection des patients, encadrée par la recherche de marqueurs biologiques et des critères de résistance, pourrait contribuer à améliorer les taux de réponse. Cette étude décrit le suivi des patients ambulatoires souffrant de dépression réfractaire, d’un spectre unipolaire ou bipolaire (n=13) sous SNV. Une révision exhaustive de l’histoire médicale et thérapeutique précède une évaluation clinique intensive. Si un consensus d’équipe est obtenu, une investigation clinique à la recherche des marqueurs biologiques est effectuée. Ceci inclut une tomographie par émission de photons simples (SPECT), une tomographie par émission de positrons (TEP), une formule sanguine complète, un test de suppression à la dexaméthasone (DST), une collecte d’urine 24h (catécholamines et cortisol), une polysomnographie et une évaluation neuropsychologique abrégée. Après 1 an de traitement, 61,5% (8/13) des patients ont atteint le seuil de réponse (diminution de 50% des symptômes), dont 87.5% (7/8) en rémission. Les patients diagnostiqués d’un trouble bipolaire, présentant un DST anormal et/ou avec déficits cognitifs ont répondu au traitement et poursuivent leur rémission après 2 ans. Une sélection minutieuse des patients pour le SNV serait une méthode efficace pour traiter les dépressions réfractaires, notamment pour prévenir les rechutes, amenant un état euthymique durable pour la plupart des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’œuvre de Nelly Arcan s’inscrit dans un pan de la littérature contemporaine accueillant les monstres comme figures de la transgression qui, par leur é-normité, interrogent la norme dont ils s’écartent. Ces êtres à la fois fascinants et inquiétants hantent la littérature depuis les récits fondateurs de la mythologie antique. Arcan, à l’instar de plusieurs femmes auteurs, recourt au procédé de la réécriture de plusieurs grands mythes grecs dans Folle (2004) et À ciel ouvert (2007). Dans les deux récits, elle met en scène des personnages en fuite qui, face à leur destin néfaste, se métamorphosent en femmes-monstres et en hommes-monstres. Les personnages masculins empruntent des traits à Jason, Narcisse et Pygmalion, mais sont, par leur déviance sexuelle et leur propension à la domination, beaucoup plus monstrueux que leurs modèles antiques. Contaminées par la monstruosité des hommes qu’elles aiment jusqu’à l’annihilation de soi, les protagonistes des deux récits affichent certains traits de Médée, de Méduse et des Amazones, tirant parti de la puissance de ces figures nocives pour donner une leçon aux personnages masculins. Elles acquièrent ainsi de nouveau leur statut de sujet. Dans ce mémoire, il s’agira, par le biais de la mythocritique, des théories de la réécriture et de l’effet-personnage, d’étudier les causes, le processus et les effets du « devenir-monstre » des personnages féminins et d’examiner la reconfiguration de mythes antiques par Arcan. En s’intéressant à la greffe des mythes antiques sur les personnages arcaniens, au déplacement et au renversement des mythèmes caractéristiques des figures prédécesseures, cette recherche espère montrer comment Nelly Arcan dissèque les relations de couple qui mènent au « devenir-monstre » des partenaires. Il ressortira de cette analyse une vision apocalyptique du vivre ensemble, entre hommes et femmes, qui rejoue l’ancienne « guerre des sexes » que l’on croyait terminée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.