14 resultados para Stimulation transcrânienne par courant direct
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Résumé : Introduction: La douleur chronique et les problèmes de sommeil ont un impact significatif sur la qualité de vie. La prévalence de ces deux conditions augmente substantiellement avec l’âge. L’objectif de cette étude était d’évaluer la faisabilité d’une étude randomisée, contrôlée par placebo et de recueillir des données sur l’efficacité de la stimulation transcrânienne par courant direct (tDCS) pour réduire la douleur et améliorer le sommeil chez des aînés souffrant de douleur chronique d’origines musculo-squelettique. Méthodes: Quatorze patients souffrant de douleur chronique et de problèmes de sommeil ont reçu cinq séances quotidiennes consécutives de tDCS anodique appliquée au cortex moteur primaire (2 mA, 20 minutes) ou cinq séances de tDCS simulée de manière randomisée. L’intensité de la douleur était mesurée avec une échelle visuelle analogue et les paramètres de sommeil avec l’actigraphie. Pendant toute la durée de l’étude, des journaux de bord de douleur et de sommeil étaient aussi utilisés afin de mesurer l'effet de la tDCS sur la douleur et le sommeil du quotidien des participants. Résultats: Les résultats indiquent que la tDCS réelle engendre une analgésie de 59 %, alors que la tDCS simulée ne réduit pas la douleur (p < 0,05). Par contre, aucun changement n’a été observé au niveau des paramètres de sommeil (tous les p ≥ 0,18). Conclusion: Il appert que cinq séances de tDCS anodique appliquée au niveau du cortex moteur primaire seraient efficaces pour réduire la douleur des aînés souffrant de douleur chronique, mais pas pour améliorer leur sommeil. De futures études seront nécessaires afin de déterminer si d’autres paramètres de stimulation pourraient avoir un impact sur le sommeil et si ces résultats peuvent être reproduits en utilisant un plus grand nombre de patients.
Resumo:
Résumé : L’interaction entre la douleur et le système moteur est bien connue en clinique et en réadaptation. Il est sans surprise que la douleur est un phénomène considérablement invalidant, affectant la qualité de vie de ceux et celles qui en souffrent. Toutefois, les bases neurophysiologiques qui sous-tendent cette interaction demeurent, encore aujourd’hui, mal comprises. Le but de la présente étude était de mieux comprendre les mécanismes corticaux impliqués dans l’interaction entre la douleur et le système moteur. Pour ce faire, une douleur expérimentale a été induite à l’aide d’une crème à base de capsaïcine au niveau de l’avant-bras gauche des participants. L'effet de la douleur sur la force des projections corticospinales ainsi que sur l’activité cérébrale a été mesuré à l’aide de la stimulation magnétique transcrânienne (TMS) et de l’électroencéphalographie (EEG), respectivement. L’analyse des données EEG a permis de révéler qu'en présence de douleur aiguë, il y a une augmentation de l’activité cérébrale au niveau du cuneus central (fréquence têta), du cortex dorsolatéral préfrontal gauche (fréquence alpha) ainsi que du cuneus gauche et de l'insula droite (toutes deux fréquence bêta), lorsque comparée à la condition initiale (sans douleur). Également, les analyses démontrent une augmentation de l'activité du cortex moteur primaire droit en présence de douleur, mais seulement chez les participants qui présentaient simultanément une diminution de leur force de projections corticales (mesurée avec la TMS t=4,45, p<0,05). Ces participants ont également montré une plus grande connectivité entre M1 et le cuneus que les participants dont la douleur n’a pas affecté la force des projections corticospinales (t=3,58, p<0,05). Ces résultats suggèrent qu’une douleur expérimentale induit, chez certains individus, une altération au niveau des forces de projections corticomotrices. Les connexions entre M1 et le cuneus seraient possiblement impliquées dans la survenue de ces changements corticomoteurs.
Resumo:
Introduction : Un hypométabolisme du glucose au cerveau peut apparaître des décennies avant le diagnostic de maladie d’Alzheimer. Pourtant, le métabolisme des cétones, le carburant alternatif principal au glucose, n’est pas altéré, autant chez les personnes plus âgées que chez les personnes atteintes de la maladie d’Alzheimer. Les méthodes connues (diète cétogène, jeûne, huile de triglycérides de moyennes chaînes) pour augmenter la production de cétones comportent leurs inconvénients. L’objectif de ces projets était de vérifier l’efficacité de produits commerciaux vendus à cet effet et d’évaluer d’autres molécules qui pourraient être utilisées pour leur propriété cétogène. Ce sont des suppléments alimentaires pouvant servir de substrat pour la cétogenèse (butyrate, monoglycéride d’octanoate (O-MAG), leucine) ou de facilitateur du transport des acides gras (carnitine). Méthodes : Pour ce faire, les participants devaient se présenter au laboratoire pour plusieurs demi-journées d’étude d’une durée de 4 heures. Lors de ces journées, un des suppléments leur était servi avec un déjeuner et des prises de sang étaient effectuées toutes les 30 minutes. Résultats : Le produit commercial contenant des MCT, le butyrate, l’O-MAG et la leucine ont permis d’augmenter respectivement les concentrations maximales en cétones plasmatiques de 568, 226, 67 et 70 µmol/L (p≤0,05) par rapport au contrôle. De plus, la concentration plasmatique en octanoate était corrélée significativement avec la concentration sanguine d’acétoacétate (r=0,85 ; p <0,0001) et de β-hydroxybutyrate (r=0,58 ; p=0,01). L’aire sous la courbe par gramme de produit ingéré montre que le butyrate était le supplément cétogène le plus efficace et était plus cétogène que le produit commercial, l’O-MAG et la leucine (p=0,009). Discussion : Le butyrate était 3 fois plus cétogène que tous les autres suppléments testés. Par contre, son ingestion a causé quelques effets secondaires à certains participants. La leucine a été le seul supplément à ne créer aucun inconfort chez les participants. Il faudrait donc étudier la possibilité de combiner plusieurs molécules dans un supplément chimiquement pensé pour être le plus efficace possible et pour être intéressant lors d’une utilisation quotidienne.
Resumo:
La présente recherche porte sur la cohérence et la cohésion qu'il existe dans l'expression orale d'un jeune dysphasique du premier cycle du secondaire et dans la production écrite effectuée par celui-ci. Compte tenu du problème de langage parlé que présente entre autres la dysphasie, le risque de trouver le même problème est possiblement présent dans la production écrite. Cela a des répercussions au niveau scolaire dans l'expression de ses idées, l'apprentissage de l'écriture, peut-être même dans la compréhension de ce qu'il écoute et lit. Non seulement, cela a-t-il des conséquences dans les résultats académiques, mais aussi dans les relations sociales avec ses pairs et ses enseignants puisqu'il ne saisit pas certains énoncés du langage tels que des jeux de mots ou des métaphores. De plus, il a de la difficulté à exprimer clairement ses idées et ses opinions. Ces obstacles à l'expression orale et celle écrite peuvent éventuellement marginaliser le jeune dysphasique et le démotiver. Des études ont mis en évidence qu'il existe une relation entre le langage parlé et l'apprentissage de l'écriture : si le jeune dysphasique éprouve des difficultés à s'exprimer oralement, il en sera de même dans la production écrite. Toutefois, d'autres études démontrent que l'apprentissage de l'écriture aide à améliorer le langage oral. Toutes ces études ont été effectuées sur de jeunes enfants au niveau préscolaire ou au primaire; elles ont été faites à partir de textes narratifs restitués par des jeunes n'ayant par de problème de langage. Notre recherche, qui est exploratoire et descriptive, concerne des jeunes du premier cycle du secondaire et la collecte de données s'est faite à partir d'un texte courant. Elle visait deux objectifs spécifiques : premièrement, analyser la cohérence et la cohésion dans la restitution orale et celle écrite d'un sujet tout-venant et dans celles d'un jeune dysphasique; et deuxièmement, décrire les relations entre les restitutions des deux sujets. Pour ce faire, la collecte de données s'est déroulée de la manière suivante : nous avons demandé à deux jeunes de deuxième et troisième secondaires, l'un, tout-venant et l'autre, dysphasique, de restituer ce qu'ils se rappelaient de l'écoute d'un texte à dominante descriptive laquelle leur a été faite à tour de rôle. Dans un premier temps, ils devaient rappeler oralement le contenu du texte lu, et dans un deuxième temps, ils devaient écrire ce dont ils se souvenaient du même texte. Une fois les restitutions orales transcrites sous forme de Verbatim, elles ont été, tout comme les restitutions écrites, décrites et comparées entre elles selon les critères suivants : la cohérence (intégration et hiérarchisation et la cohésion (récurrence, coréférence, contiguïté sémantique et connecteurs). Les résultats obtenus montrent d'abord que les restitutions orales et écrites présentent des similitudes quant à la cohérence et la cohésion. Les restitutions écrites sont légèrement plus détaillées, c'est-à-dire quelques idées ont été ajoutées ou précisées. Par exemple, dans la restitution orale, comme dans celle écrite, le sujet tout-venant mentionne que les fourmis d'Argentine pourraient être "dangereuses pour les arbres fruitiers". Dans sa restitution écrite, il ajoute comme informations que ces insectes "aiment le sucre" et qu'elles "vont dans les maisons". Les observations montrent aussi une différence entre les restitutions du jeune toutvenant et celles du jeune dysphasique. Ce dernier rappelle les informations du texte de façon cohérente et presque complète alors que le sujet tout-venant ne restitue que les informations de la première partie, et ce, de la façon la plus simple, soit par l'énumération sans connecteurs autres que ceux de l'énumération. Par contre, le sujet tout-venant maîtrise les procédés cohésifs mieux que le sujet dysphasique. Quant à ce dernier, il semble mieux réussir à l'écrit qu'à l'oral. La compréhension des informations de façon globale et, peut-être, le type de texte influencent les résultats dans le rappel des informations. Le sujet dysphasique peut restituer les idées, et ce, de façon structurée s'il saisit bien l'idée globale du texte qu'il lui a été lu, mais la microstructure est moins maîtrisée, sauf l'utilisation des connecteurs qui a probablement un lien plus étroit - que les autres procédés cohésifs - avec la cohérence et la compréhension des idées. Donc, à partir de l'analyse des restitutions orale et écrite, il semble que le trouble de langage aurait des répercussions au niveau des procédés de la cohésion, sauf dans le cas des connecteurs. L'utilisation de ceux-ci et les procédés de cohérence sont maîtrisés par le jeune dysphasique qui a compris le contenu du texte qui lui a été lu.
Resumo:
L'identité et la réactivité cellulaires sont établies, maintenues et modulées grâce à l'orchestration de programmes transcriptionnels spécifiques. Les éléments régulateurs, des régions particulières de la chromatine responsables de l'activation ou de la répression des gènes, sont au coeur de cette opération. Ces dernières années, de nombreuses études ont révélé le rôle central des « enhancers » dans ce processus. En effet, des centaines de milliers « enhancers » seraient éparpillés dans le génome humain, majoritairement dans sa portion non-codante, et contrairement au promoteur, leur activation varierait selon le type ou l'état cellulaire ou en réponse à une stimulation physiologique, pathologique ou environnementale. Les « enhancers » sont, en quelque sorte, des carrefours où transitent une multitude de protéines régulées par les signaux intra- et extra-cellulaires et un dialogue s'établit entre ces diverses protéines et la chromatine. L'identification des « enhancers ainsi qu'une compréhension de leur mode de fonctionnement sont donc cruciales, tant au plan fondamental que clinique. La chromatine joue un rôle indéniable dans l'activité des éléments régulateurs, tant par sa composition que par sa structure, en régulant, entre autres, l'accessibilité de l'ADN. En effet, l'ADN des régions régulatrices est bien souvent masqué par un nucléosome occlusif, lequel doit être déplacé ou évincé afin de permettre la liaison des protéines régulatrices, notamment les facteurs de transcription (FTs). Toutefois, la contribution de la composition de la chromatine à ce processus reste incomprise. Le variant d'histone H2A.Z a été identifié comme une composante de la chromatine aux régions accessibles, dont des « enhancers » potentiels. Toutefois son rôle y est inconnu, bien que des études récentes suggèrent qu'il pourrait jouer un rôle important dans la structure de la chromatine à ces régions. Par ailleurs, un lien étroit existe entre H2A.Z et la voie de signalisation des oestrogènes (notamment la 17-[beta]-estradiol (E2)). Ainsi, H2A.Z est essentiel à l'expression de plusieurs gènes cibles de l'E2. Les effets de l'E2 sont en partie exercés par un FT, le récepteur alpha des oestrogènes (ER[alpha]), lequel se lie à l'ADN suite à son activation, et ce majoritairement à des « enhancers », et permet l'établissement d'un programme transcriptionnel spécifique. Cette thèse vise à définir le rôle d'H2A.Z aux « enhancers », et plus particulièrement son influence sur l'organisation des nucléosomes aux « enhancers » liés par ER[alpha]. D'abord, mes travaux effectués à l'échelle du génome ont démontré qu'H2A.Z n'est présent qu'à certains ER[alpha]-« enhancers » actifs. Cette particularité a fait en sorte que nous avons pu comparer directement les « enhancers » actifs occupés par H2A.Z à ceux non-occupés, afin de mettre en évidence sa relation à l'environnement chromatinien. Étonnamment, il est apparu qu'H2A.Z n'introduit pas une organisation unique ou particulière des nucléosomes aux « enhancers ». Par ailleurs, nos résultats montrent qu'H2A.Z joue un rôle crucial dans la régulation de l'activité des « enhancers ». En effet, nous avons observé que suite à leur activation par l'E2, les « enhancers » occupés par H2A.Z recrutent l'ARN polymérase II (ARNPII) et produisent un transcrit. Ils recrutent également RAD21, une composante du complexe cohésine impliqué, entre autres, dans des interactions chromosomiques entre « enhancers » et promoteurs. De façon intéressante, nous avons mis en évidence que ces trois évènements, connus pour leur importance dans l'activité des « enhancers », sont dépendants d'H2A.Z. Ainsi, la présence d'H2A.Z à l' « enhancer » pourrait permettre un environnement chromatinien favorable à trois aspects clés de l'activité des « enhancers » : la présence de l'ARNPII, la transcription et la formation d'une boucle d'interaction, et par la suite, de par la proximité « enhancer »-promoteur ainsi créée, augmenter la concentration d'ARNPII à proximité du promoteur favorisant l'expression du gène cible. Un tel rôle central d'H2A.Z dans l'activité d' « enhancers » spécifiques pourrait participer à un mécanisme épigénétique ciblé de la régulation de l'expression des gènes.
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Bloom (1968) et Keller (1968) élaborèrent presque simultanément leur modèle d'organisation de l'enseignement. Ces modèles, la pédagogie de la maîtrise (mastery learning) et le système d'enseignement personnalisé (personalized system of instruction), quoique s'appuyant sur des contextes théoriques différents, possèdent plusieurs caractéristiques communes et fournissent un traitement pédagogique différencié selon le rendement démontré par l'élève. Les recherches entreprises sur les deux modèles, depuis la fin des années soixante, peuvent être divisées en deux courants de recherches. Un de ces courants évalue l'influence globale des modèles sur des variables comme le rendement scolaire, le degré de rétention de l'apprentissage, l'intérêt envers le contenu pédagogique, le concept de soi, le temps consacré à l'apprentissage, etc. Les premiers résultats des écrits expérimentaux de ce courant de recherche semblent convergés. Kulik, Jaska et Kulik (1978), dans une recension des écrits expérimentaux sur le système d'enseignement personnalisé appliqué au niveau collégial et universitaire, concluent que l'application de ce système entraine une amélioration du rendement scolaire et du niveau de rétention de l'apprentissage. Block et Burns (1976) parviennent à des conclusions semblables dans leur recension des écrits expérimentaux sur l'utilisation des deux modèles du niveau élémentaire au niveau universitaire. Un autre courant de recherche s'est appliqué à isoler l'effet spécifique des différentes composantes des modèles sur le rendement scolaire (Block et Burns, 1976; Kulik, Jaska et Kulik, 1978). L'effet spécifique des différentes composantes des modèles sur d'autres variables comme le temps consacré à l'apprentissage ou l'intérêt pour le contenu pédagogique n'a pas été, à notre connaissance, étudié jusqu'ici. Cette étude s'inscrit dans ces deux courants de recherche. Elle s'intéresse principalement à l'influence globale d'un ensemble de caractéristiques des deux modèles sur le rendement scolaire d'élèves en difficulté d'apprentissage de niveau primaire, ainsi qu'à l'effet d'une de ces caractéristiques sur le temps requis par ces élèves pour maîtriser leur apprentissage.
Resumo:
La lecture constitue certainement le domaine que l'école privilégie le plus au niveau des apprentissages scolaires. En fait c'est sur l'écrit que vont reposer tous les autres apprentissages scolaires (mathématiques, sciences, etc... ) et c'est pourquoi, dans le contexte actuel de l'école, il nous apparaît nécessaire de faciliter les premiers pas de l'apprentissage lexique en recourant à des programmes préventifs. À partir de l'étude des troubles d'apprentissage naît, la notion de maturité pour apprendre à lire. Celle-ci est d'abord associée à l'âge mental. Par la suite, elle est liée à d'autres facteurs tels que l’acuité visuelle, auditive et articulatoire, aux méthodes d'apprentissage, au développement social et émotionnel, etc. Vers les années 40, A.J. Barris lance l'idée de programmes de "Reading readiness" ou de préparation à l'apprentissage de la lecture. À partir de cette idée, une autre fait son apparition, soit l'importance de l’expérience chez l'enfant pour le préparer à un quelconque apprentissage. Cette expérience se développe au sein de la famille et de la classe maternelle au moyen de la sensori-motricité et de l'apport des facteurs instrumentaux. Pour arriver à trouver des variables reliées directement à la réussite en apprentissage lexique, les chercheurs utilisent les tests déjà en place ou en créent d'autres. Ainsi, ils essaient de trouver des corrélations entre des épreuves et la réussite en lecture. Enfin, la théorie américaine de l'enfant ayant des troubles d'apprentissage, "the learning disabled", contribue à l'essor de la prédictivité de ces difficultés par des tests et·leur prévention par différents exercices. Ce même mouvement de prévention se retrouve en Europe au niveau de l'apprentissage lexique. Pour nous, en explorant la conception de l'apprentissage lexique à travers différents auteurs, de sa préparation par l'apport des pré-requis et en examinant les notions d'aptitude à apprendre à lire et des difficultés reliées à cette préparation, nous nous sommes attardé à l'importance des pré-requis face au succès en apprentissage de la lecture. C'est à partir d'opinions et de découvertes de différents auteurs sur la nécessité de préparer les enfants à l'apprentissage, que nous avons décidé de présenter un projet de recherche mettant l'accent sur la nécessité des pré-requis à l'apprentissage lexique. Nous avons retenu parmi ces pré-requis ceux que l'on qualifie de facteurs instrumentaux.
Resumo:
Dans une courte revue de la littérature, nous avons vu que les enfants issus de milieux socio-économiquement défavorisés possèdent des caractéristiques linguistiques propres, définies surtout par un manque de spécification dans les termes et les structures sémantiques utilisées. Nous nous sommes donc demandé si un programme approprié de stimulation du langage aurait des conséquences heureuses sur le développement de la spécificité sémantique des jeunes enfants. À partir d'un questionnaire permettant d'évaluer le statut socio-économique familial, nous avons défini deux groupes d'enfants de niveau maternelle issus de milieux défavorisés. Un de ces groupes équivalents fut soumis â un programme spécifique d'intervention au niveau du langage, en l'occurrence le programme Peabody. Visant la stimulation de l'expression orale et le développement de l'intelligence verbale, le Peabody misait surtout sur l'entraînement global du langage oral plutôt qu'un entraînement spécifique dans des processus psycho-linguistiques déterminés. Notre objectif initial visait l'administration de 120 leçons sur une possibilité de 180. Néanmoins, cet objectif ne s'est pas réalisé puisqu'une moyenne de 50 leçons seulement furent couvertes par chaque jardinière. [...]
Resumo:
Notre choix d'étude s'est arrêté sur une méthode évaluative afin de nous familiariser avec ce processus et en faire un usage courant à tous les programmes dans lesquels nous sommes impliqués de par nos fonctions. Cette étude vise à évaluer si les objectifs du programme aux âgés du Centre de Services Sociaux du Centre du Québec, élaborés par la direction des services professionnels, ont été atteints, quels impacts ils ont eu sur la communauté âgée du territoire de la succursale de Drummondville, et voir ensuite les améliorations à y apporter. Il s'agit de faire une analyse de type évaluatif afin de connaître l'effet du programme aux âgés sur la population concernée. Après l'étude sommaire de quelques modèles d'évaluation, celui de Perry L. Levinson nous semble le plus apte à répondre aux objectifs de l'étude et aux moyens dont nous disposons. À l'aide de ce modèle, nous pourrons vérifier à combien de personnes âgées des Services ont été rendus, si la stratégie d'action a été efficace, si les ressources humaines ont été bien utilisées et en nombre suffisant, s'il y a eu des résultats imprévus et lesquels. L'étude porte sur deux ans d'opération, soit du 1er novembre 1977 au 31 octobre 1979. Après avoir établi les objectifs du programme aux âgés, nous fournirons des données sur la description du territoire et sur la population âgée, nous expliquerons les deux organigrammes de fonctionnement, soit celui avant 1977 et celui après 1977, qui ont eu des répercussions sur l'opérationalisation dudit programme. Nous traiterons des intrants injectés et de la population âgée qui a été atteinte. Le lecteur pourra retrouver une synthèse de l'évaluation du programme faite par l'ensemble des professionnels qui ont travaillé à sa réalisation ainsi qu'une analyse de variables intermédiaires.
Resumo:
Les coopératives sont un modèle de développement qui repose sur un équilibre entre la justice sociale et économique, la durabilité de l'environnement et l'efficacité économique à travers un système de démocratisation de l'économie. Une double vocation leur est attribuée, l'aspect financier et l'aspect associatif. Les coopératives sont des entreprises collectives qui assurent conséquemment une gestion collective et une propriété collective des moyens de production. Tout projet de développement en coopération a comme finalité, à travers un ensemble d'actions, d'opérer un changement durable dans la société. Les coopératives suggèrent un contrat social et économique différent du système économique dominant. Les coopératives financières(ce terme a été retenu dans cet essai parmi les différentes appellations de ce type d'entreprise collective qui se regroupent dans un mode de gestion collective comparative : coopératives d'épargne et de crédit, caisses populaires, mutuelle, COPEC, CEC...), de par leur nature spécifique, se distinguent de la configuration économique du système bancaire traditionnel lequel s'inscrit dans un courant idéologique économique fondé sur la compétitivité et la rentabilité économique au bénéfice d'intérêts particuliers. Cette rentabilité stimule le processus d'expansion mondiale des activités économiques. La mondialisation a également soumis le marché financier aux règles de cette dynamique économique mondiale.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.