961 resultados para libéralisation des échanges
Resumo:
La débitmétrie au laser à effet Doppler (LDF) constitue une méthode prometteuse et non-invasive pour l'étude du débit sanguin local dans l'œil. Cette technique est basée sur un changement de fréquence subi par la lumière lors du mouvement des globules rouges dans les vaisseaux. Une nouvelle sonde LDF a été testée pour sa sensibilité à évaluer la circulation rétinienne/choroïdienne sous des conditions hypercapniques et en présence de diverses substances vasoactives ou suivant la photocoagulation des artères rétiniennes chez le rat. Après dilatation pupillaire, la sonde LDF a été placée en contact avec la cornée de rats anesthésiés et parallèle à l'axe optique. L'hypercapnie a été provoquée par inhalation de CO2 (8% dans de l'air médical), alors que les agents pharmacologiques ont été injectés de façon intravitréenne. La contribution relative à la circulation choroïdienne a été évaluée à la suite de la photocoagulation des artères rétiniennes. Le débit sanguin s'est trouvé significativement augmenté à la suite de l'hypercanie (19%), de l'adénosine (14%) ou du nitroprusside de sodium (16%) comparativement au niveau de base, alors que l'endothéline-1 a provoqué une baisse du débit sanguin (11%). La photocoagulation des artères rétiniennes a significativement diminué le débit sanguin (33%). Des mesures en conditions pathologiques ont ensuite été obtenues après l'injection intravitréenne d'un agoniste sélectif du récepteur B1 (RB1). Ce récepteur des kinines est surexprimé dans la rétine des rats rendus diabétiques avec la streptozotocine (STZ) en réponse à l'hyperglycémie et au stress oxydatif. Les résultats ont montré que le RB1 est surexprimé dans la rétine chez les rats diabétiques-STZ à 4 jours et 6 semaines. À ces moments, le débit sanguin rétinien/choroïdien a été significativement augmenté (15 et 18 %) après l'injection de l'agoniste, suggérant un effet vasodilatateur des RB1 dans l'œil diabétique. Bien que la circulation choroïdienne contribue probablement au signal LDF, les résultats démontrent que le LDF représente une technique efficace et non-invasive pour l'étude de la microcirculation rétinienne in-vivo en continu. Cette méthode peut donc être utilisée pour évaluer de façon répétée les réponses du débit sanguin pendant des modifications métaboliques ou pharmacologiques dans des modèles animaux de maladies oculaires.
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
L’école ne semble plus en mesure de répondre par elle-même aux besoins multidimensionnels des élèves en difficulté qui sont maintenant intégrés dans la classe ordinaire. (Cooper, 1999; Deslandes & Bertrand, 2001; Dryfoos, 1994; Greenberg, 2004; Ministère de l'Éducation du Loisir et du Sport, 2005; Paavola, 1995; Riddle & Tett, 2001; The Learning Partnership, 2004). Les équipes de soutien à l’enseignant semblent un moyen efficace d’appuyer l’enseignant et l’élève, mais cette approche est très peu utilisée dans les milieux éducatifs au Canada. Certains élèves présentant des problèmes complexes ne reçoivent pas l’appui nécessaire faute d’un manque de spécialiste à l’intérieur du cadre scolaire. Dans cette perspective, les services intégrés pourraient être une voie propice pour le travail de partenariat mais plusieurs obstacles semblent empêcher la collaboration et la coopération entre les intervenants scolaires et les partenaires de la communauté. La présente recherche a identifié un modèle qui permet d’appuyer l’enseignant dans sa pratique afin d’aider l’élève en difficulté et de le maintenir dans la classe ordinaire. Le modèle d’équipe de soutien à l’enseignant mis en œuvre dans les écoles d’un conseil francophone scolaire de l’Ontario est un modèle dérivé de Chalfant, Pysh et Moultrie (1979). Vers les années 1970, ces équipes ont été formées en vue d’offrir un appui à l’enseignant de classe ordinaire pour éviter les placements d'élèves en éducation spéciale l’intention est encore la même en 2010. Par ce modèle, nous favorisons l’entrée des services intégrés à l’intérieur du cadre scolaire et les partenaires travaillent en équipe afin de favoriser le succès scolaire des élèves. Un coordonnateur du milieu scolaire est le lien qui assure la coordination et les suivis des différentes recommandations proposées par l’équipe. Le travail de collaboration et de coopération est essentiel pour assurer le succès scolaire de l’élève. Les résultats de cette mise en œuvre nous ont permis de constater que le modèle est efficace dans l’atteinte de ses buts. D’une façon générale, les intervenants scolaires affirment se sentir effectivement appuyés par les équipes de soutien tant dans la formation, les échanges et les discussions que dans les ressources matérielles. Ce qui ressort le plus souvent de leurs propos est qu’ils apprécient la réelle collaboration et la concertation qui existent entre tous les intervenants qui assurent les suivis. Quatre-vingt-treize pour cent des répondants qui ont participé aux équipes de soutien affirment qu’il y a eu des changements positifs chez les élèves. Différents défis ont aussi été relevés. Mentionnons entre autre, la lourdeur du rôle du coordonnateur, la grandeur du territoire du Conseil (perte de temps sur la route), des cas de conflits existants entre les parents et l’école. Indépendamment de ces défis, l’application du modèle d’équipe de soutien à l’enseignant répond à l’objectif d’inclusion scolaire des élèves en difficulté tout en permettant aux enseignants de ne pas se sentir seuls ni d’être effectivement seuls à assumer ce mandat.
Resumo:
La succession de plus en plus fréquente d’événements catastrophiques a amené les sociétés à poser les conditions d’une gestion proactive des risques « naturels ». Ainsi, dans une perspective exploratoire, nous étudions les processus de planification du rétablissement postcatastrophe et la place qu’occupe le concept de résilience urbaine au sein des pratiques de cette planification et des contenus et produits qui en sont issus. Nous entamons plus spécifiquement une réflexion entourant l’intelligibilité et l’opérationnalisation de la résilience. Pour ce faire, nous examinons deux cas signifiants d’inondation dans l’historique nord-américain, soit celui de la Nouvelle-Orléans en Louisiane et celui de la ville québécoise de La Baie, ayant été respectivement victimes des ouragans Katrina et Rita en 2005 et des pluies diluviennes de 1996. Après avoir procédé à une brève mise en contexte des désastres éprouvés, de leurs effets et des vulnérabilités physico-spatiales qu’ils ont mis en exergue, nous mettons en parallèle les logiques institutionnelles précatastrophe d’aménagement du territoire, d’urbanisme et de gestion des risques des villes. Nous observons ensuite l’évolution des deux processus de planification du rétablissement et les enjeux et débats qui les ont caractérisés, pour terminer avec une exposition des changements résilients qui en ont émané. Les deux derniers chapitres démontrent que la qualité de résilience des villes est fortement influencée par leurs cultures politiques, administratives et législatives propres et leurs traditions urbanistiques. Bien qu’elles aient su élaborer une stratégie de prévention des risques, qui accepte les inondations plutôt que de tenter de s’y opposer à tout prix, elles n’ont toutefois pas saisi l’entièreté des opportunités qui s’offraient à elles.
Resumo:
Le mouvement des femmes québécois a connu des transformations importantes au cours des dernières décennies. Plusieurs causes ont été mises de l’avant pour expliquer ces changements, telles que la mondialisation, le néolibéralisme ou des causes internes. Dans les années 1980, nous observons une montée de l’antiféminisme au Québec et l’émergence de sa forme masculiniste. Ce phénomène a modifié le contexte dans lequel évolue le mouvement des femmes. L’objectif de ce mémoire est d’analyser les répercussions de l’antiféminisme sur les transformations du mouvement des femmes. Afin d’analyser les interactions entre le mouvement des femmes et le masculinisme, nous étudions les discours antiféministes dans les médias de 1985 à 2009. Plus précisément, nous analysons les thématiques masculinistes contenues dans La Presse et Le Soleil durant cette période. Par la suite, nous analysons diverses publications (rapports d’activités, la Petite Presse et le Féminisme en bref) de la Fédération des femmes du Québec dans le but de voir si le mouvement des femmes a modifié ses analyses, ses stratégies et ses actions en réaction à cette montée de l’antiféminisme. Finalement, à l’aide de la théorie de la mobilisation des ressources et de l’approche des contre-mouvements, nous étudions les interactions entre le mouvement des femmes et son contre-mouvement, soit l’antiféminisme. Nous arrivons à la conclusion qu’il existe véritablement des interactions entre ceux-ci et que la montée de l’antiféminisme a eu des répercussions sur le mouvement des femmes, qui ont modifié ses analyses, ses stratégies et ses actions.
Resumo:
Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.
Resumo:
Les recherches en relations industrielles portent rarement sur les politiques publiques du marché du travail. Lorsqu’elles existent, ces recherches s’intéressent généralement à l’efficacité de ces politiques. Or, cette thèse illustre l’importance de comprendre comment se forment les lois et les règlements. Afin de mieux comprendre le processus d’élaboration des politiques publiques, une étude de cas a été réalisée dans le domaine des retraites au Québec et au Canada entre 2003 et 2008. Les retraites ont été ciblées en raison des bouleversements socio-économiques que connaissait le Canada à l’époque, notamment le vieillissement de la population et les fluctuations des rendements des fonds de retraite. Ce sujet a également été retenu car il s’agit d’une compétence partagée entre les paliers gouvernementaux fédéral et provinciaux ainsi que partagée entre le secteur public et privé.Afin d’étudier la question, des théories en relations industrielles et en sciences économiques ont été considérées. C’est toutefois la théorie des courants multiples du politologue américain John Kingdon qui a été retenu comme fondement théorique de cette thèse. Cette théorie, qui postulait que les acteurs voulant influencer les politiques publiques devaient attirer l’attention sur des problèmes, contrôler le débat sur les politiques considérées et se faire des appuis, a été confirmée. La contribution majeure de cette thèse a été d’identifier les différents types d’acteurs impliqués dans le processus d’élaboration de politiques publiques de retraite, les stratégies qu’ils ont employées pour y parvenir et les résultats de leurs efforts.
Resumo:
Le fardeau vasculaire (présence de maladies vasculaires et/ou cérébrovasculaires) est associé à une augmentation des troubles cognitifs chez les personnes âgées, ainsi qu’à un plus haut risque de démence vasculaire (DV) et de démence de type Alzheimer (DTA). Un nombre restreint de travaux a porté sur l’impact du fardeau vasculaire sur la cognition des personnes avec trouble cognitif léger (TCL). Pourtant, les personnes avec TCL représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence. Cette thèse comprend trois articles de revue qui visent à exposer les connaissances entourant la santé vasculaire et la cognition des personnes âgées et trois articles empiriques (Chapitres 5, 6, 7). La première étude empirique traite de l’impact du fardeau vasculaire sur la cognition des personnes TCL et a comme objectif de spécifier quelles fonctions cognitives sont affectées par le fardeau vasculaire et dans quelle mesure le fardeau vasculaire influence l’hétérogénéité des TCL (Chapitre 5). Dans le cadre de la deuxième étude, nous avons examiné l’intégrité des processus stratégiques et non stratégiques de mémorisation des TCL avec et sans fardeau vasculaire, afin d’évaluer si ces processus diffèrent quantitativement et qualitativement entre ces deux groupes (Chapitre 6). Enfin, dans la troisième étude nous avons évalué les capacités d’association (binding) ainsi que la résistance à l’interférence des personnes TCL, les liens entre ces processus mnésiques et différents marqueurs cérébraux en plus des facteurs permettant de prédire l’évolution vers une démence (Chapitre 7). Les résultats présentés dans cette thèse appuient l’hypothèse selon laquelle le fardeau vasculaire influence le profil cognitif des TCL. Dans un premier temps, nous avons montré que le fardeau vasculaire est associé à une atteinte exécutive plus importante chez les TCL (Chapitre 5). De plus, nos résultats suggèrent que le fardeau vasculaire influence la classification clinique de ces derniers, puisque ceux dont le fardeau est élevé répondent davantage aux critères de TCL amnestique domaine multiple (trouble de mémoire plus au moins un autre déficit cognitif) tandis que ceux sans fardeau répondent davantage aux critères de TCL amnestique domaine unique (trouble isolé de la mémoire). Dans un deuxième temps, nous avons montré des différences dans la nature des processus mnésiques atteints chez les TCL avec et sans fardeau vasculaire (Chapitre 6). Alors que les premiers présentent une atteinte prédominante des processus stratégiques de mémorisation, les seconds présentent une atteinte des processus stratégiques et non stratégiques de mémorisation. Lorsque seuls les résultats des TCL ayant évolué vers une démence sont analysés, le patron d’atteinte est similaire puisque les TCL vasculaires sont quantitativement moins touchés que les TCL non-vasculaires au niveau des processus non-stratégiques de mémorisation. Enfin, tant les TCL qui progressent vers une démence que les TCL qui restent stables après un suivi de trois ans éprouvent tous des difficultés de mémoire associative et sont sensibles à l’interférence proactive (Chapitre 7). De plus, le fardeau vasculaire est associé à la sensibilité à l’interférence alors que le volume hippocampique est associé aux difficultés de mémoire associative. Enfin, nos résultats indiquent que les TCL qui éprouvent des difficultés de mémoire associative sont plus à risque d’évoluer vers une démence que les TCL ne présentant pas ces mêmes difficultés. De façon globale, les résultats de cette thèse révèlent que le fardeau vasculaire joue un rôle important dans l’hétérogénéité des TCL.
Resumo:
La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence.
Resumo:
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.
Resumo:
Les commotions cérébrales ont longtemps été considérées comme une blessure ne comportant que peu ou pas de conséquences. Cependant, la mise à la retraite forcée de plusieurs athlètes de haut niveau, liée au fait d'avoir subi des commotions cérébrales multiples, a porté cette question au premier plan de la culture scientifique et sportive. Malgré la sensibilisation croissante du public et la compréhension scientifique accrue des commotions cérébrales, il reste encore beaucoup d’inconnus au sujet de ces blessures. En effet, il est difficile de comprendre comment cette atteinte peut avoir des effets si profonds malgré le fait qu’elle n’entraîne apparemment pas de conséquences physiques apparentes lorsque les techniques traditionnelles d’imagerie cérébrale sont utilisées. Les techniques de neuroimagerie fonctionnelle ont cependant contribué à répondre aux nombreuses questions entourant les conséquences des commotions cérébrales ainsi qu'à accroître la compréhension générale de la physiopathologie de commotions cérébrales. Bien que les techniques de base telles que l'imagerie structurelle comme les scans TC et IRM soient incapables de détecter des changements structurels dans la grande majorité des cas (Ellemberg, Henry, Macciocchi, Guskiewicz, & Broglio, 2009; Johnston, Ptito, Chankowsky, & Chen, 2001), d'autres techniques plus précises et plus sensibles ont été en mesure de détecter avec succès des changements dans le cerveau commotionné. Des études d’IRM fonctionelle ont entre autres établi une solide relation entre les altérations fonctionnelles et les symptômes post-commotionels (Chen, Johnston, Collie, McCrory, & Ptito, 2007; Chen et al., 2004; Chen, Johnston, Petrides, & Ptito, 2008; Fazio, Lovell, Pardini, & Collins, 2007). Les mesures électrophysiologiques telles que les potentiels évoqués cognitifs (ERP) (Gaetz, Goodman, & Weinberg, 2000; Gaetz & Weinberg, 2000; Theriault, De Beaumont, Gosselin, Filipinni, & Lassonde, 2009; Theriault, De Beaumont, Tremblay, Lassonde, & Jolicoeur, 2010) et la stimulation magnétique transcrânienne ou SMT (De Beaumont, Brisson, Lassonde, & Jolicoeur, 2007; De Beaumont, Lassonde, Leclerc, & Theoret, 2007; De Beaumont et al., 2009) ont systématiquement démontré des altérations fonctionnelles chez les athlètes commotionnés. Cependant, très peu de recherches ont tenté d'explorer davantage certaines conséquences spécifiques des commotions cérébrales, entre autres sur les plans structural et métabolique. La première étude de cette thèse a évalué les changements structurels chez les athlètes commotionnés à l’aide de l'imagerie en tenseur de diffusion (DTI) qui mesure la diffusion de l'eau dans la matière blanche, permettant ainsi de visualiser des altérations des fibres nerveuses. Nous avons comparé les athlètes commotionnés à des athlètes de contrôle non-commotionnés quelques jours après la commotion et de nouveau six mois plus tard. Nos résultats indiquent un patron constant de diffusion accrue le long des voies cortico-spinales et dans la partie du corps calleux reliant les régions motrices. De plus, ces changements étaient encore présents six mois après la commotion, ce qui suggère que les effets de la commotion cérébrale persistent bien après la phase aiguë. Les deuxième et troisième études ont employé la spectroscopie par résonance magnétique afin d'étudier les changements neurométaboliques qui se produisent dans le cerveau commotionné. La première de ces études a évalué les changements neurométaboliques, les aspects neuropsychologiques, et la symptomatologie dans la phase aiguë post-commotion. Bien que les tests neuropsychologiques aient été incapables de démontrer des différences entre les athlètes commotionnés et non-commotionnés, des altérations neurométaboliques ont été notées dans le cortex préfrontal dorsolatéral ainsi que dans le cortex moteur primaire, lesquelles se sont avérées corréler avec les symptômes rapportés. La deuxième de ces études a comparé les changements neurométaboliques immédiatement après une commotion cérébrale et de nouveau six mois après l’atteinte. Les résultats ont démontré des altérations dans le cortex préfrontal dorsolatéral et moteur primaire dans la phase aiguë post-traumatique, mais seules les altérations du cortex moteur primaire ont persisté six mois après la commotion. Ces résultats indiquent que les commotions cérébrales peuvent affecter les propriétés physiques du cerveau, spécialement au niveau moteur. Il importe donc de mener davantage de recherches afin de mieux caractériser les effets moteurs des commotions cérébrales sur le plan fonctionnel.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Bien que les troubles cognitifs soient un aspect essentiel de la schizophrénie, le dysfonctionnement des systèmes émotionnels y est également considéré comme un élément très important de cette maladie d’autant plus que plusieurs régions du cerveau sont concernées par la régulation émotionnelle. Le principal objectif du présent travail était d’explorer, en imagerie par résonnance magnétique fonctionnelle (IRMf), l’effet de la ziprasidone sur les différentes réponses neuronales à l’affichage de stimuli émotionnels au niveau de la région préfrontale,particulièrement dans le cortex cingulaire antérieur [CCA], le cortex orbito-frontal [COF] et le cortex préfrontal dorso-latéral [CPFDL]. Nous avons examiné les activations cérébrales, chez des patients souffrants de schizophrénie avant et après médication à la ziprasidone, en leur présentant des séries d’images émotionnellement chargées (négatives, neutres et positives) associées à différentes instructions quand aux types d’images qu’ils devaient sélectionner (négatives,neutres et positives). Nous avons analysé les différents changements d’activation (avant et après médication) essentiellement pour les valences extrêmes des stimuli (positives et négatives), ensuite nous avons regardé l’effet du type d’instruction sur ces changements. L’échantillon comprenait 13 patients atteints de schizophrénie et 15 témoins sains. Nous avons également effectué une évaluation clinique des symptômes dépressifs, positifs et négatifs de la maladie ainsi que des mesures biochimiques et de poids avant et après 16 semaines de médication. Malgré l’absence de changement significatif sur les mesures cliniques (PANSS et Dépression) avant et après une moyenne de 14.3 semaines de médication à la ziprasidone, plusieurs régions préfrontales (CCA, COF, CPDL) ont sensiblement accru leur réponse aux stimuli positifs par rapport aux stimuli négatifs. En outre, dans les régions habituellement impliquées dans le contrôle cognitif (CCA et CPFDL), cette tendance s'est accentuée lorsque les patients ont été invités à ne sélectionner que les stimuli négatifs (effet du type d’instruction). Nous avons également trouvé plusieurs similitudes dans le fonctionnement préfrontal (à la fois dans le volume et la force d'activation) entre les contrôles sains et les patients après médication en tenant compte du type d’instruction plus que de la valence émotionnelle des images. Pour conclure, les résultats de la présente étude suggèrent que le traitement antipsychotique avec la ziprasidone améliore le fonctionnement cognitif lié au traitement de l'information émotionnelle dans le cortex préfrontal chez les patients souffrant de schizophrénie. Étant donné le mécanisme d'action neuro-pharmacologique de la ziprasidone (plus d'affinité pour la sérotonine que pour les récepteurs de la dopamine dans le cortex préfrontal), nous pensons que nos résultats démontrent que le contrôle cognitif et la régulation des réactions face à des stimuli émotionnellement chargés dans la schizophrénie sont liés à une plus forte concentration de dopamine dans les voies préfrontales.
Resumo:
La présente recherche collaborative vise à étudier les pratiques de lecture à haute voix d’enseignantes expertes et leur influence sur le développement de l’habileté des élèves du préscolaire à faire des inférences. Plus précisément, nous décrivons les interventions, lors des lectures à haute voix, de quatre enseignantes expertes que nous avons formées pour travailler la compréhension inférentielle et les comparons à celles de deux enseignantes expertes non formées (objectif 1). Puis, nous examinons l’influence de leurs pratiques de lecture à haute voix sur le développement de l’habileté à faire des inférences de leurs élèves (n=92) (objectif 2). Enfin, nous nous intéressons, à titre exploratoire, au potentiel de la recherche collaborative comme voie de développement professionnel des enseignants (objectif 3). Afin d’atteindre nos objectifs, nous avons observé les enseignantes à quatre reprises, lors de lectures d’albums de littérature de jeunesse. Les données obtenues à partir de ces pratiques observées ont été complétées par celles issues des pratiques déclarées des enseignantes pour toute la durée de la recherche (neuf semaines). De plus, nous avons évalué l’habileté à réaliser des inférences des élèves de ces six enseignantes à deux reprises, au début et à la fin de la recherche. Finalement, les enseignantes ont rempli deux questionnaires écrits sur l’impact de cette recherche sur leurs pratiques, l’un à la fin de la recherche et l’autre deux ans après celle-ci. Nos résultats indiquent que si toutes les enseignantes travaillaient les inférences, il existe cependant des différences notables dans leur façon de mener ce travail. Trois des enseignantes formées (enseignantes 1, 2 et 3) ont majoritairement privilégié la co-élaboration du sens des épisodes implicites et se sont montrées très efficaces pour soutenir leurs élèves dans ce travail de construction du sens. L’autre enseignante formée (enseignante 4), en raison d’une appropriation difficile du contenu de la formation, n’est pas parvenue à offrir à ses élèves un étayage adéquat, malgré ses nombreuses tentatives pour les amener à faire des inférences. Les enseignantes non formées (enseignantes 5 et 6) ont, quant à elles, misé plus fréquemment sur la transmission du sens des épisodes implicites et ont également soutenu moins efficacement leurs élèves dans l’élaboration du sens. Ces différences dans la façon de travailler les inférences se sont répercutées sur la progression des élèves entre le début et la fin de la recherche. Ceux des enseignantes 1, 2 et 3 obtiennent des résultats significativement supérieurs à ceux des trois autres enseignantes. Ainsi, il ne suffit pas de travailler les inférences lors des lectures à haute voix pour assurer la progression des élèves. D’autres facteurs revêtent aussi une grande importance : le choix d’oeuvres de qualité, l’engagement des élèves dans les discussions pour co-élaborer le sens et l’étayage adéquat de l’enseignant. Enfin, il semblerait que l’activité réflexive suscitée lors d’une participation à une recherche collaborative et le soutien offert par l’étudiante-chercheuse aient donné aux enseignantes la possibilité d’apporter des changements durables dans leurs pratiques. En ce sens, la recherche collaborative paraît être une voie prometteuse pour contribuer au développement professionnel des enseignants.