414 resultados para Ingénierie et culture tissulaire
Resumo:
Le virus respiratoire syncytial (RSV) est un virus à ARN de polarité négative. Les études démontrent que toute la population sera infectée par ce virus au moins deux fois avant l’âge de 3 ans. Le RSV peut provoquer plusieurs pathologies respiratoires telles que la bronchiolite aiguë et la pneumonie. Les infections sévères corrèlent avec le développement de l’asthme. Lors d’une infection virale, les particules du RSV sont détectées par le senseur RIG-I qui induit l’activation des facteurs de transcription NF-κB et IRF-3. Respectivement, les facteurs de transcription activeront les réponses inflammatoire et antivirale. Au coeur des pathologies induites par le RSV se trouve une réponse immunitaire mal adaptée. Plus précisément, par l’entremise de NF-κB, le RSV provoque une production exagérée de cytokines et chimiokines qui induisent une réponse inflammatoire démesurée provoquant du dommage tissulaire. Paradoxalement, le RSV est capable d’échapper à la réponse antivirale. Ces deux phénomènes sont contrôlés par l’entremise des protéines non structurales NS1 et NS2. Le mécanisme délimitant le mode d’action de NS1 et NS2 sur la réponse antivirale reste à être déterminé. Avec pour objectif d’élucider comment NS1 et NS2 inhibent la réponse antivirale, nous avons investigué le mécanisme de reconnaissance de l’hôte vis-à-vis de RSV. Nous démontrerons, pour la première fois, que le senseur cytosolique MDA5 est impliqué dans la réponse antivirale contre le RSV. Nous présenterons des résultats préliminaires qui suggèrent que le rôle de MDA5 est non redondant à RIG-I. À l’aide d’ARN interférant dirigé contre RIG-I et de transfection de MDA5, nous démontrerons que MDA5 ne contribue pas à la phosphorylation d’IRF-3, mais plutôt qu’elle régit la stabilité du facteur de transcription. Nous démontrerons aussi que, contrairement à l’hypothèse actuelle sur le fonctionnement de NS1 et NS2, l’inhibition de ces derniers ne provoque pas une augmentation de la cytokine antivirale IFN−β. Cependant, l’expression ectopique de NS1 et NS2 réduit l’activité du promoteur de l’IFN-β et de la protéine cytoplasmic antivirale ISG56 lorsqu’elle est mesurée par essai luciférase.
Resumo:
La structure du cartilage articulaire adulte est caractérisée par la présence de couches créées par l’orientation des fibres de collagène (Benninghoff, 1925). Avant de présenter la structure adulte classique en arcades “de Benninghoff”, le cartilage subit une série de changements au cours de sa maturation (Julkunen et al., 2010; Lecocq et al., 2008). Toutefois, un faible nombre d’études s’est intéressé à la structure du collagène du cartilage articulaire in utero. Notre objectif était d’étudier la maturation de la surface articulaire de l’épiphyse fémorale distale chez le cheval, en employant à la fois l’imagerie par résonance magnétique (IRM) et la microscopie en lumière polarisée après coloration au rouge picrosirius, au niveau de sites utilisés dans les études de réparation tissulaire et de sites prédisposés à l’ostéochondrose (OC). Le but était de décrire le développement normal du réseau de collagène et la relation entre les images IRM et la structure histologique. Des sections provenant de cinq sites de l’épiphyse fémorale distale de 14 fœtus et 10 poulains et adultes ont été colorées au rouge picrosirius, après que le grasset ait été imagé par IRM, dans l’optique de visualiser l’agencement des fibres de collagène de type II. Les deux modalités utilisées, IRM et microscopie en lumière polarisée, ont démontré la mise en place progressive d’une structure en couches du réseau de collagène, avant la naissance et la mise en charge de l’articulation.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
Étude de cas / Case study
Resumo:
Cette thèse porte sur les dynamiques interculturelles et la réactivité des institutions dans les contextes pluralistes. Le contexte clinique, un exemple parmi tant d’autres, sert à saisir les enjeux des rencontres entre personnes d’origines différentes. Le milieu de la réadaptation physique apparaît particulièrement intéressant pour étudier les enjeux induits par les rencontres interculturelles, car les interventions y sont d’une durée relativement longue en comparaison avec les soins aigus, et ce type de pratique demande une grande collaboration de la part des clients. Cette recherche sollicite trois acteurs essentiels dans ce contexte : clients immigrants, intervenants et agents tiers payeurs (CSST) ont pris la parole lors de groupes de rencontre (focus group). La recherche d’un cadre théorique pertinent en anthropologie interculturelle revisite les courants moderniste et postmoderniste, à partir d’une approche critique, et propose une épistémologie interactionniste. Ces courants qui traversent l’anthropologie sont étudiés à la lumière de la clinique, ce qui engendre un dialogue entre les intervenants et les anthropologues. Le contexte ethnographique permet de cerner différents enjeux concernant les politiques de santé dans les contextes pluriethniques, ce qui permet de saisir, à partir de la gestion, des rapports d’emboitement entre le macro et le micro. Le fonctionnement de la réadaptation physique au Québec sert de toile de fond pour comprendre les discours des acteurs sollicités par cette recherche. L’ethnographie met en lumière les convergences et les divergences entre ces trois acteurs dans les contextes pluriethniques. Selon une méthode caractéristique des relations interculturelles, je présente d’abord l’intervention dans les institutions de réadaptation. Les clients immigrants sont mis en scène avec l’intervention dans les contextes pluriethniques. Les discours de tous ces acteurs mettent en lumière des barrières dites objectives et des facteurs liés à la culture. L’analyse s’intéresse à la communication et à la circulation de l’information dans les contextes pluriethniques; elle étudie les rapports entre l’information, la connaissance et les préjugés. L’analyse offre quelques pistes qui aident à comprendre l’imperméabilité du système de santé dans les contextes pluralistes. La conclusion propose une approche complémentariste pour établir un dialogue entre les modèles de discrimination et l’interculturel. Les anthropologues sont alors interpellés en vue de répondre aux nouveaux défis générés par le néolibéralisme.
Resumo:
Combiner le respect du milieu et le bien-être des personnes qui vivent de l’exploitation des ressources naturelles en Amazonie est une préoccupation qui est appelée à transformer les politiques d’exploitation du territoire. Je montre dans cette étude que les gains du développement économique, la protection de l’environnement et l’amélioration du niveau de vie des populations locales sont des objectifs compatibles. Toutefois, des tensions entre les trois piliers du développement durable subsistent et nécessitent une forme de négociation pour arriver à un équilibre des coûts et bénéfices du développement. En Amazonie, cette négociation prend la forme d’un encadrement du développement par les législations gouvernementales. Ces lois clarifient les droits de propriété et établissent un système de gestion de l’exploitation des ressources forestières tant sur les terres publiques que sur les terres privées. En analysant deux cas d’exploitation de ressources issues de la forêt, soit le bois d’œuvre et la baie d’açaí, j’explique les raisons pour lesquelles les populations locales vivant de l’exploitation des diverses ressources forestières sont peu intégrées dans le processus de développement. La régulation publique s’appliquant à l’exploitation du bois tend à criminaliser les activités pratiquées par les populations locales sans apporter d’alternative autre que les plans de gestion forestière. Dans le cas de la baie d’açaí, la coexistence de la culture et de la cueillette comme systèmes de production permet aux populations locales de continuer leurs activités traditionnelles et une répartition des coûts et bénéfices du développement plus équitable entre les acteurs.
Resumo:
"Il est une question centrale que la science politique au Canada a quelque peu délaissée : qui gouverne? Ainsi, les nombreux analystes du pouvoir judiciaire, dont plusieurs n’ont pas manqué depuis 1982 de critiquer l’accroissement de son influence dans la gouverne démocratique du pays, n’ont pas vraiment cherché à enquêter sur l’emprise des juristes sur la politique au-delà des juges. La présente étude tente de combler cette lacune en livrant, d’une part, les résultats d’une enquête empirique sur la présence des juristes au sein des assemblées élues fédérale et québécoise, ainsi que dans leurs exécutifs respectifs, de 1984 à 2006 ; et d’autre part, en fournissant un jeu d’hypothèses et d’interprétations en vue de comprendre les facteurs à l’origine de la surreprésentation structurelle et persistante des juristes dans la classe politique canadienne et québécoise. Plusieurs auteurs, dont John Porter, Guy Bouthillier, Jean-Charles Falardeau et Yoland Sénécal, avaient déjà étudié le phénomène et avancé des éléments d’explication de cette surreprésentation, historiquement plus marquée parmi les parlementaires et les ministres québécois des deux capitales. La présente étude montre que la baisse tendancielle de la surreprésentation des juristes dans les assemblées élues, observée à partir des années 1960, s’est poursuivie au-delà de 1984 dans le cas de la Chambre des communes , alors qu’elle s’est arrêtée à l’Assemblée nationale et que les juristes ont continué à être surreprésentés au sein de l’exécutif, dans une proportion plus forte encore que dans la chambre élue. La surreprésentation des juristes est plus prononcée chez certains partis (les partis libéraux fédéral et québécois) et tout indique que les candidats juristes aux élections fédérales connaissent un taux d’élection élevé, en particulier chez les deux grands partis gouvernementaux. En comparaison avec les États-Unis, le cas canadien présente des particularismes dont on ne peut rendre compte en se référant aux seules théories générales de Tocqueville et de Weber sur la « prédisposition » à gouverner des juristes en démocratie. Certains facteurs plus spécifiques semblent aussi jouer, tels que le régime fédéral et le système de partis canadien, les avantages « concurrentiels » dont jouissent les avocats par rapport à d’autres professions, la culture politique au Québec et le rôle anthropologique des juristes, dont la parole au Québec vaudrait celle d’un clerc laïque."
Resumo:
Le mouvement Law and Film est pratiquement inexistant dans la culture juridique québécoise. Pourtant, l’approche Law and Film, reliée au mouvement droit et société, gagne en popularité dans le monde juridique anglosaxon. Par ailleurs, si le mouvement prédécesseur Droit et littérature existe depuis bon nombre d’années dans le milieu de la common law, il commence à peine à acquérir ses lettres de noblesse dans la francophonie. Or, les œuvres cinématographiques et télévisuelles, plus que toute autre forme de manifestation culturelle, projettent les images populaires du droit. Elles constituent souvent, pour la plupart des citoyens, le seul contact avec le monde juridique. En ce sens, le cinéma, entendu dans son sens large, façonne l’idée que se font les justiciables du droit. Dans ce contexte, les représentations populaires du droit font office de lieu d’éducation et socialisent à leur insu les citoyens sur le juridique. Par ailleurs, dans les sociétés occidentales, le discours du droit occupe une place de plus en plus importante. Il est donc d’intérêt de mettre en rapport ces deux discours dominants que sont celui du droit et celui du cinéma. Dans la première partie de cet article, nous décrivons généralement les différents types d’études que permet l’analyse du droit par le cinéma afin d’introduire un public non initié à cette approche. Dans la deuxième partie, nous procédons à l’analyse de Rapport minoritaire pour démontrer que le film remet en question l’infaillibilité du système de justice, une brèche produite par l’intervention humaine et la possibilité du doute.
Resumo:
Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
Les Acadiens du Nouveau-Brunswick ont un parcours identitaire collectif riche en rebondissements qui les a menés vers une identité singulière solide. Ils se trouvent désormais confrontés au contexte d’une nouvelle réalité qui est la mondialisation. Depuis les dernières décennies, les changements occasionnés par la mondialisation se répercutent dans la conception même que l’on se fait du parler acadien et des pratiques culturelles acadiennes. Le chiac par exemple, auparavant stigmatisé et dévalorisé, devient maintenant porteur de valeurs identitaires modernes rattachées au mélange des cultures et à l’ouverture à l’autre. Toutefois, les contours de l’identité acadienne demeurent flous et sujets aux débats épistémologiques. La situation particulière d’un groupe qui n’a plus de territoire officiellement reconnu a une forte incidence sur les critères d’appartenance que les acteurs peuvent mobiliser pour se définir. Comment expliquer les processus d’identifications et les stratégies identitaires qui définissent l’appartenance au groupe chez les Acadiens? Partagent-ils les mêmes processus identitaires présents dans la littérature sur le sujet? Une connaissance plus approfondie des processus généraux peut-elle aider à mieux saisir et expliquer la complexité d’un groupe sensiblement diasporique dont l’identité et ses contours sont incertains? L’anthropologie en milieu acadien est presque inexistante. D’autre part, l’identité culturelle est un sujet ayant été longuement étudié et débattu, mais qui demande toujours plus de précision. Cette recherche a permis de mieux cerner de quelle façon la représentation de l’acadianité évolue en milieu minoritaire.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.
Resumo:
La légitimité des écoles privées fondées sur un projet religieux ou spirituel fait l’objet de débats épineux tant au Québec qu’ailleurs, depuis plusieurs années (chapitre 1). À la différence des nombreux travaux normatifs déjà produits sur ces questions, cette thèse propose une contribution empirique sur la réalité de certaines de ces écoles à Montréal. Notre objectif général consiste donc à comprendre comment la dimension religieuse ou spirituelle d'écoles privées de groupes ou courants minoritaires (juives, musulmanes, Steiner) se traduit dans les discours et pratiques de l'école. La mise en lien d’écoles abritant des projets éducatifs minoritaires de différentes natures vise par ailleurs à poser un regard plus large sur l’identité, ethnique ou religieuse. Après avoir analysé les trois écoles, nous examinons les différences ou convergences significatives entre elles. Puis, nous tentons de mieux comprendre comment leurs discours et leurs pratiques nous renseignent sur les attentes parallèles relatives à l’éducation en contexte libéral. Nous portons alors attention (chapitre 2) aux interactions entre le curriculum « séculier » et une perspective religieuse ou spirituelle, à la conception de l'autonomie dans la scolarisation, à la formation du citoyen et à la hiérarchisation des valeurs éducatives. En nous inspirant entre autres de Juteau (1999), nous considérons ces écoles comme des « communautés » éducatives. Notre démarche méthodologique (chapitre 3), d’inspiration ethnographique, s’articule autour d'observations participantes en 5e et en 6e année du primaire et en 1re et 2e année du secondaire (environ 3 jours par classe) et à plus de 45 entrevues, menées auprès des enseignants, des directions d’école et des parents d’élèves. Même si notre dispositif ne consiste pas à faire « émerger » une théorie, nous nous inspirons de la méthode de la « théorisation ancrée » pour analyser nos données. Le premier chapitre d’analyse (chapitre 4) illustre d’abord un cas relativement « pur » de communalisation, puisque l’école Steiner produit du spirituel sans forcément se situer dans un rapport de force avec d’autres groupes sociaux. Cela reflète donc comment une lignée identitaire peut être construite grâce à l’enracinement dans une tradition et une mémoire « créées» par l’école. L’école musulmane (chapitre 5) adapte plutôt les références associées à la religion de manière à constituer un « pont » entre la socialisation primaire et celle de la société d’accueil. On constate en effet que la direction et les enseignants de l’école ne réinventent pas la lignée croyante, mais ne la reproduisent pas non plus à l’identique. En ce qui concerne l’école juive (chapitre 6), elle permet surtout d’attester une communauté ethnoreligieuse extérieure. La tradition juive enseignée à l’école, souvent qualifiée de « traditionalisme non religieux » par les acteurs scolaires, présente donc peu de réinterprétations ou de transformations dans ce contexte scolaire. Un dernier chapitre d’analyse (chapitre 7), abordant les trois écoles dans une perspective comparative, met notamment en perspective comment ces trois institutions transmettent une culture identitaire et un style de vie débordant le cadre scolaire, qui englobent les croyances religieuses et/ou spirituelles, mais ne s’y réduisent pas.
Resumo:
Cette thèse identifie une cooccurrence des discours à propos de l’hypersexualisation des jeunes filles et ceux concernant le port du voile islamique qui sont, depuis quelques années, au cœur des préoccupations sociales au Québec comme ailleurs en Occident. Plus spécifiquement, elle propose une « économie générale des discours » (Foucault, 1976) contemporains sur l’hypersexualisation et le port du voile, dans une perspective conjoncturelle, par et à travers trois contextes d'analyse particuliers : féministe, médiatique et public. Elle démontre comment l’hypersexualisation et le port du voile sont problématisés (Foucault, 2001/1984), c'est-à-dire qu’ils sont posés comme nouveaux problèmes sociaux engendrant et cristallisant bon nombre de craintes et d’anxiétés contemporaines. Ainsi, la thèse est composée de trois chapitres centraux qui reprennent chacun des contextes de problématisation identifiés. Le chapitre intitulé « Féminisme(s) et égalité des sexes », avance que l’égalité des sexes est invoquée comme valeur moderne, féministe et québécoise par excellence et qu’elle participe, à ce titre, de la problématisation du port du voile et de l’hypersexualisation. Le chapitre suivant, « Médias, diversité et (hyper) visibilité », concentre l’analyse sur les médias et la culture populaire, à la fois sujets énonciateurs, régimes et objets de discours, participant à construire et à délimiter l’adolescence et la religion/culture musulmane comme des mondes à part, mystérieux, tout en les exposant au public. Enfin, à partir d’une analyse des discours publics à propos de l’hypersexualisation et du port du voile, le chapitre intitulé « Laïcité, sexualité et neutralité » met en lumière les façons par lesquelles ces problèmes sont constitutifs de chartes, de codes et d’autres formes de règlementations qui viennent non seulement normaliser mais également discipliner la conduite de chacun, au nom du bien commun et de la neutralité de l’État. Un « Retour sur la conjoncture » vient conclure la thèse en mettant en lumière certains éléments conjoncturels qui traversent ses principaux chapitres, dont les questions du consensus et de l’extrême.