1000 resultados para Alignement tâche-technologie
Resumo:
L’article examine les enjeux et l’intérêt d’une application politique du principe de précaution. Ce principe peut en effet être utilisé par la théorie de la décision appliquée à la sécurité, notamment au plan international. Comment faire face à l’accroissement du risque lié aux formes modernes de conflit ? Cet accroissement tend à entraîner une technologisation et une mondialisation croissantes des réponses sécuritaires. L’incertitude liée cet accroissement du risque appelle pourtant responsabilisation des dirigeants qui ont pour devoir éthique de recourir au principe de précaution comme guide d’orientation dans l’avenir, non seulement dans le domaine environnemental ou sanitaire, mais encore dans le domaine de la sécurité publique.
Resumo:
L’article examine les enjeux et l’intérêt d’une application politique du principe de précaution. Ce principe peut en effet être utilisé par la théorie de la décision appliquée à la sécurité, notamment au plan international. Comment faire face à l’accroissement du risque lié aux formes modernes de conflit ? Cet accroissement tend à entraîner une technologisation et une mondialisation croissantes des réponses sécuritaires. L’incertitude liée cet accroissement du risque appelle pourtant responsabilisation des dirigeants qui ont pour devoir éthique de recourir au principe de précaution comme guide d’orientation dans l’avenir, non seulement dans le domaine environnemental ou sanitaire, mais encore dans le domaine de la sécurité publique.
Resumo:
Depuis la dernière décennie, les outils technologiques et informatiques ont connu un essor considérable dans plusieurs sphères d’activité de la société. L’éducation n’y a pas échappé, et le ministère de l’Éducation, du Loisir et du Sport (MELS) en a d’ailleurs fait une compétence transversale dans le cadre du Programme de formation de l’école québécoise. L’intégration des TIC s’est faite à travers différents moyens, à commencer par les laboratoires informatiques, les ordinateurs à même la salle de classe et, plus récemment, par l’introduction de projets portables où chaque élève et l’enseignant disposent de leur propre ordinateur. Afin d’être mené à terme, ce projet de recherche a été inscrit dans un projet à plus grande échelle, soit celui d’une recherche financée par le Conseil de recherches en sciences humaines du Canada (CRSH), qui a pour objectif d'analyser les obstacles auxquels font face les enseignants dans l'intégration des technologies à l'école. Le présent projet s'est quant à lui attardé plus spécifiquement aux défis technologiques et pédagogiques inhérents aux projets portables. L’étude s'est déroulée en milieu défavorisé, dans une école primaire montréalaise. Une telle intégration demande une planification rigoureuse et un suivi continu afin d’assurer le succès du projet. De plus, il est évident que ce type de projet pose aussi des défis technologiques et pédagogiques particuliers pour les enseignants. À ce sujet, trois catégories de facteurs qui peuvent avoir un impact sur la réussite des projets portables ont été relevées, soit : les facteurs personnels (internes à l’enseignant), les facteurs relatifs au travail (contexte d'enseignement, pratiques pédagogiques, etc.), ainsi que les facteurs relatifs au matériel et à l’infrastructure. À l’intérieur de ce mémoire, différents concepts, dimensions et indicateurs sont donc explicités et mis en relation afin de mieux comprendre les défis technologiques et pédagogiques qui peuvent survenir dans le cadre de la mise en oeuvre de projets portables. Trois enseignantes rattachées à autant de groupes d’élèves ont accepté de participer à une entrevue individuelle et de répondre à un questionnaire. Les échanges par courriel ont aussi été analysés. L'ensemble des données recueillies ont fait l'objet d'analyses qualitatives. Les analyses ont montré que la catégorie de facteurs citée la plus fréquemment était celle des facteurs relatifs au travail avec une forte majorité. Des défis ont toutefois été identifiés pour toutes les dimensions.
Resumo:
Le phénomène de la création dans le cadre d’un discours sur la création – la production littéraire et artistique – ne va pas de soi. La tâche de le circonscrire comme un objet est antinomique : l’expérience du discours est en soi une création. Alors que le langage écrit semble au plus souvent «supprimer» l’auteur, le processus de création implique un «Je» créateur qui pense, qui se transforme, qui vit et dont la pensée s’imbrique à son objet qui, quant à lui, est «supprimé»; car il n’est pas extérieur à la pensée mais en relation avec elle. Ce travail, qui démontre le rapport complexe entre l’objet, la critique, le sujet et le commentaire, se penche donc sur l’«avant», le «pendant» et l’«après» de la création, dans un acte de mémoire, qui découle d’une performance littéraire sur la création. Des forces motrices informes et inconscientes, à la mise en forme jusqu’à la transmission, qui lui redonne un caractère d’informe, la création est en mouvement, comme le savoir est toujours prisonnier d’un «work in progress». Tributaire d’Antonin Artaud, le texte s’inscrit à partir de l’artiste en guise d’archétype existentiel, et s’y réfère constamment pour témoigner de la création sans la détacher de la vie et de ses expériences. Pour accéder au mystère du processus de création, lié à la pensée subjective, inobjectivable et irréductible au discours linéaire, ce travail met l’accent sur les associations de la pensée qui procède, exprimées par un «Je» exemplaire omniprésent, tatoué par l’expérience, mais à la position ambiguë à titre d’auteur. Processus de vie, de pensée et de création sont non seulement entremêlés, mais traversés par le champ du tout autre, historique, mondial et social, en perpétuelle évolution. Le rôle du créateur n’est pas de ne créer qu’à partir des connaissances extérieures à lui, mais à partir de lui-même – de son moi multiple et de sa pensée imprégnée de lectures et de ce qui le traverse et l’habite dans un temps donné – pour aboutir à la mise en forme d’un texte cohérent, d’une gravure particulière de l’esprit en marche vers le savoir, qui se situe toujours dans le devenir.
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.
Resumo:
Les différents acteurs impliqués dans la formation pratique en milieu scolaire doivent composer avec les réalités culturelles et territoriales des régions du Québec. Les étudiants issus des régions éloignées des universités souhaitent retourner dans leur milieu d’origine afin d’y réaliser un de leur stage. L’omniprésence des technologies de l’information et des communications (TIC) dans les milieux scolaires et universitaires et l’exigence du Ministère de l’Éducation du Québec (MEQ) (2001) à développer une compétence professionnelle qui vise à intégrer les TIC aux fins de préparation, de pilotage et de gestion de l’enseignement concourent à mettre en place un modèle de supervision qui puisse répondre aux exigences liées au domaine de la formation pratique. Les enjeux sont de taille et méritent que l’on s’y attarde. Prenant en considération le fait que l’observation et la communication entre les différents partenaires de la supervision du stagiaire sont à la base d’une formation efficiente qui puisse répondre aux besoins des étudiants, la présente étude propose un modèle de supervision pouvant accroître la présence des universités dans les milieux plus éloignés et ainsi assurer un accompagnement optimal des stagiaires sur l’ensemble du territoire québécois. Cette recherche a pour objectif de mieux comprendre les avantages et les limites d’un modèle de supervision en distanciel faisant appel aux TIC lors des stages réalisés dans les milieux scolaires éloignés de leur université. Plus précisément, l’étude répond à trois objectifs en identifiant (1) les avantages et (2) les limites liés à la supervision des stages lorsqu’ils se déroulent par l’entremise des TIC et en contribuant à (3) comprendre l’efficience d’un modèle de supervision en distanciel appuyé par les TIC sur l’accompagnement des stagiaires dans le développement de leurs compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle. Afin de saisir les enjeux d’un tel modèle, une étude qualitative descriptive s’avère être le choix qui s’impose. Une rigoureuse collecte de données menée auprès de quatre stagiaires, leur enseignant associé respectif et leur superviseur à l’aide de grilles d’observation, d’enregistrements vidéo, de journaux de bord et d’entrevues semi-dirigées permet de répondre à quatre questions de recherche. Ces dernières s’interrogent sur l’efficience d’un modèle de supervision en distanciel au plan de l’encadrement du stagiaire avant, pendant et après sa prestation, au plan du développement des compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle et au plan de la communication entre les partenaires de la supervision. Les données recueillies à partir des différents outils permettent la présentation d’une description de chaque étape et des avantages et des limites de chacune d’elles : l’accueil, l’observation, les échanges-partenaires et la rétroaction. L’étude permet également de mieux comprendre les avantages et les limites d’une supervision en distanciel appuyé par les TIC lors des stages se déroulant dans les milieux scolaires éloignés de leur université. Ainsi, l’étude fait ressortir que chaque étape du modèle de supervision en distanciel proposé contribue, à différents égards, à rendre la supervision efficiente sur le plan de l’accompagnement au développement des compétences professionnelles. Des recommandations et des pistes de recherches sont proposées afin de maximiser le potentiel du modèle.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
Le principal rôle du corps calleux est d’assurer le transfert de l’information entre les hémisphères cérébraux. Du support empirique pour cette fonction provient d’études investiguant la communication interhémisphérique chez les individus à cerveau divisé (ICD). Des paradigmes expérimentaux exigeant une intégration interhémisphérique de l’information permettent de documenter certains signes de déconnexion calleuse chez ces individus. La présente thèse a investigué le transfert de l’information sous-tendant les phénomènes de gain de redondance (GR), de différence croisé– non-croisé (DCNC) et d’asynchronie bimanuelle chez les ICD et les individus normaux, et a ainsi contribué à préciser le rôle du corps calleux. Une première étude a comparé le GR des individus normaux et des ICD ayant subi une section partielle ou totale du corps calleux. Dans une tâche de détection, le GR consiste en la réduction des temps de réaction (TR) lorsque deux stimuli sont présentés plutôt qu’un seul. Typiquement, les ICD présentent un GR beaucoup plus grand (supra-GR) que celui des individus normaux (Reuter-Lorenz, Nozawa, Gazzaniga, & Hughes, 1995). Afin d’investiguer les conditions d’occurrence du supra-GR, nous avons évalué le GR en présentation interhémisphérique, intrahémisphérique et sur le méridien vertical, ainsi qu’avec des stimuli requérant une contribution corticale différente (luminance, couleur équiluminante ou mouvement). La présence d’un supra-GR chez les ICD partiels et totaux en comparaison avec celui des individus normaux a été confirmée. Ceci suggère qu’une section antérieure du corps calleux, qui perturbe le transfert d’informations de nature motrice/décisionnelle, est suffisante pour produire un supra-GR chez les ICD. Nos données permettent aussi d’affirmer que, contrairement au GR des individus normaux, celui des ICD totaux est sensible aux manipulations sensorielles. Nous concluons donc que le supra-GR des ICD est à la fois attribuable à des contributions sensorielles et motrices/décisionnelles. Une deuxième étude a investigué la DCNC et l’asynchronie bimanuelle chez les ICD et les individus normaux. La DCNC réfère à la soustraction des TR empruntant une voie anatomique « non-croisée » aux TR empruntant une voie anatomique « croisée », fournissant ainsi une estimation du temps de transfert interhémisphérique. Dans le contexte de notre étude, l’asynchronie bimanuelle réfère à la différence de TR entre la main gauche et la main droite, sans égard à l’hémichamp de présentation. Les effets de manipulations sensorielles et attentionnelles ont été évalués pour les deux mesures. Cette étude a permis d’établir une dissociation entre la DCNC et l’asynchronie bimanuelle. Précisément, les ICD totaux, mais non les ICD partiels, ont montré une DCNC significativement plus grande que celle des individus normaux, alors que les deux groupes d’ICD se sont montrés plus asynchrones que les individus normaux. Nous postulons donc que des processus indépendants sous-tendent la DCNC et la synchronie bimanuelle. De plus, en raison de la modulation parallèle du GR et de l’asynchronie bimanuelle entre les groupes, nous suggérons qu’un processus conjoint sous-tend ces deux mesures.
Resumo:
Ce projet propose une nouvelle approche de la résilience en vue d’assurer le bien-être chez les enseignants. Les raisons qui nous amènent à un tel intérêt sont notamment le stress intense ressenti dans le corps professoral où la tâche est lourde et particulièrement difficile. Sera donc abordé au chapitre premier, le fait que l’environnement de travail, par ses caractéristiques, génère du stress et des effets néfastes. Par la suite, la résilience étant sollicitée pour retenir les travailleurs en poste, nous décrirons son historique, ce qui nous amènera à soulever une problématique d’importance, notamment le fait qu’elle ne soit pas nécessairement accompagnée d’un bien-être salutaire. En contrepartie, un des indicateurs du bien-être est la motivation autodéterminée. Nous détaillerons ces notions et verrons comment elles sont atteintes par les conditions mêmes de travail. Cette mise en contexte nous permettra, en chapitre deuxième, de concevoir la résilience sous un autre jour grâce à la mise en lien avec les motivations autodéterminées. S’y dessineront deux types importants, dans lesquels motivation et bien-être devraient différer sensiblement. Cela pourrait expliquer la raison d’un bien-être mitigé. Nous terminerons ce chapitre par nos hypothèses. Nous aborderons ensuite la vérification de la proposition de types de résilience sous-tendues par la motivation. Au chapitre troisième, la méthodologie décrira l’échantillon de 465 enseignants québécois du primaire et du secondaire, les différents questionnaires de résilience, motivation et bien-être aux fins de l’étude transversale. Le chapitre suivant traitera des résultats des ANOVA , MANOVA et ANOVA factorielles entreprises. Notamment, les différences statistiques de bien-être et de motivation seront détaillées, ainsi que la non interaction entre motivation et résilience. Les effets principaux de résilience à tous les niveaux de motivation seront décrits. Les résultats obtenus nous permettrons une discussion au chapitre cinquième avant de conclure qu’effectivement, des différences sont observables, que la résilience pourrait s’opérer en deux formes durant lesquelles les motivations et le bien-être sont différents. Il sera possible d’envisager la résilience non pas comme une caractéristique personnelle stable ou un résultat statique, mais comme un processus pouvant prendre différentes formes qu’il serait alors possible de promouvoir. En découle également une mise en garde contre le fait de penser qu’il n’est plus nécessaire d’agir auprès des personnes étiquetées de résilientes. Le soutien semble encore nécessaire pour soutenir un processus efficace.
Resumo:
Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.
Resumo:
La régulation de la transcription est un processus complexe qui a évolué pendant des millions d’années permettant ainsi aux cellules de s’adapter aux changements environnementaux. Notre laboratoire étudie le rôle de la rapamycine, un agent immunosuppresseur et anticancéreux, qui mime la carence nutritionelle. Afin de comprendre les mécanismes impliqués dans la réponse a la rapamycine, nous recherchons des mutants de la levure Saccaromyces cerevisiae qui ont un phenotype altérée envers cette drogue. Nous avons identifié le gène RRD1, qui encode une peptidyl prolyl isomérase et dont la mutation rend les levures très résistantes à la rapamycine et il semble que se soit associé à une réponse transcriptionelle alterée. Mon projet de recherche de doctorat est d’identifier le rôle de Rrd1 dans la réponse à la rapamycine. Tout d’abord nous avons trouvé que Rrd1 interagit avec l’ARN polymérase II (RNAPII), plus spécifiquement avec son domaine C-terminal. En réponse à la rapamycine, Rrd1 induit un changement dans la conformation du domaine C-terminal in vivo permettant la régulation de l’association de RNAPII avec certains gènes. Des analyses in vitro ont également montré que cette action est directe et probablement liée à l’activité isomérase de Rrd1 suggérant un rôle pour Rrd1 dans la régulation de la transcription. Nous avons utilisé la technologie de ChIP sur micropuce pour localiser Rrd1 sur la majorité des gènes transcrits par RNAPII et montre que Rrd1 agit en tant que facteur d’élongation de RNAPII. Pour finir, des résultats suggèrent que Rrd1 n’est pas seulement impliqué dans la réponse à la rapamycine mais aussi à differents stress environnementaux, nous permettant ainsi d’établir que Rrd1 est un facteur d’élongation de la transcription requis pour la régulation de la transcription via RNAPII en réponse au stress.
Resumo:
La crise du logement est généralement appréhendée comme une simple disparité entre une disponibilité de logements abordables et les besoins de la population. Ce mémoire a pour objectif de dépasser ce raisonnement en s’interrogeant sur l’adéquation entre la conception des logements publics et les besoins des populations ciblées, qui sont déterminés par les spécificités socioculturelles en évolutions complexes et dynamiques. Des logements sociaux d’une grandeur inadéquate, pour des considérations de rentabilité, entraînant l’apparition d’une surpopulation, ne pouvaient qu’engendrer leur détérioration rapide et leur bidonvilisation. Ce mémoire aborde donc le thème anthropologique de l’influence de l’organisation de l’habitat et des espaces de vies privées et collectives sur les sociétés humaines. Le cas particulier de l’Algérie est intéressant par sa virulence et par l’importation des politiques françaises au moment de la colonisation, politiques visant l’assimilation des Algériens aux habitudes de consommation et aux modes de comportement occidentaux. Ce mémoire tente de démontrer que les différents gouvernements issus de l’indépendance auront réactivé les politiques coloniales en matière d’urbanisme. De plus, l’augmentation de la fréquence des pratiques informelles de captation à la source des biens stratégiques rares à des fins spéculatives, dont les logements sociaux, accélérée par la libéralisation du marché immobilier et la privatisation des logements publics, a fait en sorte que très peu de logements sociaux furent attribués aux familles qui en avaient besoin qui se retrouvèrent donc de plus en plus marginalisées et devaient à leur tour se tourner vers des pratiques informelles pour espérer améliorer leurs conditions de logement.
Resumo:
La navigation repose en majeure partie sur la vision puisque ce sens nous permet de rassembler des informations spatiales de façon simultanée et de mettre à jour notre position par rapport à notre environnement. Pour plusieurs aveugles qui se fient à l’audition, le toucher, la proprioception, l’odorat et l’écholocation pour naviguer, sortir à l’extérieur de chez soi peut représenter un défi considérable. Les recherches sur le circuit neuronal de la navigation chez cette population en particulier s’avèrent donc primordiales pour mieux adapter les ressources aux handicapés visuels et réussir à les sortir de leur isolement. Les aveugles de naissance constituent aussi une population d’intérêt pour l’étude de la neuroplasticité. Comme leur cerveau s’est construit en absence d’intrant visuel, la plupart des structures reliées au sens de la vue sont réduites en volume par rapport à ceux de sujets voyants. De plus, leur cortex occipital, une région normalement dédiée à la vision, possède une activité supramétabolique au repos, ce qui peut représenter un territoire vierge pouvant être recruté par les autres modalités pour exécuter diverses tâches sensorielles. Plusieurs chercheurs ont déjà démontré l’implication de cette région dans des tâches sensorielles comme la discrimination tactile et la localisation auditive. D’autres changements plastiques de nature intramodale ont aussi été observés dans le circuit neuronal de la navigation chez ces aveugles. Par exemple, la partie postérieure de l’hippocampe, impliquée dans l’utilisation de cartes mentales, est réduite en volume alors que la section antérieure est élargie chez ces sujets. Bien que ces changements plastiques anatomiques aient bel et bien été observés chez les aveugles de naissance, il reste toutefois à les relier avec leur aspect fonctionnel. Le but de la présente étude était d’investiguer les corrélats neuronaux de la navigation chez l’aveugle de naissance tout en les reliant avec leurs habiletés spatio-cognitives. La première étude comportementale a permis d’identifier chez les aveugles congénitaux une difficulté d’apprentissage de routes tactiles construites dans des labyrinthes de petite échelle. La seconde étude, employant la technique d’imagerie par résonance magnétique fonctionnelle, a relié ces faiblesses au recrutement de régions cérébrales impliquées dans le traitement d’une perspective égocentrique, comme le lobule pariétal supérieur droit. Alors que des sujets voyants aux yeux bandés excellaient dans la tâche des labyrinthes, ces derniers recrutaient des structures impliquées dans un traitement allocentrique, comme l’hippocampe et le parahippocampe. Par ailleurs, la deuxième étude a confirmé le recrutement du cortex occipital dans une tâche de navigation chez les aveugles seulement. Ceci confirme l’implication de la plasticité intermodale dans des tâches cognitives de plus haut niveau, comme la navigation.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.