1000 resultados para Quil-a
Resumo:
L’anarchisme vit un renouveau un peu partout sur le globe depuis les années 1990 et la montée du mouvement contre la mondialisation. Cependant pour les chercheurs contemporains, le lien est bien mince entre l’anarchisme du 21e siècle et le mouvement anarchiste du début du 20e siècle. Selon ces chercheurs, l’anarchisme contemporain serait davantage caractérisé par la nature expérimentale de ses stratégies et par son focus sur le moment présent. L’objectif de ce mémoire est de démontrer qu’il est possible de tracer des liens clairs entre les auteurs anarchistes classiques et l’anarchisme contemporain. En effet, certains auteurs classiques de ce courant vivent leur anarchisme dans le moment présent contrairement à ce que laissent entendre implicitement les chercheurs qui se sont penchés sur l’anarchisme contemporain. Nous analysons les cas d’auteurs anarchistes de la première moitié du 20e siècle comme Alexander Berkman, Emma Goldman, Joseph J. Cohen, Albert Libertad, Émile Armand et Rirette Maîtrejean. Une analyse de la colonie libertaire d’Aiglemont complète le tableau. Notre approche centrée sur l’étude des pratiques militantes repose sur trois conceptions idéal-typiques. Nous considérons trois types de pratiques anarchistes : l’action anarchiste de type insurrectionnel, de type syndicaliste et de type éducationnisteréalisateur. Nous concluons que les pratiques du mouvement anarchiste contemporain s’apparentent aux pratiques de certains anarchistes classiques, c’est-à-dire les pratiques de type éducationniste-réalisateur.
Resumo:
Au début du XVe siècle, les forêts domaniales devinrent un enjeu majeur dans les affaires du royaume de France. Gérées par l’administration des Eaux et Forêts, elles furent sur ordre du roi l’objet d’une surveillance particulière. L’étude du Coutumier d’Hector de Chartres, un registre du XVe siècle consignant les droits d’usage de centaines d’usagers des forêts du domaine normand de Charles VI, révèle la place que ces dernières occupaient dans la société en France dans les derniers siècles du Moyen Âge. D’une part, le Coutumier démontre qu’elles étaient non seulement importantes dans l’économie de la province mais qu’elles jouaient aussi un rôle essentiel dans la vie autant à la campagne que dans les villes. D’autre part, avec l’analyse des ordonnances forestières du XIVe siècle et du début du XVe siècle, il illustre comment elles furent d’une importance capitale pour le roi puisque ce dernier y prenait le bois nécessaire à la construction de sa marine et à l’entretien de ses forteresses normandes et qu’il en tirait d’importants revenus dans un contexte d’hostilités avec l’Angleterre. Ainsi, une relation de réciprocité bénéfique pour le roi et les usagers s’installa à travers un complexe système d’usages et de redevances. En cherchant à protéger ces bénéfices, les rois de France tentèrent de gérer adéquatement leurs forêts, établissant ainsi les jalons d’une foresterie durable tournée vers la préservation des ressources sylvicoles et se posant en gardiens du bien commun.
Resumo:
La présente recherche s’intéresse aux adolescents qui sont des aidants naturels auprès d’un parent aux prises avec une maladie chronique dans un contexte où, d’une part, de plus en plus de soins doivent désormais être assumés par les personnes atteintes elles-mêmes et par leurs familles (Guberman et coll., 2005) et, d’autre part, les services destinés aux aidants naturels ont encore de la difficulté à concevoir les enfants et les adolescents comme étant des aidants (Charles, Stainton et Marshall, 2012). Les jeunes aidants adoptent des tâches et des rôles qui ne sont pas toujours adaptés à leur âge (Earley et Cushway, 2002), ce qui peut compromettre leur développement psycho-social (Sieh et coll., 2010 ; Davey et coll., 2005 ; Pedersen et Revenson, 2005). En parlant des jeunes aidants, il est important de considérer le caregiving sur un continuum selon lequel tous les jeunes sont impliqués, d’une façon ou d’une autre, dans les aspects de la prise en charge d’un parent malade, mais qu’une proportion plus petite adopte un rôle de jeune aidant, ce qui signifie que leur implication est exagérée, que le temps consacré à l’aide ainsi que la nature de celle-ci ne correspondent pas à leur âge ni à leur stade de développement, et qu’il y a des restrictions importantes ayant des impacts négatifs sur leur vie (Becker, 2007). Notre recherche part ainsi de l’interrogation sur la façon dont cette réalité est vécue par les adolescents et dont elle est perçue et interprétée par les intervenants de différents milieux de pratique dans le contexte québécois. Cette recherche s’appuie sur le cadre théorique de la reconnaissance tel que proposé par Honneth. En effet, en nous appuyant sur la littérature disponible, on peut présumer que l’attention portée aux jeunes aidants est un enjeu central de leur réalité. En conséquence, il est de notre avis qu’il faut mieux comprendre les enjeux de cette reconnaissance dont la plupart des recherches parlent, mais qui restent peu étudiés en lien avec les jeunes aidants. Ce cadre conceptuel servira de porte d’entrée pour analyser quatre entrevues semi-dirigées avec des adolescents âgés de 15 à 19 ans, ainsi que sept entrevues semi-dirigées avec des intervenants de divers milieux de pratique. Les résultats de cette recherche suggèrent la présence de trois dynamiques de reconnaissance décrivant des enjeux différents entourant la réalité des jeunes aidants. Celles-ci mettent en évidence que les conséquences auxquelles les jeunes aidants peuvent être confrontés proviennent moins de leur rôle d’aidant que de la dimension relationnelle en ce qui concerne leur réalité. En outre, au croisement des regards entre les adolescents et les intervenants, un point de divergence se dégage et semble faire obstacle à notre manière de considérer l’aide qui devrait être apportée en ce qui concerne ce phénomène. Il apparaît que, pour les intervenants, l’amélioration de la situation des jeunes aidants passe, entre autres, par le soutien qui devrait être apporté aux parents, tandis que les adolescents mettent un accent particulier sur la manière dont leur contribution est non seulement valorisée dans la sphère familiale, mais également soutenue par les intervenants entourant leur famille.
Resumo:
La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.
Resumo:
Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.
Resumo:
La biologie évolutionnaire est au cœur des débats contemporains concernant les comportements humains. Les concepts de libre arbitre et de la moralité doivent, par conséquent, être repositionnés par rapport à ce type d’explication. Le consensus actuel concernant le libre arbitre est qu’il se réduit à l’expérience du libre arbitre et que la vraie question est alors d’expliquer comment cette expérience s’inscrit dans le processus darwinien. D’autres, darwiniens, par contre, semblent vouloir offrir une réalité au libre arbitre tout en maintenant un certain déterminisme darwinien. Dans ce mémoire, les arguments d’Alex Rosenberg proposant la position originale d’anti-libre arbitre et d’antidéterminisme seront étudiés. L’étude détaillée du passage du nihilisme biologique vers un nihilisme moral démontré par une position physicaliste et naturaliste, adoptée par Rosenberg, permettra d’illustrer la position anti-libre arbitre et antidéterministe. Pour ce faire, les théories de la deuxième loi de la thermodynamique et de l’évolution par la sélection naturelle seront présentées et analysées afin de démontrer en quoi elles répondent à la position physicaliste et naturaliste d’une part, et d’autre part, comment elles justifient le passage du nihilisme biologique au nihilisme moral selon Rosenberg. Finalement, les arguments et la position d’Alex Rosenberg seront mis en relation avec le domaine de la métaéthique afin d’y déceler une contradiction : le nihilisme moral n’est peut-être pas aussi gentil que Rosenberg l’affirme.
Resumo:
L’étude présentée dans ce mémoire concerne ce qui amène les jeunes adultes (18-25 ans) à afficher certains éléments et pas d’autres, sur Facebook, en relation avec leur conception personnelle de la vie privée. J’aborde ce processus en mobilisant les notions de présentation de soi, de relations en public et, plus particulièrement, de territoires du moi élaborées par le sociologue Erving Goffman (1973). Les territoires du moi sont ici perçus comme ce qui appartient à l’individu de manière privée et qu’il souhaite protéger. Ces notions de la pensée de Goffman sont pour moi interdépendantes puisque les territoires du moi d’une personne sont influencés à la fois par le rôle que la personne tient ainsi que par les normes et les règles encadrant l'interaction. Cette étude a été réalisée auprès de huit jeunes adultes âgés entre 18 et 25 ans. Une entrevue individuelle a été faite avec chacun d’entre eux. Lors de celle-ci, les participants avaient à présenter leur compte Facebook. Je les invitais, par exemple, à me raconter ce qui les motivait à afficher certaines choses, qui sont les personnes qui peuvent voir ces choses et, à l’inverse, ce qui n’a pas sa place sur la page Facebook et qui sont les personnes qui ne peuvent pas voir certaines publications. Suite à ce terrain, les analyses mettent en lumière sept dimensions s’inscrivant dans la pensée de Goffman qui dessinent la protection de ce que l’on pourrait nommer la vie privée. Il y a Se voir à travers le regard de l’autre et s’en inquiéter, Projeter une image de soi positive, Les amis Facebook : jamais nous n’avons eu autant d’amis, Flirt, relation de couple et cœur brisé : les relations amoureuses et Facebook, Avoir plusieurs rôles sur une même plateforme : la famille n’a souvent pas sa place, Gérer les paramètres de Facebook n’est pas si simple et Évolution de l’usage de Facebook : une question d’âge et un apprentissage. La plupart d’entre elles ont, pour ligne directrice, le regard de l’autre puisque l’inquiétude vis-à-vis celui-ci vient très souvent nuancer le choix de publications des usagés.
Resumo:
Il est évalué qu’entre 15 et 40 % des élèves surdoués performent à des niveaux inférieurs à leur potentiel (Seeley, 1994). Récemment, plusieurs chercheurs se sont plongés dans ce phénomène en tentant de l’expliquer. Par contre, une seule équipe de recherche s’est attardé sur l’impact des climats socioéducatifs sur la performance des surdoués, alors que ce lien est bien existant chez les jeunes non-doués. Cette recherche vise à explorer la relation possible entre les climats socioéducatifs, l’environnement familial et la performance scolaire chez les jeunes surdoués, afin de combler ce manque dans la littérature. Afin d’atteindre cet objectif, un échantillon de 1 885 participants de 3e secondaire provenant de la base de donnée de l’évaluation du programme SIAA furent étudiés afin de créer un modèle présentant l’effet des environnements sur la performance des jeunes surdoués, médié par la motivation. Nos résultats suggèrent que l’impact des environnements socioéducatifs et familiaux sur la performance des jeunes surdoués est minime, bien qu’il soit majeur chez les jeunes non-doués.
Resumo:
Pour exprimer ou définir une idée nouvelle, Derrida détourne souvent le sens d’un mot en se l’appropriant. La relation de Derrida avec les idées est telle que leur transmission passe par un vocabulaire spécifique, notamment l’analyse de l’étymologie (vraie et fausse). Mais quelle est sa conception du mot ? Quelles en sont les implications et les conséquences ? Pour répondre à ces questions, l’approche la plus féconde consiste à suivre au plus près celle que Derrida utilise en abordant la langue par rapport à la grammaire au sens large (c’est-à-dire tout ce qui fait événement dans la langue). En effet, la relation entre le mot et l’idée prend tout son sens dans l’analyse de certaines scènes bibliques, telles celles de la Genèse ou encore du mythe de Babel. Le fameux énoncé inaugural de l’Évangile de Jean, « Au commencement était la parole... », fait retour dans l’œuvre de Derrida, où il connaît plusieurs variations : il mérite examen, dans la perspective d’une déconstruction du logos et des origines de la langue. Le corpus de notre étude porte principalement sur trois textes de Jacques Derrida : « Des tours de Babel » (L’art des confins, PUF, 1979), Schibboleth – Pour Paul Celan (Galilée, 1986) et Donner la mort (Galilée, 1999), ces textes permettant tous une interrogation de l’« intention » divine dans le langage. Notre visée, en privilégiant dans l’œuvre derridienne ces « exemples » bibliques, est d’étudier la démarche de Derrida dans la « création » d’une langue, aspect qui a toujours été inséparable de l’élaboration de sa philosophie et auquel il a accordé la plus grande attention. À terme, ce travail se veut une contribution à la pensée du philosophe, portant sur un aspect capital de son travail et battant en brèche l’idée que son écriture est « absconse » ou « hermétique », alors qu’il y va pour lui de la mise en œuvre de sa manière même de concevoir la langue.
Resumo:
L’objectif de cette recherche est la création d’une plateforme en ligne qui permettrait d’examiner les différences individuelles de stratégies de traitement de l’information visuelle dans différentes tâches de catégorisation des visages. Le but d’une telle plateforme est de récolter des données de participants géographiquement dispersés et dont les habiletés en reconnaissance des visages sont variables. En effet, de nombreuses études ont montré qu’il existe de grande variabilité dans le spectre des habiletés à reconnaître les visages, allant de la prosopagnosie développementale (Susilo & Duchaine, 2013), un trouble de reconnaissance des visages en l’absence de lésion cérébrale, aux super-recognizers, des individus dont les habiletés en reconnaissance des visages sont au-dessus de la moyenne (Russell, Duchaine & Nakayama, 2009). Entre ces deux extrêmes, les habiletés en reconnaissance des visages dans la population normale varient. Afin de démontrer la faisabilité de la création d’une telle plateforme pour des individus d’habiletés très variables, nous avons adapté une tâche de reconnaissance de l’identité des visages de célébrités utilisant la méthode Bubbles (Gosselin & Schyns, 2001) et avons recruté 14 sujets contrôles et un sujet présentant une prosopagnosie développementale. Nous avons pu mettre en évidence l’importance des yeux et de la bouche dans l’identification des visages chez les sujets « normaux ». Les meilleurs participants semblent, au contraire, utiliser majoritairement le côté gauche du visage (l’œil gauche et le côté gauche de la bouche).
Resumo:
Les processus de la mise en scène reposent nécessairement sur une réalité humaine complexe, faite de dialogues et de rapports de force en constante redéfinition. Afin de les théoriser, plusieurs travaux ont institué en corpus les documents produits en cours de réunion ou de répétition, pour leur appliquer les méthodes issues de la génétique des textes. Or le transfert s’avère problématique : vestiges lacunaires, ces supports ne sauraient témoigner à eux seuls de la vie organique et polyphonique de la mise en scène en gestation. Une première solution consiste à opter pour une approche radicalement intermédiale des archives d’un spectacle : dans la mesure où la mise en scène fait interagir plusieurs disciplines artistiques, pourquoi ne pas la penser en confrontant activement les différents media générés lors de son élaboration ? Complémentaire de la première, une seconde proposition suppose que le chercheur s’implique dans une observation in vivo de réunions et de répétitions afin de disposer d’une matière plus complète. À cette clarification épistémologique succède un essai de théorisation des processus de la création scénique. Il apparaît tout d’abord que l’espace de travail est aussi bien un contenant physique de la recherche des artistes qu’un catalyseur : c’est en se l’appropriant à plusieurs qu’un groupe de collaborateurs donne corps à la mise en scène. L’espace de création révèle par là même une dimension polyphonique que l’on retrouve sur le plan du temps : dans la mesure où il engage un ensemble d’artistes, un processus ne possède pas de linéarité chronologique homogène ; il se compose d’une multitude de temporalités propres à chacun des répétants, qu’il s’agit de faire converger pour élaborer un spectacle commun à tous. Les processus de la mise en scène se caractérisent ainsi par leur dimension fondamentalement sociale. Réunie dans un espace-temps donné, la petite société formée autour du metteur obéit à un mode de création dialogique, où les propositions des uns et des autres s’agrègent pour former un discours foisonnant dont la force et l’unité sont garanties par une instance surplombante.
Resumo:
Tout au long de la vie d’un individu, il existe un nombre optimal de cellules à produire et de progéniteurs à conserver en réserve. On parle de maintien de l’homéostasie tissulaire. De façon générale, l’organisme a cinq possibilités pour réguler l’homéostasie : l’autorenouvellement et la quiescence, souvent utilisés pour maintenir un ‘pool’ fonctionnel de progéniteurs, la différenciation qui permet de produire des cellules effectrices, l’apoptose et la sénescence, qui permettent de limiter la production de cellules ou encore d’en faire diminuer le nombre quand elles sont en excès. La régulation de ces quatre mécanismes peut se faire de façon extrinsèque en passant par différentes voies de signalisation combinées à l’action intrinsèque de facteurs de transcription comme Ikaros et GATA1. Le facteur de transcription Ikaros joue un rôle critique dans le devenir des cellules progénitrices et la différenciation des lignages hématopoïétiques. Cependant, il demeure surtout connu pour son influence sur la voie Notch dans les cellules lymphoïdes, notamment les lymphocytes T. Les cellules érythroïdes sont hautement sensibles à l’environnement et donc, particulièrement adaptées à l’étude des régulations de l’homéostasie. Les résultats de différentes études ont permis de démontrer qu’Ikaros et la voie Notch influencent l’érythropoïèse. Cependant le détail de leurs actions demeure en grande partie inconnu à ce jour. Au cours de notre étude nous avons voulu déterminer l’action d’Ikaros dans le maintien de l’homéostasie des cellules érythroïdes et si son rôle passe par un dialogue avec la voie Notch. Nous avons voulu décrypter les mécanismes de régulation transcriptionnelle utilisés par Ikaros et par Notch au cours de l’érythropoïèse et leurs effets. Notre étude montre qu’Ikaros réprime à l’aide de GATA1 le gène Hes1, une cible importante de la voie Notch, en recrutant un complexe de la famille Polycomb, le PRC2 ii (Polycomb Repressive Complex 2). Cette répression permet la promotion de la différenciation des cellules érythroïdes. Au niveau du maintien de l’homéostasie par régulation de l’apoptose, Ikaros est connu pour cibler l’anti-apoptotique Bcl2l1 dans les lymphocytes. Puisque Gata-1, partenaire préférentiel d’Ikaros cible Bcl2l1 dans les cellules érythroïdes, nous avons caractérisé leur effet sur l’expression de Bcl2l1. Nous avons découvert qu’Ikaros active de façon directe Bcl2l1 et qu’il recrute sur le gène deux complexes partenaires d’élongation : un de la famille SET1/MLL, et le complexe P-TEFb-NuRD. En l’absence d’Ikaros, le fragment intracellulaire de Notch (NICD) et son cofacteur RBP-J remplacent Ikaros et favorisent l’hyper-activation de l’expression de Bcl2l1. Ceci est associé à la modification du complexe d’élongation recruté, ainsi qu’à la mise en place de modifications épigénétiques distinctes de celles observées avec Ikaros ce qui modifie l’élongation transcriptionnelle du gène. Ikaros et Notch sont fréquemment mutés ou présentent des fonctions altérées dans les leucémies. Notre étude montre un dialogue Ikaros/Notch influençant aussi bien la différenciation que l’apoptose et met en évidence l’existence d’un circuit génétique dont le dérèglement pourrait favoriser l’apparition d’une hématopoïèse maligne.
Resumo:
La distance historique qui nous sépare de la publication de Vérité et méthode permet une meilleure intelligence de l’aspect universel de l’herméneutique de Hans-Georg Gadamer qui a suscité tant de débats immédiatement après la parution de son ouvrage. L’herméneute a en effet pu, dans plusieurs textes qu’il a écrits au cours des dernières décennies, préciser sa conception et mieux attester cette universalité, notamment en l’associant à l’universalité de la rhétorique elle-même. Un nouveau regard porté sur les divers débats suscités par cette prétention de l’universalité de l’herméneutique permet aussi de s’en faire une idée plus claire et limpide. Le présent mémoire se penche sur le sens à donner à l’universalité de l’herméneutique en tenant compte des sections décisives de Vérité et méthode qui y sont consacrées, des écrits plus tardifs de Gadamer sur la question et de la littérature secondaire afin de voir si cette prétention à l’universalité peut être défendue face aux critiques formulées par Jürgen Habermas. Nous soutiendrons dans ce mémoire que c’est le cas, mais aussi que la critique de Habermas a aidé Gadamer à mieux formuler et faire comprendre l’universalité de l’herméneutique. C’est précisément en tenant compte de l’apport de ceux qui pensent autrement que s’atteste l’universalité de l’herméneutique.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.