578 resultados para Squelettes humains
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
La biologie évolutionnaire est au cœur des débats contemporains concernant les comportements humains. Les concepts de libre arbitre et de la moralité doivent, par conséquent, être repositionnés par rapport à ce type d’explication. Le consensus actuel concernant le libre arbitre est qu’il se réduit à l’expérience du libre arbitre et que la vraie question est alors d’expliquer comment cette expérience s’inscrit dans le processus darwinien. D’autres, darwiniens, par contre, semblent vouloir offrir une réalité au libre arbitre tout en maintenant un certain déterminisme darwinien. Dans ce mémoire, les arguments d’Alex Rosenberg proposant la position originale d’anti-libre arbitre et d’antidéterminisme seront étudiés. L’étude détaillée du passage du nihilisme biologique vers un nihilisme moral démontré par une position physicaliste et naturaliste, adoptée par Rosenberg, permettra d’illustrer la position anti-libre arbitre et antidéterministe. Pour ce faire, les théories de la deuxième loi de la thermodynamique et de l’évolution par la sélection naturelle seront présentées et analysées afin de démontrer en quoi elles répondent à la position physicaliste et naturaliste d’une part, et d’autre part, comment elles justifient le passage du nihilisme biologique au nihilisme moral selon Rosenberg. Finalement, les arguments et la position d’Alex Rosenberg seront mis en relation avec le domaine de la métaéthique afin d’y déceler une contradiction : le nihilisme moral n’est peut-être pas aussi gentil que Rosenberg l’affirme.
Resumo:
Une récente théorie de la mémoire a proposé que lorsqu'un souvenir déjà bien consolidé est réactivé, il redevient labile et susceptible aux modifications avant d'être restabilisé (reconsolidé) en mémoire à long terme. Ce nouveau modèle réfute le modèle classique de la consolidation qui propose qu'une fois consolidés, les souvenirs soient permanents et donc résistants aux effets des agents amnésiques. Les études validant la théorie de la reconsolidation abondent chez les animaux, mais encore peu d'études ont été réalisées chez les humains. L'objectif de cette thèse est de vérifier, dans une population de sujets sains et de sujets souffrant de trouble de stress post-traumatique (TSPT), l'efficacité d'un agent pharmacologique, le propranolol (un β-bloquant noradrénergique) à atténuer des souvenirs émotionnels nouvellement acquis ou déjà bien consolidés. Plus spécifiquement, nous avons mené un essai clinique contrôlé à double insu chez des sujets sains en leur administrant du propranolol (vs du placebo) lors de l'acquisition d'un nouveau souvenir et une semaine plus tard, lors de sa réactivation. L'objectif du premier article était d'évaluer l'efficacité du propranolol à diminuer la consolidation et la reconsolidation d'un souvenir émotionnel. Par ailleurs, puisque les études chez les animaux ont démontré que ces deux processus mnésiques s'effectuent à l'intérieur d'une fenêtre temporelle précise, le moment de l'administration du propranolol fut pris en considération. Les résultats ont démontré que le propranolol est en mesure de diminuer la consolidation et la reconsolidation d'une histoire émotionnelle tel que démontré par un pourcentage de bonnes réponses plus faible que le groupe contrôle lors des rappels. Toutefois, pour que cet effet soit observé, le propranolol doit être administré une heure avant la présentation des stimuli, pour la consolidation et une heure avant leur réactivation, pour la reconsolidation. En outre, les études portant sur la consolidation et la reconsolidation chez les animaux et chez les humains obtiennent parfois des résultats contradictoires. Ceci pourrait s'expliquer par le type de stimuli utilisé. Ainsi, l'objectif du second article était de préciser quel type d'information est le plus susceptible d'être affecté par le propranolol lors de son acquisition (consolidation) et lors de sa réactivation (reconsolidation). Pour ce faire, les éléments de l'histoire émotionnelle ont été divisés en fonction de leur valence (émotionnel ou neutre) et de leur centralité (central ou périphérique). Les résultats ont démontré le propranolol affecte l'ensemble des informations centrales lors du blocage de la consolidation, mais qu'il affecte plus spécifiquement les éléments émotionnels centraux lors de la reconsolidation. Notre groupe ayant précédemment démontré que le traitement avec le propranolol est en mesure de réduire les symptômes de TSPT chez une population clinique, nous nous sommes interrogés sur son efficacité à diminuer la mémoire implicite d'un événement traumatique. Le propranolol a été administré aux participants à 6 reprises (une fois par semaine sur une période de 6 semaines) lors de la réactivation de leur trauma. Les résultats ont révélé que le traitement avec le propranolol est en mesure de diminuer la réponse psychophysiologique des participants à l'écoute du compte rendu de leur trauma une semaine et 4 mois suivant la fin du traitement. En somme, cette thèse démontre que le propranolol est en mesure de bloquer la consolidation et la reconsolidation de souvenirs émotionnels chez l'humain lorsqu'il est administré une heure avant l'acquisition ou la réactivation des souvenirs. Il arrive en outre à atténuer un souvenir déclaratif émotionnel chez des sujets sains, mais également un souvenir implicite chez des sujets souffrant de TSPT. Ainsi, ces résultats ouvrent la voie à la création de nouveaux traitements pour les psychopathologies ayant comme étiologie un souvenir émotionnel intense.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
Le non-humain et son ontologie sont définis dans ce mémoire en fonction des écrits de Philippe Descola et d’Eduardo Viveiros de Castro, deux figures-clés en anthropologie contemporaine sur l’Amazonie. L’animisme de Descola prête aux non-humains une intériorité humaine et les différencie par leur corps. Le perspectivisme de Viveiros de Castro, quant à lui, suppose que les points de vue différents créent des mondes et établissent ce qui est humain ou non. L’humain correspond au sujet cosmologique à la position pronominale de la première personne du singulier, ou « I », au sein d’une relation. De la sorte, un non-humain se perçoit comme un humain à cette position pronominale « I » et voit l’Autre à la position pronominale « it », position du non-humain. Dans ces deux ontologies, le non-humain est conçu comme une personne capable d’agir dans les mondes. La diversité des êtres inclus dans cette ontologie relationnelle est démontrée par des illustrations provenant de l’ethnographie achuar et araweté de ces deux auteurs. Puis, les relations de parenté, d’alliance et de prédation que les non-humains tissent entre eux et avec les humains exposent l’homologie des rapports non-humains avec les rapports humains. Finalement, l’analyse des méthodes de communication entre le non-humain et l’humain élucide comment la reconnaissance du non-humain dans une communication permet le traitement de ces êtres en tant qu’humains. Le non-humain ne serait donc pas un sujet permanent, mais temporaire le moment de l’interaction.
Resumo:
L’objectif général de cette thèse de doctorat est de mieux comprendre comment le public interprète les nouvelles scientifiques portant sur la génétique humaine, plus précisément les nouvelles portant sur la génétique des comportements et celles portant sur la génétique des groupes raciaux. L’ouvrage prend la forme d’une thèse par article. Le Chapitre 1 introduit le lecteur aux buts et aux pratiques de la vulgarisation scientifique, présente un sommaire de la recherche sur les effets des médias, résume les principaux travaux produits par le champ de la génopolitique, et définit la structure des croyances du public à l’égard de l’influence de la génétique sur les traits humains. Le Chapitre 2 présente les fondements de la méthode expérimentale, il en explique les atouts et il offre des exemples de différents types de devis expérimentaux utilisés en science politique. Toutes les recherches produites dans cette thèse reposent au moins en partie sur cette méthode. Le Chapitre 3 présente les résultats d’une expérience de sondage qui vise à mesurer l’effet de la lecture d’une nouvelle à propos de la recherche en génétique des comportements sur des participants. L’étude démontre que le public interprète la nouvelle avec maladresse et tend à généraliser l’influence de la génétique à d’autres traits humains qui n’y sont pas mentionnés. J’avance l’hypothèse qu’un raccourci psychologique amplement documenté puisse expliquer cette réaction : l’heuristique de l’ancrage et de l’ajustement. Le Chapitre 4 présente lui aussi les résultats d’une expérience de sondage. L’étude consiste à manipuler certaines informations du contenu d’une nouvelle sur la génopolitique de manière à vérifier si certains éléments sont particulièrement susceptibles de mener à la généralisation hâtive mise en évidence dans le Chapitre 3. Les analyses suggèrent que cette généralisation est amplifiée lorsque la nouvelle présente de hauts niveaux d’héritabilité tirés d’études de jumeaux, ainsi que lorsqu’elle présente des travaux de génétique des populations visant à étudier l’origine des différences géographiques. Ce chapitre présente des recommandations à l’égard des journalistes scientifiques. Le Chapitre 5 s’intéresse à un aspect différent de la génétique humaine : celui de la génétique des races. L’objectif de cette recherche est de comprendre comment le public réagit aux travaux qui invalident l’idée selon laquelle les humains sont divisés en différentes races génétiquement distinctes. Les analyses de données transversales ainsi que les résultats d’une expérience de sondage convergent et indiquent que les conservateurs et les libéraux réagissent de manière diamétralement opposée à cette information. D’un côté, les libéraux acceptent le constat scientifique et réduisent leur impression que la génétique explique en partie les inégalités sociales; de l’autre, les conservateurs rejettent l’argument avec une intensité si forte que le rôle qu’ils attribuent aux différences génétiques s’en voit bonifié. Ces résultats sont interprétés à partir de la théorie du raisonnement motivé. Enfin, le Chapitre 6 résume les principaux constats, met en évidence les contributions que ma thèse apporte à la science politique et à la communication scientifique, et présente quelques pistes pour la recherche future.
Resumo:
Streptococcus du Groupe B (GBS) et Streptococcus suis sont deux pathogènes encapsulés qui induisent des pathologies similaires dont la méningite et la septicémie chez les animaux et/ou les humains. Les sérotypes III et V du GBS et les sérotypes 2 et 14 du S. suis (utilisés dans cette étude) sont parmi les plus prévalents et/ou les plus virulents. La capsule polysaccharidique (CPS) définit le sérotype et est considérée comme un facteur de virulence essentiel pour les deux espèces bactériennes. Malgré que plusieurs études aient été réalisées au niveau des interactions entre ces streptocoques et les cellules de l’immunité innée, aucune information n’est disponible sur la régulation de la réponse immunitaire contre ces pathogènes par les cellules dendritiques (DCs) et leur interactions avec d’autres cellules, notamment les cellules ‘natural killer’ (NK). Dans cette étude, différentes approches (in vitro, ex vivo et in vivo) chez la souris ont été développées pour caractériser les interactions entre les DCs, les cellules NK et GBS ou S. suis. L’utilisation de mutants non encapsulés a permis d’évaluer l’importance de la CPS dans ces interactions. Les résultats in vitro avec les DCs infectées par GBS ou S. suis ont démontré que ces deux pathogènes interagissent différemment avec ces cellules. GBS est grandement internalisé par les DCs, et ce, via de multiples mécanismes impliquant notamment les radeaux lipidiques et la clathrine. Le mécanisme d’endocytose utilisé aurait un effet sur la capacité du GBS à survivre intracellulairement. Quant au S. suis, ce dernier est très faiblement internalisé et, si le cas, rapidement éliminé à l’intérieur des DCs. GBS et S. suis activent les DCs via différents récepteurs et favorisent la production de cytokines et chimiokines ainsi que l’augmentation de l’expression de molécules de co-stimulation. Cette activation permet la production d’interferon-gamma (IFN-y) par les cellules NK. Cependant, GBS semble plus efficient à activer les DCs, et par conséquent, les cellules NK que S. suis. La production d’IFN-y, en réponse à la stimulation bactérienne, est principalement assurée par un contact direct entre les DCs et les cellules NK et ne dépend qu’en partie de facteurs solubles. De plus, nos résultats in vivo ont démontré que ces deux streptocoques induisent rapidement la libération d'IFN-y par les cellules NK lors de la phase aiguë de l'infection. Ceci suggère que les interactions entre les DCs et les cellules NK pourraient jouer un rôle dans le développement d’une réponse immune T auxiliaire de type 1 (T ‘helper’ 1 en anglais; Th1). Cependant, la capacité de S. suis à activer la réponse immunitaire in vivo est également plus faible que celle observée pour GBS. En effet, les CPSs de GBS et de S. suis jouent des rôles différents dans cette réponse. La CPS de S. suis empêche une activation optimale des DCs et des cellules NK alors que c’est l’opposé pour la CPS de GBS, indépendamment du sérotype évalué. En résumé, cette étude adresse pour la première fois la contribution des DCs et des cellules NK dans la réponse immunitaire innée lors d’une infection à GBS ou à S. suis et, par extension, dans le développement d’une réponse Th1. Nos résultats renforcent davantage le rôle central des DCs dans le contrôle efficace des infections causées par des bactéries encapsulées.
Resumo:
Le sanctuaire Agoa est une aire marine protégée dans la zone économique exclusive (ZEE) des Antilles françaises qui fut créée en 2010 pour la conservation des mammifères marins et de leurs habitats. Il est connu que le rorqual à bosse fréquente les eaux des Antilles de décembre à mai pour la reproduction et la mise bas. Par contre, peu d’information existe sur l’abondance, le comportement, la distribution et les pressions anthropiques sur cette espèce aux Antilles et encore moins dans le sanctuaire. Cette maîtrise s’intéresse principalement à connaître cette espèce dans un secteur précis de cette aire marine et les liens qu’elle entretient avec certains utilisateurs humains de son habitat. Le tout vise à informer les intervenants en place, autant institutionnels qu’utilisateurs, vers une mise en place de mesures de conservation adaptées. Un suivi terrestre hivernal de plus de 300 heures, en 2012 et 2013, a permis de déterminer l’utilisation de l’habitat et les pressions anthropiques sur une population de rorquals à bosse fréquentant le sud de la péninsule de la Pointe-des-Châteaux en Guadeloupe. Il s’agit du premier suivi terrestre de cette espèce aux Antilles françaises et un des premiers dans l'arc caribéen. La zone d’étude couvre environ 264 km2 et serait une des zones les plus fréquentées de l’archipel guadeloupéen par l’espèce. À l’aide d’un théodolite, la trajectoire de 107 groupes différents (137,8 heures, 699 remontées) a été décrite. Les résultats montrent que la zone d’étude est principalement fréquentée en mars et avril, avec une abondance maximale au début du mois d’avril. La forte présence de baleineaux, particulièrement au mois de mars, pousse à croire que cette zone est utilisée comme pouponnière. Le comportement n’est pas aléatoire dans la zone d’étude et les trajectoires convergent vers certaines zones ayant possiblement un lien avec la bathymétrie. De plus, la zone marine à proximité de la Pointe-des-Châteaux pourrait potentiellement être un lieu de convergence des groupes. Ceux-ci se déplacent à vitesse réduite en direction ENE en général, à l’exception des femelles accompagnées de baleineaux qui prennent une orientation tout autre, c’est-à-dire vers le ONO, et ce à plus grande vitesse. Bien que la pression d’observation soit considérée comme modérée, une forte proportion des remontées se trouve dans les corridors de navigation présents dans la zone d’étude. De plus, le corridor de navigation des navettes entre Saint-François et La Désirade comporte le plus grand risque relatif de collision mortelle. Une réduction de vitesse des embarcations fréquentant le corridor des navettes diminuerait significativement le risque de collision mortelle. Ces pistes de réflexion mèneront sans doute à d’autres études plus poussées afin de continuer à en apprendre sur l’écologie de cette espèce fascinante.
Resumo:
Karl Marx (1818-1883) a consacré son œuvre à l’explicitation d’une philosophie sociale du capitalisme et de son dépassement. Ce mémoire cherche à rendre compte de la spécificité de la domination capitaliste au travers du prisme des concepts d’objectivation et d’aliénation. Après avoir éclairé leurs sources chez Hegel et Feuerbach, nous défendons l’idée qu’il faut lire de façon plurielle le concept d’objectivation dans les Manuscrits de 1844, afin de saisir la constitution de l’objectivité par les médiations sociales et historiques. Des Manuscrits de 1844 au Capital, l’aliénation est alors comprise comme la domination d’une abstraction réelle, médiation sociale à laquelle les êtres humains ont remis la régulation de leurs rapports sociaux.
Resumo:
Les anomalies du tube neural (ATN) sont des malformations congénitales parmi les plus fréquentes chez l’humain en touchant 1-2 nouveau-nés par 1000 naissances. Elles résultent d’un défaut de fermeture du tube neural pendant l’embryogenèse. Les formes les plus courantes d'ATN chez l'homme sont l'anencéphalie et le spina-bifida. Leur étiologie est complexe impliquant à la fois des facteurs environnementaux et des facteurs génétiques. Un dérèglement dans la signalisation Wnt, incluant la signalisation canonique Wnt/β-caténine et non-canonique de la polarité planaire cellulaire (PCP), peut causer respectivement le cancer ou les anomalies du tube neural (ATN). Les deux voies semblent s’antagoniser mutuellement. Dans cette étude, nous investiguons les rôles de Lrp6 et deANKRD6, entant qu’interrupteurs moléculaires entre les deux voies de signalisation Wnt, et CELSR1, en tant que membre de la PCP, chez la souris mutante Skax26m1Jus, générée par l’agent mutagène N-Ethyl-N-Nitrosuera, et dans une cohorte de patients humains ATN. Pour Lrp6, nous avons démontré que Skax26m1Jus représente un allèle hypermorphe de Lrp6 avec une augmentation de l’activité de la signalisation Wnt/canonique et une diminution de l’activité JNK induite par la voie PCP. Nous avons également montré que Lrp6Skax26m1Jus interagit génétiquement avec un mutant PCP (Vangl2Lp) où les doubles hétérozygotes ont montré une fréquence élevée d’ATN et des défauts dans la polarité des cellules ciliées de la cochlée. Particulièrement, notre étude démontre l'association des nouvelles et rares mutations faux-sens dans LRP6 avec les ATN humaines. Nous montrons que trois mutations de LRP6 causent une activité canonique réduite et non-canonique élevée. Pour ANKRD6, nous avons identifié quatre nouvelles et rares mutations faux-sens chez 0,8% des patients ATN et deux chez 1,3% des contrôles. Notamment, seulement deux, des six mutations validées (p.Pro548Leu et p.Arg632His) ont démontré un effet significatif sur l’activité de ANKRD6 selon un mode hypomorphique. Pour CELSR1, nous avons identifié une mutation non-sens dans l'exon 1 qui supprime la majeure partie de la protéine et une délétionde 12 pb. Cette perte de nucléotides ne change pas le cadre de lecture et élimine un motif putatif de phosphorylation par la PKC " SSR ". Nous avons également détecté un total de 13 nouveaux et rares variants faux-sens qui avaient été prédits comme étant pathogènes in silico. Nos données confirment le rôle inhibiteur de Lrp6 dans la signalisation PCP pendant la neurulation et indiquent aussi que les mutations faux-sens identifiées chez LRP6 et ANKRD6 pourraient affecter un équilibre réciproque et un antagonisme très sensible à un dosage précis entre les deux voies Wnt. Ces variants peuvent aussi agir comme facteurs prédisposants aux ATN. En outre, nos résultats impliquent aussi CELSR1 comme un facteur de risque pour les anomalies du tube neural ou l’agénésie caudale. Nos résultats fournissent des preuves supplémentaires que la voie de signalisation PCP a un rôle pathogène dans ces malformations congénitales et un outil important pour mieux comprendre leurs mécanismes moléculaires.
Resumo:
De par sa présence dans tous les vaisseaux sanguins, l'endothélium joue un rôle clef dans le processus d’hémostase, tant par sa libération de facteurs anticoagulants que par ses changements protéiques qui permettent à l’organisme de déclencher la réparation tissulaire. La fonction anticoagulante de l’endothélium peut être mise en défaut en cas d’atteinte de son intégrité, entrainant la formation de thrombus, le rejet précoce de greffes ou encore l’induction de l’athérosclérose. L’intégrité de l’endothélium est donc capitale pour la prévention de nombreuses maladies cardiovasculaires. Chez l’adulte, les cellules endothéliales (CE), normalement quiescentes, sont rapidement activées en cas d’hypoxie ou d’inflammation, leur permettant ainsi d’amorcer le processus angiogénique comme suit: Tout d’abord, l’induction de l’hyperperméabilité vasculaire permet l’extravasation des protéines plasmatiques. Ensuite, la dégradation de la lame basale par des métalloprotéases permet aux CE de se détacher, de proliférer, de migrer et de s’organiser pour former l’ébauche du futur vaisseau. La dernière étape consiste en la maturation du vaisseau, c’est-à-dire son recouvrement par des cellules murales, telles que les cellules musculaires lisses et les péricytes. Ces processus sont régulés par de nombreux facteurs angiogéniques tels que les membres de la famille Notch, du vascular endothelial growth factor (VEGF), du fibroblast growth factor (FGF), des angiopoïétines, et des matrix metalloproteases (MMP). L’angiogenèse pathologique, soit une insuffisance ou un excès de vascularisation, est impliquée dans les blessures chroniques, les accidents cardiovasculaires, les pathologies coronariennes artérielles, les pathologies tumorales, l’arthrite rhumatoïde, la rétinopathie diabétique, l’athérosclérose, le psoriasis et l’asthme. Ces pathologies sont souvent issues d’une dérégulation de l’activité endothéliale, fréquemment observée conjointement à l’expression continue de molécules d’adhésion leucocytaires, à l’augmentation de la perméabilité vasculaire, et aux anomalies de la vasoréactivité. L’activation non-contrôlée de l’endothélium entraîne ainsi une inflammation chronique et la formation de structures vasculaires anarchiques. Les premiers leucocytes à répondre à l’appel inflammatoire sont les neutrophiles. Equippées d’une panoplie de produits antibactériens puissants mais aussi nocifs pour les tissus qui les entourent, ces cellules polylobées participent à chaque étape du processus inflammatoire, depuis l’induction de l’hyperperméabilité vasculaire jusqu’à la résolution. En effet, grâce à leurs récepteurs, les neutrophiles détectent et interprètent les signaux biochimiques présents dans la circulation et à la surface de l’endothélium, et libèrent aussi leurs propres médiateurs tels le VEGF, les MMP, et l’interleukine-8 (IL-8), dont les effets sont à la fois paracrines et autocrines. Existent-ils d’autres modulateurs typiques de la fonction endothéliale capables d’influencer le comportement des neutrophiles? En effet, notre laboratoire a démontré que chez l’humain, une stimulation directe aux angiopoïétines incitait les neutrophiles à adhérer aux CE, à migrer, à synthétiser et à relâcher l’IL-8, voire même à vivre plus longtemps. La présence du récepteur des angiopoïétines, Tie2, à la surface des neutrophiles laisse présager que la famille possèderait d’autres fonctions leucocytaires encore non-identifiées. Par ailleurs, dans un modèle classique de l’angiogenèse in vivo (matrigel), nous avons observé que sous l’effet du FGF1 et 2, les ébauches des nouveaux vaisseaux étaient parfois accompagnées d’une infiltration de cellules granulocytaires. Ainsi, en partant de ces observations, l’objectif de nos études (présentées ci-après) était d’approfondir nos connaissances sur la relation entre neutrophiles et facteurs angiogéniques, notamment les FGF et les angiopoïétines. Par tests in vitro, nous avons confirmé que les neutrophiles humains exprimaient plusieurs récepteurs du FGF (FGFR1-4) d’une façon hétérogène, et qu’ils migraient vers un gradient des ligands FGF1 et 2. Par ailleurs, nous nous sommes intéressés aux voies de signalisation inflammatoires activées par les ligands FGF1, FGF2, Ang1 et Ang2. Grâce à une stratégie génique ciblant 84 gènes inflammatoires, nous avons identifié plusieurs cibles d’intérêt touchées par Ang1, dont certains membres de la famille de l’IL-1, alors qu’aucun des gènes testés n’avait changé de façon significative sous l’effet des FGF ou d’Ang2. Suite à des cinétiques approfondies, nous avons démontré qu’Ang1 stimulait la transcription de l’ARN messager de l’IL-1β, et augmentait simultanément la quantité de protéine immature (pro-IL-1β; inactive) et clivée (IL-1β « mature »; active). En parallèle, Ang1 augmentait la sécrétion de l’antagoniste naturel de l’IL-1β, l’IL-1RA, sans pour autant stimuler la relâche de l’IL-1β. A l’instar des endotoxines bactériennes dont les effets liés à l’IL-1 dépendaient de la kinase p38, ceux d’Ang1 découlaient presque entièrement des voies de signalisation du p42/44.
Resumo:
Aucune figure, au XXe siècle et aujourd'hui, n'est comparable au zombie. Sa prolifération et sa réitération en font un cas d'étude exceptionnel. Or, une figure est inséparable des discours qui la voient naître. Il existe un subtil et profond arrimage entre la production d'une figure, son interprétation et l'économie de sens qui la voit naître. Ma modeste ambition, dans ce mémoire, s'insère dans une réflexion à caractère épistémologique où les enjeux narratifs et les notions critiques encadrant le phénomène zombie seront interrogés. De même, afin de faire émerger cette économie de sens, les modalités de sens de la métaphore doivent être cernées. Ce mémoire est donc une série de prolégomènes nécessaires à l'intelligence d'un important problème contemporain : l'interprétation d'une figure telle que le zombie. Le premier chapitre est une synthèse des manifestations de la figure et de sa compréhension. Les années 60 opèrent une importante transformation dans le corpus filmique zombie (et d'horreur) qui s'incarne dans Night of the Living Dead, de George Romero. Le second chapitre s'intéresse aux enjeux narratifs et aux notions critiques qui encadrent le phénomène zombie. La distinction entre thématique et esthétisme s'incarne alors dans la séparation stricte entre forme et contenu et se fait sentir dans les interprétations offertes du phénomène de l'horreur et dont les études sur le zombie sont tributaires. Cela fait, je rappellerai la vision de Todorov et d'Ingarden sur la représentation afin de cerner les enjeux véritables d'une interprétation. En définitive, la question sera de savoir si le zombie peut être pris à la lettre. Le troisième chapitre sera le moment d'interroger la métaphore afin qu'émergent les modalités de sens qui lui sont inhérentes. Ce chapitre se divisera en deux parties qui reprennent les moments essentiels de la métaphore : sa production et sa lecture. Pour ce faire, je parcourrai la tradition théorique sur la métaphore afin de saisir la portée de l'affirmation poétique qui établit un rapport métaphorique entre les zombies et les humains. Quelle est la signification de cette affirmation qui assume et guide la mise en récit d'une figure (le zombie), et qui assume et guide une lecture métaphorique de l'être humain? En guise de conclusion, je réfléchirai sur les modalités de la lecture en vue d'une interprétation de la figure du zombie. En ce sens, j'explorerai cette inséparabilité entre la manière, c'est-à-dire la métaphore, et son contenu, c'est-à-dire ses interprétations.
Resumo:
Les récents avancements en sciences cognitives, psychologie et neurosciences, ont démontré que les émotions et les processus cognitifs sont intimement reliés. Ce constat a donné lieu à une nouvelle génération de Systèmes Tutoriels Intelligents (STI) dont la logique d’adaptation repose sur une considération de la dimension émotionnelle et affective de l’apprenant. Ces systèmes, connus sous le nom de Systèmes Tutoriels Émotionnellement Intelligents (STEI), cherchent à se doter des facultés des tuteurs humains dans leurs capacités à détecter, comprendre et s’adapter intuitivement en fonction de l’état émotionnel des apprenants. Toutefois, en dépit du nombre important de travaux portant sur la modélisation émotionnelle, les différents résultats empiriques ont démontré que les STEI actuels n’arrivent pas à avoir un impact significatif sur les performances et les réactions émotionnelles des apprenants. Ces limites sont principalement dues à la complexité du concept émotionnel qui rend sa modélisation difficile et son interprétation ambiguë. Dans cette thèse, nous proposons d’augmenter les STEI des indicateurs d’états mentaux d’engagement et de charge mentale de travail. Ces états mentaux ont l’avantage d’englober à la fois une dimension affective et cognitive. Pour cela, nous allons, dans une première partie, présenter une approche de modélisation de ces indicateurs à partir des données de l’activité cérébrale des apprenants. Dans une seconde partie, nous allons intégrer ces modèles dans un STEI capable d’adapter en temps réel le processus d’apprentissage en fonction de ces indicateurs.