977 resultados para patrimonialisation de la nature
Resumo:
L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
Ce mémoire traite de la portée de la protection constitutionnelle du droit à la vie privée informationnelle au Canada, au regard de la surveillance électronique gouvernementale à grande échelle des métadonnées des communications électroniques, à des fins de sécurité nationale. Il est soutenu, après une présentation de l’importance démocratique de la vie privée, de même que de la nature et de la portée de certaines activités gouvernementales de surveillance électronique, que le cadre d’analyse du « Biographical core », qui conditionne l’étendue de la protection de la vie privée informationnelle en droit constitutionnel canadien, est susceptible d’inclure les métadonnées des communications électroniques. Cette position est appuyée par un argumentaire juridique fondé sur les règles d’interprétation et la jurisprudence constitutionnelle pertinente. Cet argumentaire se trouve renforcé par potentiel considérablement révélateur des métadonnées, des particularités propres aux activités de surveillance électronique analysées, ainsi que des implications non-juridiques soulevées par ces dernières.
Resumo:
Le présent mémoire porte sur la question de la mort de Dieu dans la philosophie allemande du XIXe siècle. Plus précisément elle entend mettre en lumière le rôle qu’un auteur comme Ludwig Feuerbach (1804-1872) a pu jouer dans la réception d’un tel événement pour la philosophie de cette époque. On observe en effet chez Hegel et Nietzsche, certainement les deux philosophes les plus importants à s’être intéressés au thème de la mort de Dieu, deux manières tout à fait différentes, voire antinomiques, d’interpréter un tel événement. Ce qui fera dire à certains auteurs comme Deleuze et Foucault notamment, qu’entre Hegel et Nietzsche il ne saurait y avoir qu’une coupure radicale tant leurs compréhensions de la mort de Dieu diffère. Un tel geste trahit cependant un certain arbitraire qui empêche de comprendre la genèse philosophique d’un tel déplacement, entre Hegel et Nietzsche, dans la manière d’aborder la mort de Dieu. C’est ici que l’étude de la philosophie feuerbachienne s’avère fructueuse, car si elle demeure dans un dialogue critique par rapport à la conception hégélienne de la mort de Dieu, sa réponse opère cependant un déplacement qui anticipe certains aspects de la pensée nietzschéenne. C’est à partir de l’analyse de sa critique de la religion chrétienne et de l’anthropologie philosophique nouvelle qui l’y oppose que l’on sera en mesure de saisir la nature de ce déplacement feuerbachien.
Resumo:
La formation de la main-d’œuvre est l’objet d’une littérature scientifique abondante depuis plusieurs années. D’une manière générale, les principaux sujets étudiés dans la littérature scientifique, les travaux empiriques et dans les politiques publiques traitent du rendement de la formation de la main-d’œuvre ou plus récemment de la dimension stratégique de la formation de la main-d’œuvre sur la performance organisationnelle. Or, les résultats produits sont mitigés, peu convaincants, voire contradictoires (Cedefop, 2013, 2005). En conséquence, les chefs d’entreprises et les décideurs en matière de politiques publiques manquent de démonstrations claires pour évaluer les impacts de la formation sur la performance des organisations. Dans cette recherche, nous proposons justement d’apporter un nouvel éclairage théorique et empirique pour mieux comprendre les caractéristiques des entreprises qui évaluent le rendement de la formation, comment le font-elles et quelles sont les retombées perçues en la matière. Sur le plan théorique, cette recherche mobilise trois approches différentes dans un modèle analytique qui se veut intégratif. Dans la partie plutôt hypothético-déductive, la théorie du capital humain ainsi que le modèle de Kirkpatrick et de la gestion stratégique de ressources humaines permettent de vérifier la rationalité des employeurs en matière d’évaluation de la formation et de la perception de son rendement. Dans la partie la plus exploratoire de la thèse, nous avons mobilisé les pouvoirs conceptuels et explicatifs de l’approche institutionnaliste pour comprendre le comportement des organisations qui ne font pas d’évaluation formelle mais qui perçoivent quand même des retombées positives de leurs activités de formation. Sur le plan méthodologique, il s’agit d’une recherche explicative et d’une démarche en partie exploratoire quantitative faite à partir des données de l’enquête menée en 2003 par Emploi-Québec et l’Institut de la statistique du Québec auprès de 4600 entreprises assujetties à la Loi favorisant le développement et la reconnaissance des compétences de la main-d’œuvre. Nos principaux résultats de recherche soutiennent l’existence de trois types de facteurs explicatifs de la perception des retombées de la formation : des facteurs liés à l’organisation (profil et expérience en formation), des facteurs liés à la nature de la formation et des facteurs liés à l’intervention institutionnelle en matière de formation.
Resumo:
L’hypertension essentielle étant un facteur majeur de morbidité, la compréhension de son l’étiologie est prépondérante. Ainsi, la découverte de nouvelles composantes ou mécanismes de régulation de la PA par l’identification de QTL et l’étude de leurs interactions s’avère une approche prometteuse. L’utilisation de souches congéniques de rats pour l’étude de l’hypertension est une stratégie payante puisqu’elle permet de masquer les effets de l’environnement, tout en gardant le caractère polygénique de la PA. Longtemps conçu comme un trait issu de l’accumulation des effets minimes des QTL, la PA est régulée par une architecture basée sur l’existence d’interactions épistatiques. L’analyse par paires de QTL individuels a permis d’établir une modularité dans l’organisation des QTL chez le rat Dahl Salt-sensitive en fonction de la présence ou de l’absence d’une interaction épistatique entre eux. Ainsi, deux modules épistatiques ont été établis; EM1 et EM2 où tous les QTL appartenant à EM1 sont épistatiques entre eux et agissent de façon additive avec les membres de EM2. Des hiérarchies dans la régulation peuvent alors être révélées si les QTL d’un même EM ont des effets opposés. L’identification de la nature moléculaire des candidats C18QTL4/Hdhd2 et C18QTL3/Tcof1, membres du EM1, et de l’interaction épistatique entre ces deux QTL, a permis, en plus, d’élucider une régulation séquentielle au sein du module. Hdhd2 pourrait agir en amont de Tcof1 et réguler ce dernier par une modification post-traductionnelle. Cette interaction est la première évidence expérimentale de la prédiction des relations entre QTL, phénomène établi par leur modularisation. Le dévoilement du fonctionnement de l’architecture génétique à la base du contrôle de la PA et la découverte des gènes responsables des QTL permettrait d’élargir les cibles thérapeutiques et donc de développer des traitements antihypertenseurs plus efficaces.
Resumo:
Les femelles parasitoïdes exploitant un agrégat d’hôtes doivent ajuster leurs comportements en fonction des facteurs environnementaux auxquels elles sont soumises, dont la présence de compétiteurs dans l’environnement. L’objectif de cette étude est de mesurer les impacts de la compétition sur les stratégies d’exploitation d’agrégats chez deux espèces de parasitoïdes non agressives. Les espèces Trichogramma pintoi et T. minutum (Hymenoptera : Trichogrammatidae), des parasitoïdes d’œufs de lépidoptères, furent utilisées et leurs temps de résidence dans l’agrégat, leurs mécanismes de prise de décision et le sexe des descendants alloués furent mesurés en l'absence de compétition et en situation de compétition directe et indirecte, intra- et interspécifique. Trichogramma pintoi privilégie une stratégie générale basée uniquement sur la qualité perçue de l’agrégat. À l’inverse, T. minutum privilégie une stratégie adaptée au type de la compétition (directe ou indirecte) et à la nature des compétiteurs (intra ou interspécifiques), sans égards à la qualité de l’agrégat. La distinction de ces deux stratégies amène des perspectives de recherche intéressantes sur les impacts de la compétition à l’échelle du paysage, et est d’un intérêt certain pour ceux voulant améliorer l’efficacité des programmes et des élevages de masse utilisés en lutte biologique.
Resumo:
En 1939, la France et la Grande-Bretagne réalisent que, pour arrêter les agressions d’Hitler en Europe, il va leur falloir constituer un front commun. Cette recherche d’alliés les mène à courtiser l’Union soviétique. Malgré plus de quatre mois de négociations anglo-franco-soviétiques, aucune entente n’intervient entre les parties. Cet échec est d’autant plus douloureux que le 23 août un pacte de non-agression est signé entre Berlin et Moscou et, qu’une semaine plus tard, l’Allemagne envahit la Pologne. La Seconde Guerre mondiale est commencée. Depuis les années 1990, plusieurs historiens ont affirmé que l’historiographie occidentale concernant l’échec des négociations tripartites de 1939 a été influencée par la propagande de la Guerre froide et qu’elle avait propagé l’idée que les Soviétiques n’avaient jamais eu l’intention de s’allier avec l’Entente. Toutefois, après l’analyse des études publiées entre 1961 et 2011 par les historiens français et britanniques, ce mémoire démontre que, depuis 1961, en Grande-Bretagne et en France, l’interprétation du rôle de l’Union soviétique dans cet échec est beaucoup plus libre d’aprioris idéologiques qu’on pourrait le croire. La publication de l’ouvrage d’A.J.P. Taylor, The Origins of the Second World War, et la controverse qu’il va causer ont radicalement modifié la nature du débat et permis l’ascendant de thèses en tous points semblables à celles qui ont cours en Occident depuis le démantèlement de l’Union soviétique. Celles-ci soutiennent que les dirigeants soviétiques ont priorisé une alliance avec l’Entente au moins jusqu’à la fin du mois de juillet et que ce sont les politiques étrangères de la France et, plus particulièrement, de la Grande-Bretagne, qui ont causé l’échec des négociations tripartites de 1939.
Resumo:
La famille des protéines kinases C (PKC) est essentielle pour la fonction plaquettaire en réponse à la thrombine qui signale et active les plaquettes via les proteases activated receptors (PAR-1 et PAR-4) et le GPIbα. Ces derniers constituent les récepteurs de moyenne/faible et de hautes affinités pour la thrombine, respectivement. L’isoforme PKCδ régule positivement ou négativement la fonction des plaquettes tout dépendamment de la nature du stimulus. Cependant, son importance dans la fonction plaquettaire en réponse à la thrombine en aval de la GPIbα reste inconnue. L’objectif principal de ce projet de doctorat était de déterminer l'implication de l'axe thrombine/GPIbα/PKCδ dans la fonction plaquettaire et d’évaluer le rôle de cet axe dans la régulation de la thrombose. Dans les plaquettes humaines, le prétraitement avec l'inhibiteur spécifique de la PKCδ δ(V1-1)TAT, a significativement potentialisé l'activation et l’agrégation des plaquettes en réponse à de faibles concentrations de α-thrombine, mais pas en réponse à la γ-thrombine ou aux agonistes des PARs. Ce phénomène de potentialisation a été associé à une sécrétion accrue de granules, de génération de thromboxane A2 (TXA2) et une phosphorylation de la PKCδ sur la Tyr311, qui ont toutes été prévenues par l’inhibition spécifique du GPIbα à l’aide d’un anticorps monoclonal bloquant. En outre, l'inhibition de la p38 MAPK, ERK1/2 et le TXA2 a inversé ce processus de potentialisation. Les plaquettes murines déficientes en PKCδ étaient aussi plus réactives à la thrombine et ont montré une augmentation significative de l'agrégation, alors qu’une étude menée in vivo chez la souris PKCδ- /- a montré, suite à une stimulation par α-thrombine, une réaction thrombotique accrue caractérisée par une diminution significative du temps de saignement ainsi qu’une formation de thrombo-embolies pulmonaires. En bloquant le GPIbα, ces effets ont été renversés. Cette étude ouvre de nouvelles perspectives quant au rôle de la PKCδ dans les plaquettes en aval de GPIbα, où elle régule négativement la fonction plaquettaire en réponse à la thrombine. Ainsi, l'axe thrombine/GPIbα/PKCδ dans les plaquettes pourrait représenter un régulateur critique de la fonction plaquettaire et l'hémostase, et le dysfonctionnement de cette voie pourrait conduire à des événements thrombotiques.
Resumo:
Streptococcus suis et Streptococcus du groupe B (GBS) sont deux bactéries encapsulées qui induisent des pathologies similaires chez l’homme et/ou l’animal, incluant septicémies et méningites. La capsule polysaccharidique (CPS) est un facteur de virulence clé de ces deux pathogènes et les anticorps (Ac) anti-CPS présentent un bon potentiel protecteur. Néanmoins, ces molécules sont faiblement immunogéniques et les mécanismes de la génération de la réponse humorale anti-CPS demeurent méconnus. L’objectif principal de cette thèse était d’évaluer les caractéristiques et les mécanismes du développement de la réponse Ac dirigée spécifiquement contre les CPS de S. suis et GBS, ainsi que l’effet de la biochimie de la CPS dans cette réponse. Nous avons étudié S. suis types 2 et 14 et GBS types III et V, dont les CPS présentent plusieurs similarités dans leurs compositions et leurs structures, incluant la présence d’acide sialique, un sucre potentiellement immunosuppresseur, tout en possédant une antigénicité propre. Nous avons tout d’abord analysé la nature de la réponse Ac anti-CPS sérique face à la bactérie entière. Les souris infectées par S. suis développent une réponse très faible (S. suis type 2) voire insignifiante (S. suis type 14) de profil isotypique restreint à l’IgM et sont incapables de monter une réponse mémoire efficace face à une seconde infection. Un profil similaire est obtenu chez le porc infecté par S. suis type 2. On détecte des titres d’IgM anti-CPS significatifs chez les souris infectées par GBS (type III ou V). Toutefois, la magnitude de la réponse reste globalement faible et aucune commutation de classe n’est observée. Nous avons ensuite examiné l’influence de la biochimie de la CPS sur ces profils de réponse en conduisant des expériences avec la CPS hautement purifiée de ces pathogènes. Tandis que la CPS de GBS type III administrée aux souris conserve des propriétés immunogéniques similaires à celles observées durant l’infection par la bactérie intacte, les CPS de S. suis type 2 et GBS type V perdent toute capacité à induire une réponse Ac spécifique. L’analyse de l’interaction in vitro des CPS avec les cellules dendritiques (DC) murines, des acteurs clés dans la détection des pathogènes et l’orchestration des réponses immunitaires subséquentes, révèle que ces molécules stimulent la production de niveaux conséquents de chémokines via différents récepteurs. Néanmoins, les CPS sont inaptes à induire la sécrétion de cytokines et elles interfèrent avec la capacité des DC à exprimer BAFF, une cytokine clé dans la différenciation des lymphocytes B en plasmocytes. L’utilisation de CPS chimiquement désialylées démontre que l’acide sialique ne joue aucun rôle immunosuppresseur majeur dans le développement de la réponse Ac dirigée contre les CPS purifiées de S. suis ou GBS, ni sur l’interaction des CPS avec les DC in vitro, ni sur profil de la réponse in vivo. D’autres propriétés biochimiques intrinsèques à ces CPS seraient responsables de l’inaptitude de l’hôte infecté à monter une réponse Ac adéquate et les identifier constituera un outil précieux pour une meilleure compréhension de l’immunopathogénèse de S. suis et GBS ainsi que pour développer des moyens de lutte efficaces contre ces bactéries.
Resumo:
Plusieurs tests médicaux, comme celui du dépistage du cancer du sein, se basent sur l’observation de section tissulaire sous un microscope. Ces tests se basent sur l’interprétation d’un spécialiste et les résultats peuvent varier d’un expert à un autre dû la subjectivité des observations. L’utilisation d’une technique analytique offrant une quantification et une identification de cibles moléculaires dans une section tissulaire permettrait aux experts de produire des diagnostics plus objectifs et diminuerait possiblement le nombre de faux diagnostics. Les travaux présentés dans ce mémoire portent sur le développement d’une technique SPRi-MALDI-IMS permettant l’imagerie en deux dimensions de protéines contenues dans une section tissulaire. La MALDI-IMS est la technique de choix pour l’imagerie de biomolécules dans les sections tissulaires. Par contre, elle ne parvient pas à elle seule à quantifier de façon absolue le matériel adsorbé à la surface. Donc, le couplage de la MALDI-IMS avec la SPRi permet la quantification absolue de protéines en deux dimensions et crée une technique répondant aux besoins des experts médicaux. Pour ce faire, nous avons étudié, l’effet de la chimie de surface sur la nature et la quantité de matériel adsorbé à la surface du capteur. De plus, la cinétique de transfert des protéines du tissu vers le capteur a dû être optimisée afin de produire des empreintes correspondant au tissu d’origine, afin d’atteindre la gamme dynamique des instruments SPRi et MALDI-IMS. La technique résultante de ces optimisations permet d’obtenir les premières images quantitatives et qualitatives de protéines en deux dimensions d’une seule section tissulaire.
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.
Resumo:
Lorsque la guerre européenne éclate en août 1914, les États-Unis adoptent officiellement une position de stricte neutralité. Le pays n’en est pas moins tiraillé de l’intérieur pour autant. Au cours des quelque deux années et demi de neutralité, plusieurs moments forts et thématiques ont redéfini le rapport des États-Unis à la guerre européenne, jusqu’à justifier l’entrée en guerre en avril 1917, et propulsant par le fait même le pays à l’avant de la scène internationale. Cependant, les analyses relatives à la couverture de la guerre par la presse américaine pendant cette période sont pratiquement inexistantes. En se penchant sur les articles en une et les éditoriaux du quotidien The New York Times, il est possible de suivre l’évolution des thématiques liées au conflit et de comparer certains évènements que l’historiographie a ciblés comme étant à l’origine de l’entrée en guerre. Le but est de voir comment le NYT présente le conflit européen, de quelles façons le journal cherche à influencer son lectorat et, surtout, comment il « voit » peu à peu le conflit s’immiscer dans la vie des Américains. Certains thèmes comme le mouvement du preparedness et le traitement de la communauté germano-américaine nous renseignent sur les changements de perception qui s’opèrent dans la couverture du NYT. L’historiographie classique présente le torpillage du paquebot Lusitania le 7 mai 1915 comme le point à l’origine de la rupture officieuse de la neutralité américaine, au profit d’un sentiment proallié. Notre analyse tend à nuancer fortement cette affirmation. D’autres moments-clés et thématiques présentées dans le NYT ont eu plus d’impact sur la neutralité américaine. Nos résultats de recherche questionnent en fait la nature et la temporalité de la « neutralité » américaine. Est-ce réellement, comme le souhaitait au départ le président américain Wilson une « neutralité bienveillante », ou de la poudre aux yeux?
Resumo:
La présente étude vise à analyser la manière dont le corps de Diadorim est représenté dans le roman Diadorim, de João Guimarães Rosa. Pour ce faire, je propose une analyse des principales rencontres entre ce personnage et Riobaldo. Lors de la première rencontre de ces deux personnages, encore adolescents, il est déjà possible d’entrevoir à quel point le corps de Diadorim échappe à la pleine représentation dans le discours du narrateur, ce que l’on remarquera également à leur seconde rencontre, à l’âge adulte et intégrés à la bande des jagunços. Les différentes façons de désigner le compagnon et le suspense par lequel Riobaldo retient l’interlocuteur et, par conséquent, le lecteur, contribuent également à l’effet énigmatique génèré par le corps de Diadorim. L’ambiguïté autour de la sexualité de ce dernier est constante. Enfin, la dernière rencontre coïncide avec la mort et la révélation de la nature féminine du personnage. On observe, toutefois, que cette découverte n’est pas entièrement assimilée par Riobaldo qui, à son tour, doit répéter l’expérience vécue, par la parole, afin d’essayer de déchiffrer l’énigme autour du personnage de Diadorim.
Resumo:
La Théorie de l’agir communicationnel (1981), du théoricien allemand Jürgen Habermas, figure parmi les plus importants ouvrages de sociologie et de philosophie sociale du XXe siècle : son caractère universaliste, visant l’élaboration d’une théorie globale de la société occidentale moderne, en fait un écrit dont la réputation n’est plus à faire dans une diversité de champs académiques issus des sciences sociales. Toutefois, la théorie habermassienne n’a inspiré à ce jour qu’un nombre restreint d’études portant spécifiquement sur son articulation à l’éducation, que ce soit sur le plan de la nature de l’activité éducative ou encore d’une caractérisation théorique de l’éducation moderne institutionnalisée : ainsi, comment la théorie de l’agir communicationnel nous permet-elle de mieux comprendre les rouages de l’acte éducatif moderne et contemporain ainsi que l’évolution historique, politique et sociale des institutions scolaires européennes et nord-américaines? En tant que théorie de la société basée sur un renouvellement communicationnel du concept de rationalité, de quelle façon s’inscrit-elle dans une tradition philosophique éducative aux sources de l’école occidentale, et nous renseigne-t-elle sur les fondements de la relation pédagogique entre maîtres et élèves? En proposant une série de considérations à ce propos, cette thèse représente à la fois une étude des rapports entre la pensée philosophique et sociologique d’Habermas et l’éducation ainsi qu’une forte critique de celle-ci : en effet, la problématique centrale qui se dresse et subsiste à une articulation de la théorie habermassienne à différentes sphères éducatives demeure celle du statut de l’enfant dans un tel système rationaliste qui, malgré ses visées émancipatoires et libératrices pour l’acteur social, perpétue une négation de l’enfance propre au rationalisme de Platon à Kant. Dès lors, comment réfléchir l’éducation contemporaine à l’aune de la pensée habermassienne? Comment, finalement, penser l’éducation pour et contre Habermas?