602 resultados para Représentation de l’action
Resumo:
L’aquaporine-2 (AQP2) est le canal responsable de la réabsorption finale d’eau au niveau du tubule collecteur du rein. À la base, contenue dans des vésicules internes, l’AQP2 est acheminée à la membrane apicale des cellules principales du tubule collecteur suite à une stimulation par l’hormone antidiurétique (ADH). L’incapacité à accomplir cette fonction entraîne le diabète insipide néphrogénique (DIN), une maladie caractérisée par l’inhabileté du rein à concentrer l’urine, entraînant une production de volumes urinaires élevés. Alors que les mutations récessives génèrent des protéines mal structurées et incapables de former des tétramères, les mutations dominantes sont capables de s’associer à leurs homologues sauvages, engendrant ainsi un DIN même chez les patients hétérozygotes. Ce mémoire présente l’analyse biochimique et fonctionnelle d’une nouvelle mutation naturelle de l’AQP2, la mutation T179N, aussi responsable du DIN. Cette dernière est particulièrement intéressante de par son génotype qui implique un caractère dominant, et sa position extracellulaire habituellement réservée aux mutations récessives. Les études comparatives de T179N à deux modèles de mutation récessive et dominante démontrent, tant en ovocytes de Xenopus laevis qu’en lignée cellulaire mpkCCDc14, le caractère récessif de cette nouvelle mutation. Les tests d’immunobuvardage de lysats d’ovocytes en membranes totales et membranes plasmiques purifiées ont révélé que seule la forme sauvage atteint la membrane plasmique alors que le mutant T179N est séquestré dans la cellule. En accord avec ce résultat, les analyses de perméabilité fonctionnelle démontrent aussi une absence d’activité pour T179N. En cellule mpkCCDc14, le mutant T179N exprimé seul n’atteint pas la membrane plasmique suite à l’action de la forskoline, contrairement à la forme sauvage. Cependant, ce mutant peut s’associer à son homologue sauvage en coexpression tant dans les ovocytes qu’en lignée mpkCCDc14 sans toutefois engendrer l’effet typique de dominance négative. En fait, dans ce contexte de coexpression, on remarque une augmentation de la Pf de 83±7 % et une récupération d’adressage à la membrane plasmique en cellule (immunofluorescence). En conclusion, T179N serait un mutant récessif fonctionnellement récupérable lorsqu’en présence de l’AQP2 sauvage.
Resumo:
L’anarchisme vit un renouveau un peu partout sur le globe depuis les années 1990 et la montée du mouvement contre la mondialisation. Cependant pour les chercheurs contemporains, le lien est bien mince entre l’anarchisme du 21e siècle et le mouvement anarchiste du début du 20e siècle. Selon ces chercheurs, l’anarchisme contemporain serait davantage caractérisé par la nature expérimentale de ses stratégies et par son focus sur le moment présent. L’objectif de ce mémoire est de démontrer qu’il est possible de tracer des liens clairs entre les auteurs anarchistes classiques et l’anarchisme contemporain. En effet, certains auteurs classiques de ce courant vivent leur anarchisme dans le moment présent contrairement à ce que laissent entendre implicitement les chercheurs qui se sont penchés sur l’anarchisme contemporain. Nous analysons les cas d’auteurs anarchistes de la première moitié du 20e siècle comme Alexander Berkman, Emma Goldman, Joseph J. Cohen, Albert Libertad, Émile Armand et Rirette Maîtrejean. Une analyse de la colonie libertaire d’Aiglemont complète le tableau. Notre approche centrée sur l’étude des pratiques militantes repose sur trois conceptions idéal-typiques. Nous considérons trois types de pratiques anarchistes : l’action anarchiste de type insurrectionnel, de type syndicaliste et de type éducationnisteréalisateur. Nous concluons que les pratiques du mouvement anarchiste contemporain s’apparentent aux pratiques de certains anarchistes classiques, c’est-à-dire les pratiques de type éducationniste-réalisateur.
Resumo:
Ce mémoire porte sur quelques notions appropriées d'actions de groupe sur les variétés symplectiques, à savoir en ordre décroissant de généralité : les actions symplectiques, les actions faiblement hamiltoniennes et les actions hamiltoniennes. Une connaissance des actions de groupes et de la géométrie symplectique étant prérequise, deux chapitres sont consacrés à des présentations élémentaires de ces sujets. Le cas des actions hamiltoniennes est étudié en détail au quatrième chapitre : l'importante application moment y est définie et plusieurs résultats concernant les orbites de la représentation coadjointe, tels que les théorèmes de Kirillov et de Kostant-Souriau, y sont démontrés. Le dernier chapitre se concentre sur les actions hamiltoniennes des tores, l'objectif étant de démontrer le théorème de convexité d'Atiyha-Guillemin-Sternberg. Une discussion d'un théorème de classification de Delzant-Laudenbach est aussi donnée. La présentation se voulant une introduction assez exhaustive à la théorie des actions hamiltoniennes, presque tous les résultats énoncés sont accompagnés de preuves complètes. Divers exemples sont étudiés afin d'aider à bien comprendre les aspects plus subtils qui sont considérés. Plusieurs sujets connexes sont abordés, dont la préquantification géométrique et la réduction de Marsden-Weinstein.
Resumo:
Au cours de la dernière décennie, le secteur manufacturier québécois a subi d’importantes transformations. La mondialisation ayant amené les entreprises à restructurer leurs activités, 96% des établissements manufacturiers québécois ont choisi d’avoir recours à la sous-traitance (Jalette, 2004). Or, nous savons que l’octroi de contrats en sous-traitance est un processus qui se révèle parfois décevant pour les entreprises. En raison de l’évolution de certains facteurs organisationnels internes ou externes qui contribue à changer le contexte au sein duquel les décisions de sous-traitance avaient été prises initialement (ex. : augmentation des coûts de main-d’œuvre et de transport, changements technologiques), il arrive que les entreprises renversent les décisions de sous-traitance par une décision d’internalisation (OCDE, 2013). Le concept d’internalisation réfère ici à l’action d’une entreprise de ramener vers un établissement des activités de production qui avaient été antérieurement transférées en dehors de celui-ci, et ce, que ce soit en raison d’une sous-traitance d’activités à une entreprise indépendante ou d’une délocalisation au sein d’un autre établissement de l’entreprise (Jalette & Chevance, 2008). La présente étude a pour objectif d’expliquer la décision managériale d’internalisation par le biais des dynamiques sociales inhérentes aux relations industrielles, en allant au-delà des seuls facteurs économiques. L’effet sur l’internalisation de quatre variables indépendantes liées aux relations industrielles est étudié, soit la capacité stratégique du syndicat local, la solidarité interne de l’acteur syndical local et sa solidarité externe, ainsi que le climat des relations patronales-syndicales. La typologie des positions syndicales de Jalette (2005), le modèle des ressources de pouvoir syndicales de Lévesque et Murray (2003) et les travaux de Dastmalchian (2008) traitant du climat des relations industrielles constituent le cadre théorique de cette recherche. La présente étude utilise des données recueillies dans le cadre d’une enquête par questionnaire réalisée en 2005 auprès de présidents de syndicats locaux affiliés à la CSD et à la FTQ qui œuvrent dans le secteur manufacturier québécois. L’étude révèle que 24% des syndicats locaux sondés ont vécu l’internalisation d’activités antérieurement sous-traitées dans les deux années précédentes au sondage. De plus, les résultats sont à l’effet que les chances d’internalisation d’activités augmentent lorsque plusieurs stratégies et actions visant l’internalisation sont adoptées par le syndicat local, lorsque la vie syndicale d’un syndicat local s’améliore et lorsque le temps de libération syndicale d’un syndicat local augmente. Toutefois, les chances d’internalisation d’activités diminuent lorsque le rapport de force d’un syndical local augmente. L’internalisation d’activités diminue également lorsque le climat des relations du travail se détériore. Bref, les résultats de cette recherche montrent que les syndicats n’ont pas qu’à subir la mondialisation et que, par leurs actions, ils sont à même d’en influencer le cours, notamment en favorisant l’internalisation d’activités antérieurement confiées en sous-traitance.
Resumo:
Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».
Resumo:
Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.
Resumo:
Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.
Resumo:
Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.
Resumo:
Cette étude porte sur un type de cinéma italien appelé giallo. Ayant connu une forte popularité au tournant des années 1970 auprès d’un public dit vernaculaire, ces thrillers horrifiques sont encore aujourd’hui réputés pour leurs scènes de meurtre sanglantes et spectaculaires mettant à l’honneur un assassin ganté. Ce mémoire se propose de faire le point sur ces séquences de meurtre et surtout d’expliquer la façon particulière avec laquelle elles sont mises en scène. Pour bien y parvenir, nous en fournissons tout au long des exemples et les soumettons à une analyse détaillée. Notre approche analytique se veut essentiellement formaliste. Il s’agit de déconstruire ces scènes violentes afin d’en révéler certains des rouages. Dans un premier temps, nous rappelons quelques notions fondamentales du cinéma gore et nous penchons sur la problématique que pose invariablement la représentation de la mort au grand écran. Ceci nous permet ensuite d’observer plus amplement comment les réalisateurs du giallo traitent ces scènes d’homicide sur un mode excessif et poétique. Enfin, le rapport érotique à la violence entretenu dans ces scènes est considéré. Cela nous donne notamment l’occasion de nous intéresser à la figure du mannequin (vivant et non vivant) et de voir de quelles manières les cinéastes peuvent par son entremise transmettre un sentiment d’inquiétante étrangeté.
Resumo:
Tout au long de la vie d’un individu, il existe un nombre optimal de cellules à produire et de progéniteurs à conserver en réserve. On parle de maintien de l’homéostasie tissulaire. De façon générale, l’organisme a cinq possibilités pour réguler l’homéostasie : l’autorenouvellement et la quiescence, souvent utilisés pour maintenir un ‘pool’ fonctionnel de progéniteurs, la différenciation qui permet de produire des cellules effectrices, l’apoptose et la sénescence, qui permettent de limiter la production de cellules ou encore d’en faire diminuer le nombre quand elles sont en excès. La régulation de ces quatre mécanismes peut se faire de façon extrinsèque en passant par différentes voies de signalisation combinées à l’action intrinsèque de facteurs de transcription comme Ikaros et GATA1. Le facteur de transcription Ikaros joue un rôle critique dans le devenir des cellules progénitrices et la différenciation des lignages hématopoïétiques. Cependant, il demeure surtout connu pour son influence sur la voie Notch dans les cellules lymphoïdes, notamment les lymphocytes T. Les cellules érythroïdes sont hautement sensibles à l’environnement et donc, particulièrement adaptées à l’étude des régulations de l’homéostasie. Les résultats de différentes études ont permis de démontrer qu’Ikaros et la voie Notch influencent l’érythropoïèse. Cependant le détail de leurs actions demeure en grande partie inconnu à ce jour. Au cours de notre étude nous avons voulu déterminer l’action d’Ikaros dans le maintien de l’homéostasie des cellules érythroïdes et si son rôle passe par un dialogue avec la voie Notch. Nous avons voulu décrypter les mécanismes de régulation transcriptionnelle utilisés par Ikaros et par Notch au cours de l’érythropoïèse et leurs effets. Notre étude montre qu’Ikaros réprime à l’aide de GATA1 le gène Hes1, une cible importante de la voie Notch, en recrutant un complexe de la famille Polycomb, le PRC2 ii (Polycomb Repressive Complex 2). Cette répression permet la promotion de la différenciation des cellules érythroïdes. Au niveau du maintien de l’homéostasie par régulation de l’apoptose, Ikaros est connu pour cibler l’anti-apoptotique Bcl2l1 dans les lymphocytes. Puisque Gata-1, partenaire préférentiel d’Ikaros cible Bcl2l1 dans les cellules érythroïdes, nous avons caractérisé leur effet sur l’expression de Bcl2l1. Nous avons découvert qu’Ikaros active de façon directe Bcl2l1 et qu’il recrute sur le gène deux complexes partenaires d’élongation : un de la famille SET1/MLL, et le complexe P-TEFb-NuRD. En l’absence d’Ikaros, le fragment intracellulaire de Notch (NICD) et son cofacteur RBP-J remplacent Ikaros et favorisent l’hyper-activation de l’expression de Bcl2l1. Ceci est associé à la modification du complexe d’élongation recruté, ainsi qu’à la mise en place de modifications épigénétiques distinctes de celles observées avec Ikaros ce qui modifie l’élongation transcriptionnelle du gène. Ikaros et Notch sont fréquemment mutés ou présentent des fonctions altérées dans les leucémies. Notre étude montre un dialogue Ikaros/Notch influençant aussi bien la différenciation que l’apoptose et met en évidence l’existence d’un circuit génétique dont le dérèglement pourrait favoriser l’apparition d’une hématopoïèse maligne.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
L’effondrement des repères artistiques (que plusieurs associent aux premiers ready-made de Marcel Duchamp) dévoile les symptômes d’une crise de l’art. Comme l’histoire de l’art est en quelque sorte la représentation de ce que nous sommes, on peut raisonnablement penser que la crise s’étend bien au-delà de l’art. Toutefois, l’art possède un éclairage puissant, car il illustre, littéralement, plusieurs problèmes notamment au niveau du jugement et de la raison. Faute de repères, le monde contemporain manquerait-il de discernement ? Cette question est tout à fait légitime dans le contexte actuel où tout et n’importe quoi semblent pouvoir être élevés au rang de l’Art. Le culte que l’on voue à l’individu paraît être l’une des causes du problème. On observe qu’en régime de singularité (pour reprendre l’expression de la sociologue de l’art, Nathalie Heinich) les relations du monde de l’art sont de plus en plus conflictuelles : lorsqu’on demande à un artiste de justifier son propre travail, la rationalité devient nécessairement instrumentale ; on rend également caduc le rôle du critique et des institutions. Ce mémoire s’intéresse à analyser, dans une perspective philosophique, les différentes manifestations de la crise de l’art et ses enjeux dans le monde actuel.
Resumo:
Une des caractéristiques fondamentales des policiers et des agents correctionnels est le recours légitime à la coercition pour imposer leur autorité. Cette force publique doit donc, en théorie, avoir le dessus sur toute forme de force privée. Dans l’étude des phénomènes de violence, cette caractéristique rend leur victimisation singulière. À ce jour, les formes d’influence, de pressions indues et d’intimidation vécus par les agents de la force publique demeurent relativement peu étudiées. Les objectifs de cette thèse sont d’améliorer notre compréhension des dynamiques d’intimidation, de soulever les différents enjeux pour la force publique et de proposer une théorie de l’intimidation criminelle. La force publique étant, avant toute chose, une émanation de l’État, nous avons commencé par analyser la problématique de l’intimidation criminelle de manière plus globale. En testant la théorie de l’action de sécurité (Cusson, 2010), nous avons constaté qu’une force publique intimidée et corrompue entraîne une perte de légitimité et une inefficacité du système judiciaire dans sa lutte contre la criminalité. Nous avons ensuite adopté une perspective interactionniste pour comprendre les dynamiques d’intimidation au quotidien. Nous nous sommes demandés quels étaient les éléments qui rendaient une intimidation crédible et grave pour les policiers. En identifiant leur monde d’objets (Blumer, 1986), nous avons constaté que les actes d’intimidation qui survenaient en dehors du cadre professionnel étaient jugés plus graves par les policiers et que l’appartenance de l’intimidateur à une organisation criminelle entraînait une augmentation de la gravité de la menace. Ensuite, nous nous sommes interrogés sur la notion d’identité sociale des agents correctionnels victimes d’intimidation (Tedeschi et Felson, 1994). Nous avons constaté que les intimidations mineures mais répétées avaient tendance à modifier les pratiques professionnelles des surveillants. Une analyse intégrée de ces perspectives met en lumière l’existence de deux formes d’intimidation : une intimidation réactive et peu sévère en nature et une intimidation planifiée et grave. Elle soulève également trois enjeux pour la force publique : son aspect symbolique, la transformation de son action et sa légitimité. En intégrant ces enjeux, une théorie de l’intimidation criminelle est proposée. En dernier lieu, des solutions préventives et répressives sont avancées pour lutter contre ce phénomène.
Resumo:
La question posée dans ce mémoire concerne ce que des philosophes comme Georg Lukács, Walter Benjamin et Theodor. W. Adorno appellent le contenu de vérité des œuvres littéraires. Le but de ma réflexion est de montrer qu’un tel contenu de vérité ne doit pas être recherché dans la réalité extra-littéraire par rapport à laquelle la littérature apparaît comme une représentation, pas plus que dans les intentions introduites du dehors par l’auteur ou dans la réception de l’œuvre par ses lecteurs, mais plutôt directement dans la sphère de sa production. À partir d’une lecture comparative des différentes positions défendues dans le débat des années 1930 entre Georg Lukács, Walter Benjamin, Bertolt Brecht et Ernst Bloch, la production littéraire est définie comme un phénomène par lequel l’esprit, en s’objectivant, transcende la réalité dans laquelle il s’inscrit. Il en résulte une conception du littéraire comme processus au sein duquel la relation épistémologique entre le sujet et l’objet est appréhendée d’une manière irréductible aux autres formes de connaissance.