665 resultados para Preuve conceptuelle
Resumo:
L’art public se présente sous divers modes d’expression artistique dans l’espace public. Qu’il soit permanent, temporaire ou éphémère, qu’il soit singulier, interactif ou participatif, qu’il soit traditionnel ou numérique, l’œuvre intégrée ou insérée dans ce contexte tente d’interpeller le public. Cette recherche examine l’évolution des modes d’expression artistique dans l’espace public, dans l’espoir de trouver une définition de l’art public. L’étude de cas de la Ville de Montréal est la base de cette recherche pour examiner les nombreuses manifestations de l’art dans l’espace public et ses périmètres. Dans une perspective conceptuelle et transdisciplinaire, sous lesquels nous considérons les approches artistiques, paysagères et politiques dans l’analyse du sujet, nous nous intéressons aux frontières des modes d’expression artistique et les moyens de les représenter. En somme, nous souhaitons saisir ce que l’on considère comme l’art public dans l’aménagement urbain montréalais et générer des connaissances plus générales. Notre revue de littérature et les observations faites sur le terrain révèlent de nouveaux enjeux qui influencent les pratiques artistiques et la perception que peut susciter une œuvre d’art public aujourd’hui. Nous examinons les facteurs qui les influencent à ce jour. En étudiant la question, nous constatons que la tâche de définir ce qui constitue l'art public est difficile, d'autant plus que les pratiques évoluent constamment. Souvent définie comme une fonction plus cosmétique qu’artistique et dans une logique d'équipement, l'art dans l'espace public joue un rôle passif et fait l'objet de débats et de critiques. Pour le public, l'art public est difficile à discerner bien que sa présence semble être appréciée. Nos résultats mettent en lumière la complexité des processus politiques, les attentes spécifiques, les règles et modalités oppressantes pour l'artiste, la difficulté à saisir les œuvres d'art et le manque de médiatisation pour sensibiliser le public. Avec la politique d'intégration, l’art dans les espaces publics résulte souvent d'une médiation conflictuelle dans un rapport de compromis et d’attentes contrastées afin que soit réalisée une œuvre. Les résultats permettent de penser que les processus de sélection sont souvent pervers et fermés aux initiatives artistiques. En outre, il serait nécessaire dans ce contexte que les artistes définissent mieux leur statut professionnel et leur pratique. Malgré des efforts du Bureau d'art public de Montréal, l'art public semble peu perçu sur son territoire. Par ailleurs, les nombreuses discussions avec le grand public portent à l'attention l'absence de médiatisation pour les arts publics sur le territoire de Montréal.
Resumo:
Chez l'être humain, le pouvoir d'influence peut être accordé volontairement aux individus qui se démarquent par leurs habiletés exceptionnelles. Dans cette étude, deux théories issues de la perspective évolutionniste sur ce type de pouvoir sont confrontées : celle de la transmission sociale de l'information (Henrich et Gil-White 2001) et celle de l'échange social (Chapais 2012). Cinq hypothèses principales sont extraites et mises à l'épreuve : 1) la compétence supérieure de certains individus leur permet d'acquérir un statut supérieur; 2) la compétence d'un individu est évaluée par comparaison sociale et par l'intermédiaire de mécanismes psychosociaux; 3) les experts sont utiles à autrui puisqu'ils sont de meilleurs modèles à imiter et de meilleurs partenaires de coopération; 4) ces experts reçoivent de la déférence de leurs admirateurs en échange d'un partenariat avec eux ; 5) conséquemment, une compétition pour l'acquisition d'un statut supérieur émerge via la démonstration publique de la compétence et la recherche d'une réputation favorable. Ces prévisions sont testées par une analyse comparative de la littérature ethnographique portant sur dix sociétés de chasseurs-cueilleurs relativement égalitaires en utilisant la base de données du eHRAF of World Cultures. Les résultats appuient très fortement toutes les prévisions et indiquent que des asymétries de statut sont omniprésentes chez tous les peuples de l'échantillon, ce qui refléterait l'universalité des propensions psychosociales qui sous-tendent ces inégalités.
Resumo:
Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Comment s’adaptent des organisations lorsqu’elles font face à des changements qui les dépassent? De cette question a émergé une recherche voulant comprendre comment et pourquoi des organisations de santé décident d’adapter (ou non) leurs services aux besoins et aux caractéristiques des populations migrantes accueillies sur leur territoire. Pour y répondre, cette thèse s’est intéressée à la gouvernance multiniveaux appliquée aux organisations de santé fournissant des services à des populations migrantes. Dans un contexte de régionalisation de l’immigration, la dynamique du processus migratoire est de mieux en mieux documentée, mais les capacités organisationnelles d’adaptation le sont beaucoup moins. Nous avons réalisé une étude de cas multiples à l’aide d’entrevues semi-directives auprès d’acteurs provenant de deux CSSS montéregiens (région au sud de Montréal, Québec) et des paliers locaux, régionaux et nationaux. Les résultats de cette étude ont permis (1) de mettre en évidence les différents acteurs impliqués dans ce processus d’adaptation, dont des acteurs de connectivité; (2) de cerner huit leviers d’action, divisés en trois catégories de leviers : administratif, émergent et d’habilitation. La possible imbrication de ces trois catégories de leviers facilite l’apparition de structures de connectivité, légitimant ainsi l’adaptation de l’organisation; et (3) de montrer l’ambigüité de l’adaptation à travers des facteurs d’influence qui favorisent ou entravent le processus d’adaptation à plusieurs niveaux de la gouvernance. Cette thèse est construite autour de quatre articles. Le premier, de nature conceptuelle, permet de circonscrire les concepts d’adaptation et de gouvernance multiniveaux à travers la lentille des théories de la complexité. Nous campons ainsi notre sujet dans une problématique liée à la vulnérabilité et la migration tout en appréhendant l’adaptation du système et son opérationnalisation au niveau local. Il en ressort un cadre conceptuel avec six propositions de recherches. Le second article permet quant à lui de comprendre les jeux des acteurs au sein d’une organisation de santé et à travers son Environnement. Le rôle spécifique d’acteurs de connectivité y est révélé. C’est dans un troisième article que nous nous intéressons davantage aux différents leviers d’action, analysés selon trois catégories : administrative, émergente et d’habilitation. Les acteurs peuvent les solliciter afin de d’adapter leurs pratiques au contexte particulier de la prise en charge de patients migrants. Un passage des acteurs aux structures de connectivité est alors rendu possible via un espace : la gouvernance multiniveaux. Enfin, le quatrième et dernier article s’articule autour de l’analyse des différents facteurs pouvant influencer l’adaptation d’une organisation de santé, en lien avec son Environnement. Il en ressort principalement que les facteurs identifiés sont pour beaucoup des leviers d’action (cf. article3) qui à travers le temps, et par récursivité, deviennent des facteurs d’influence. De plus, le type d’interdépendance développé par les acteurs a tendance soit à façonner un Environnement « stable », laissant reposer les besoins d’adaptation sur les acteurs opérationnels; soit à façonner un Environnement plus « accidenté », reposant davantage sur des interactions diversifiées entre les acteurs d’une gouvernance multiniveaux. De cette adéquation avec l’Environnement à façonner découle l’ambigüité de s’adapter ou non pour une organisation.
Resumo:
Les écrits rapportent qu’entre 10% et 40% des personnes atteintes de troubles mentaux ont présenté des comportements agressifs depuis l’établissement du diagnostic, et qu’entre 50% et 65% de ces comportements sont perpétrés envers les membres de la famille (Estroff et al., 1998). Or, les aidants naturels se sentent fréquemment démunis devant le comportement impulsif et agressif de leur proche atteint d’un trouble de santé mentale (Bonin & Lavoie-Tremblay, 2010) et la majorité des proches aidants ne reçoivent pas de soutien professionnel (Doornbos, 2001). À cet effet, une équipe de chercheurs et d’organismes communautaires ont mis sur pied un projet de formation adaptée par et pour les familles relativement à la gestion des comportements agressifs de leur proche atteint d’un trouble de santé mentale s’appuyant sur l’approche OMEGA communautaire (Bonin et al., 2011). La présente recherche est inspirée du modèle de Fresan et ses collaborateurs (2007), qui inclut les familles et leur proche atteint dans la prévention de la rechute et le rétablissement de ce dernier. Cette étude avait donc pour but de décrire et analyser, par un devis mixte, les perceptions de l’agressivité, du fonctionnement familial ainsi que de l’observance au traitement médical de personnes atteintes de troubles mentaux, suite à une formation de gestion des comportements agressifs adaptée par et pour des membres de familles, et suivie par leur proche aidant. Des questionnaires auto-administrés ont été remis et complétés par 25 personnes atteintes et comprenaient trois instruments qui étaient : 1. un questionnaire sociodémographique; 2. le Basis-24 (Eisen, 2007) permettant d’évaluer la condition mentale de la personne atteinte; 3. l’Échelle de perception de l’agressivité permettant de mesurer la fréquence et le niveau des comportements agressifs (De Benedictis et al., 2011); et 4. l'Échelle du fonctionnement familial permettant de mesurer le fonctionnement familial (Epstein, Baldwin, & Bishop, 1983). Des questions supplémentaires au questionnaire portaient sur l’observance au traitement médical et sur les changements observés. Des analyses descriptives et corrélationnelles bivariées ont été réalisées pour analyser les données quantitatives. Par la suite, des entrevues individuelles ont été réalisées auprès de huit personnes atteintes de troubles mentaux dont le membre de famille avait suivi la formation de gestion des comportements agressifs. La méthode d’analyse classique de Miles et Huberman (2003) a été utilisée pour réaliser l’analyse des données. L’analyse des données a permis de dégager les perceptions des personnes atteintes de troubles mentaux au regard de la formation de gestion des comportements agressifs que leur membre de famille avait suivi. Ainsi, le programme de formation OMÉGA adaptée par et pour les familles permettrait d’une part de diminuer l’agressivité et, d’autre part, d’améliorer le climat familial. De plus, selon les personnes atteintes, leur membre de famille était plus à l’écoute et faisait moins preuve d’intrusion, ce qui diminuaient les conflits et favorisaient une meilleure dynamique familiale. Cette étude a mis en évidence qu’il est nécessaire d’impliquer les familles dans les programmes de prévention de la rechute de la maladie mentale dans les soins de première ligne. Cette étude contribue ainsi à l’amélioration des connaissances sur la dynamique famille-patient et sur le rétablissement des personnes atteintes de troubles mentaux. Aussi, cette recherche propose des recommandations pour la recherche, la pratique, la formation et la gestion en sciences infirmières.
Resumo:
Introduction: La surcharge de pression ventriculaire augmente à l’exercice chez les patients avec une sténose de valve aortique (SVA). Lorsqu’il n’y a aucun symptôme apparent, il est cependant difficile d’indiquer l’intervention chirurgicale en utilisant seulement les indices de surcharge de pression ventriculaire. D’autres paramètres, tels que la dispersion de la repolarisation ventriculaire (d-QT), qui augmentent avec le gradient de pression transvalvulaire (GPT), n’ont pas été étudiés dans la SVA. L’objectif de l’étude était de déterminer le modèle de réponse du segment QT et de la d-QT à l’épreuve d’effort chez des enfants avec une SVA congénitale modérée afin d’évaluer l’impact de la surcharge de pression ventriculaire selon une perspective électrophysiologique. Matériel et méthodes: 15 patients SVA modérés ont été comparés à 15 sujets contrôles appariés pour l’âge (14.8±2.5 ans vs. 14.2±1.5 ans) et pour le sexe (66,7% de sujets mâles). Tous les sujets ont fait une épreuve d’effort avec enregistrement électrocardiographique à 12 dérivations. Le segment QT a été mesuré à partir du début du complexe QRS jusqu’à l’apex de l’onde T (QTa) au repos, à l’effort maximal ainsi qu’après 1 et 3 minutes de récupération. La longueur du segment QT a été corrigée selon l’équation de Fridericia et la d-QT a été calculée. Résultats: La longueur du segment QT corrigée (QTc) était similaire au repos entre les groupes d’étude, mais était significativement élevée chez les SVA en comparaison avec le groupe contrôle à l’effort maximal (p=0.004) ainsi qu’après 1 (p<0.001) et 3 (p<0.001) minutes de récupération. Une interaction significative a été identifiée entre les groupes pour la d-QT (p=0.034) et les tests post hoc ont révélé une différence significative seulement au repos (p=0.001). Conclusions: Les anomalies de repolarisation ventriculaire peuvent être révélées par l’évaluation de la repolarisation électrique lors de l’épreuve d’effort chez les SVA modérées asymptomatiques. L’utilisation de la réponse du QT à l’effort pourrait être bénéfique pour l’optimisation de la stratification du risque chez ces patients.
Resumo:
L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.
Resumo:
Emma Hamilton (1765-1815) eut un impact considérable à un moment charnière de l’histoire et de l’art européens. Faisant preuve d’une énorme résilience, elle trouva un moyen efficace d’affirmer son agentivité et fut une source d’inspiration puissante pour des générations de femmes et d’artistes dans leur propre quête d’expression et de réalisation de soi. Cette thèse démontre qu’Emma tira sa puissance particulière de sa capacité à négocier des identités différentes et parfois même contradictoires – objet et sujet ; modèle et portraiturée ; artiste, muse et œuvre d’art ; épouse, maîtresse et prostituée ; roturière et aristocrate ; mondaine et ambassadrice : et interprète d’une myriade de caractères historiques, bibliques, littéraires et mythologiques, tant masculins que féminins. Épouse de l’ambassadeur anglais à Naples, favorite de la reine de Naples et amante de l’amiral Horatio Nelson, elle fut un agent sur la scène politique pendant l’époque révolutionnaire et napoléonienne. Dans son ascension sociale vertigineuse qui la mena de la plus abjecte misère aux plus hauts échelons de l’aristocratie anglaise, elle sut s’adapter, s’ajuster et se réinventer. Elle reçut et divertit d’innombrables écrivains, artistes, scientifiques, nobles, diplomates et membres de la royauté. Elle participa au développement et à la dissémination du néoclassicisme au moment même de son efflorescence. Elle créa ses Attitudes, une performance répondant au goût de son époque pour le classicisme, qui fut admirée et imitée à travers l’Europe et qui inspira des générations d’interprètes féminines. Elle apprit à danser la tarentelle et l’introduisit dans les salons aristocratiques. Elle influença un réseau de femmes s’étendant de Paris à Saint-Pétersbourg et incluant Élisabeth Vigée-Le Brun, Germaine de Staël et Juliette Récamier. Modèle hors pair, elle inspira plusieurs artistes pour la production d’œuvres qu’ils reconnurent comme parmi leurs meilleures. Elle fut représentée par les plus grands artistes de son temps, dont Angelica Kauffman, Benjamin West, Élisabeth Vigée-Le Brun, George Romney, James Gillray, Joseph Nollekens, Joshua Reynolds, Thomas Lawrence et Thomas Rowlandson. Elle bouscula, de façon répétée, les limites et mœurs sociales. Néanmoins, Emma ne tentait pas de présenter une identité cohérente, unifiée, polie. Au contraire, elle était un kaléidoscope de multiples « sois » qu’elle gardait actifs et en dialogue les uns avec les autres, réarrangeant continuellement ses facettes afin de pouvoir simultanément s’exprimer pleinement et présenter aux autres ce qu’ils voulaient voir.
Resumo:
La présente étude s’inscrit dans une lignée de travaux de recherche en traductologie réalisés dans un cadre de sémantique cognitive et visant à dégager les modes de conceptualisation métaphorique dans les domaines de spécialité, et plus précisément dans les sciences biomédicales. Notre étude se concentre sur les modes de conceptualisation métaphorique utilisés en neuroanatomie en français, en anglais et en allemand, dans une perspective d’application à la traduction. Nous nous penchons plus spécifiquement sur la description anatomique de deux structures du système nerveux central : la moelle spinale et le cervelet. Notre objectif est de repérer et de caractériser les indices de conceptualisation métaphorique (ICM). Notre méthode s'appuie sur un corpus trilingue de textes de référence traitant de ces structures et fait appel à une annotation sémantique en langage XML, ce qui autorise une interrogation des corpus annotés au moyen du langage XQuery. Nous mettons en évidence que les ICM jouent un rôle prédominant dans la phraséologie et les dénominations propres à la description anatomique du système nerveux, comme c'est le cas en biologie cellulaire et en anatomie des muscles, des nerfs périphériques et des vaisseaux sanguins. Sous l’angle lexical, il faut distinguer les ICM prédicatifs, les ICM non prédicatifs ainsi que les ICM quasi prédicatifs. La plupart des modes de conceptualisation métaphorique préalablement repérés en biologie cellulaire et en anatomie sont également présents dans le domaine plus spécifique de la neuroanatomie. Certains ICM et modes de conceptualisation sont toutefois spécifiques à des éléments des régions étudiées. Par ailleurs, les modes de conceptualisation métaphorique en français, en anglais et en allemand sont semblables, mais sont exprimés par des réseaux lexicaux d'ICM dont la richesse varie. De plus, la composition nominale étant une des caractéristiques de l'allemand, la forme linguistique des ICM présente des caractéristiques spécifiques. Nos résultats mettent en évidence la richesse métaphorique de la neuroanatomie. Cohérents avec les résultats des études antérieures, ils enrichissent cependant la typologie des ICM et soulignent la complexité, sur les plans lexical et cognitif, de la métaphore conceptuelle.
Resumo:
La Critique de la raison pure est traversée de part en part par une analogie juridique dont l’étude peut enrichir la compréhension de l’œuvre. Il est ainsi question, dès la préface, d’une raison qui se juge elle-même devant son propre tribunal, ce qui constituera le point de départ de notre analyse. Or, ce tribunal très particulier doit se fonder sur une connaissance de soi approfondie de la raison. Cette entreprise est de fait réalisée au fil des développements de la Critique. Le rôle bien particulier joué à cet égard par les trois déductions présentes dans l’œuvre sera dûment examiné. On verra par ailleurs que la déduction doit elle-même être considérée plutôt comme procédure d’inspiration juridique que comme inférence, tout en conservant pourtant un statut de preuve philosophique. Les nombreuses allusions juridiques effectuées par Kant au fil de l’œuvre seront ainsi mises à profit dans le cadre de cette interprétation.
Resumo:
Ces prolégomènes étudient l’évolution conceptuelle et politique de l’intégration scolaire comme introduction à l’analyse de la construction de la légitimité de la politique de l’adaptation scolaire. Ils s’intéressent d’abord au mouvement des courants de scolarisation des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage (EHDAA) et à leurs mutations au regard de leurs fondements. Puis, ils les explorent dans le contexte du Québec, à partir de l’étude de l’évolution de la Politique de l’adaptation scolaire de 1978 à 1999 et des changements intervenus dans l’orientation, l’organisation des services et l’identification des catégories d’élèves concernés par cette politique. Ces changements sont également mis en perspective avec la question de la mise en œuvre de la politique par les acteurs scolaires, considérée comme un espace de redéfinition des problèmes et de légitimation de la politique. Il montre que l’évolution de la Politique de l’adaptation scolaire se situe entre la permanence et le changement dans la conception de scolarisation des élèves HDAA sous-tendus par une difficile mise en œuvre et légitimation de la politique.
Resumo:
Thèse réalisée en cotutelle avec l'Université catholique de Louvain.
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.