18 resultados para Charge And Spin Transfer
em Université de Montréal, Canada
Resumo:
Le lien entre le spectre de la matrice de transfert de la formulation de spins du modèle de Potts critique et celui de la matrice de transfert double-ligne de la formulation de boucles est établi. La relation entre la trace des deux opérateurs est obtenue dans deux représentations de l'algèbre de Temperley-Lieb cyclique, dont la matrice de transfert de boucles est un élément. Le résultat est exprimé en termes des traces modifiées, qui correspondent à des traces effectuées dans le sous-espace de l'espace de représentation des N-liens se transformant selon la m ième représentation irréductible du groupe cyclique. Le mémoire comporte trois chapitres. Dans le premier chapitre, les résultats essentiels concernant les formulations de spins et de boucles du modèle de Potts sont rappelés. Dans le second chapitre, les propriétés de l'algèbre de Temperley-Lieb cyclique et de ses représentations sont étudiées. Enfin, le lien entre les deux traces est construit dans le troisième chapitre. Le résultat final s'apparente à celui obtenu par Richard et Jacobsen en 2007, mais une nouvelle représentation n'ayant pas été étudiée est aussi investiguée.
Resumo:
La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.
Resumo:
Le présent travail de recherche se propose d’analyser les dispositifs de gouvernance nodale de la sécurité locale en France, alors que le paradigme a vu le jour et s’est développé dans les pays anglo-saxons fortement décentralisés. C’est qu’en France les dispositifs de gouvernance nodale s’apparentent bien plus à un dialogue entre central et local qu’entre secteur public et privé. La recherche identifie ainsi les caractéristiques de la gouvernance nodale au cœur des dispositifs partenariaux de la sécurité locale, supportés par le Contrat Local de Sécurité (CLS), le Conseil Local de Sécurité et de Prévention de la Délinquance (CLSPD) ou encore le Groupe Local de Traitement de la Délinquance (GLTD). La recherche identifie ainsi les stratégies de décentrage de l’État et de transfert de la production de sécurité vers une diversité d’acteurs locaux, dont les maires et les services municipaux. Une diversité de politiques publiques locales de sécurité de pertinences différentes voit alors le jour. Le premier enseignement de cette recherche est l’importance du rôle joué par le node super-structurel, que nous appelons super-node et qui regroupe le maire ou l’élu local à la sécurité, le responsable de la police d’État, celui de la police municipale et le représentant de l’État. Il apparaît que dans le dispositif de gouvernance nodale, ce groupe informel génère la dynamique collective qui permet de regrouper, tant les producteurs que les consommateurs de sécurité locale gravitant au sein du réseau local de sécurité. La quarantaine d’entrevues qualitatives permet également d’identifier que la Justice, productrice de sécurité comme peut l’être aussi la sécurité privée ou la médiation sociale, apparaît plus distante que ce que pouvait laisser penser l’étude des textes réglementaires organisant le partenariat. Les bailleurs sociaux, les transporteurs et l’Éducation nationale apparaissent clairement comme des acteurs importants, mais périphériques de sécurité, en intégrant cette « famille élargie » de la sécurité locale. Le deuxième enseignement est relatif au fonctionnement même du dispositif nodal ainsi que du super-node, la recherche permettant d’identifier les ressources mutualisées par l’ensemble des nodes. Cela permet également d’identifier les mécanismes de répartition des tâches entre les différents acteurs et plus particulièrement entre les deux organisations policières d’État et municipale, travaillant autant en compétition, qu’en complémentarité. Cette recherche explore également le rôle joué par l’information dans le fonctionnement du super-node ainsi que l’importance de la confiance dans les relations interpersonnelles des représentants des nodes au sein du super-node. Enfin, l’étude permet également de mettre en perspective les limites du dispositif actuel de gouvernance nodale : le défaut avéré d’outils performants permettant d’informer convenablement le super-node quant aux phénomènes de violence ainsi que d’évaluer l’efficience du dispositif. Cela permet également de questionner l’autonomie des dispositifs de gouvernance nodale, la confiance pouvant ouvrir à la déviance et la collégialité au défaut de la traçabilité de la responsabilité. La fracture avec la société civile apparaît clairement et ne facilite pas le contrôle sur un mode de production de sécurité qui se développe en parallèle des dispositifs traditionnels de démocratie locale.
Resumo:
La plupart des molécules d’ARN doivent se replier en structure tertiaire complexe afin d’accomplir leurs fonctions biologiques. Cependant, les déterminants d’une chaîne de polynucléotides qui sont nécessaires à son repliement et à ses interactions avec d’autres éléments sont essentiellement inconnus. L’établissement des relations structure-fonction dans les grandes molécules d’ARN passe inévitablement par l’analyse de chaque élément de leur structure de façon individuelle et en contexte avec d’autres éléments. À l’image d’une construction d’immeuble, une structure d’ARN est composée d’unités répétitives assemblées de façon spécifique. Les motifs récurrents d’ARN sont des arrangements de nucléotides retrouvés à différents endroits d’une structure tertiaire et possèdent des conformations identiques ou très similaires. Ainsi, une des étapes nécessaires à la compréhension de la structure et de la fonction des molécules d’ARN consiste à identifier de façon systématique les motifs récurrents et d’en effectuer une analyse comparative afin d’établir la séquence consensus. L’analyse de tous les cas d’empaquetage de doubles hélices dans la structure du ribosome a permis l’identification d’un nouvel arrangement nommé motif d’empaquetage le long du sillon (AGPM) (along-groove packing motif). Ce motif est retrouvé à 14 endroits dans la structure du ribosome de même qu’entre l’ARN ribosomique 23S et les molécules d’ARN de transfert liées aux sites ribosomaux P et E. Le motif se forme par l’empaquetage de deux doubles hélices via leur sillon mineur. Le squelette sucre-phosphate d’une hélice voyage le long du sillon mineur de l’autre hélice et vice versa. Dans chacune des hélices, la région de contact comprend quatre paires de bases. L’empaquetage le plus serré est retrouvé au centre de l’arrangement où l’on retrouve souvent une paire de bases GU dans une hélice interagissant avec une paire de bases Watson-Crick (WC) dans l’autre hélice. Même si la présence des paires de bases centrales GU versus WC au centre du motif augmente sa stabilité, d’autres alternatives existent pour différents représentants du motif. L’analyse comparative de trois librairies combinatoires de gènes d’AGPM, où les paires de bases centrales ont été variées de manière complètement aléatoire, a montré que le contexte structural influence l’étendue de la variabilité des séquences de nucléotides formant les paires de bases centrales. Le fait que l’identité des paires de bases centrales puisse varier suggérait la présence d’autres déterminants responsables au maintien de l’intégrité du motif. L’analyse de tous les contacts entre les hélices a révélé qu’en dehors du centre du motif, les interactions entre les squelettes sucre-phosphate s’effectuent via trois contacts ribose-ribose. Pour chacun de ces contacts, les riboses des nucléotides qui interagissent ensemble doivent adopter des positions particulières afin d’éviter qu’ils entrent en collision. Nous montrons que la position de ces riboses est modulée par des conformations spécifiques des paires de bases auxquelles ils appartiennent. Finalement, un autre motif récurrent identifié à l’intérieur même de la structure de trois cas d’AGPM a été nommé « adenosine-wedge ». Son analyse a révélé que ce dernier est lui-même composé d’un autre arrangement, nommé motif triangle-NAG (NAG-triangle). Nous montrons que le motif « adenosine-wedge » représente un arrangement complexe d’ARN composé de quatre éléments répétitifs, c’est-à-dire des motifs AGPM, « hook-turn », « A-minor » et triangle-NAG. Ceci illustre clairement l’arrangement hiérarchique des structures d’ARN qui peut aussi être observé pour d’autres motifs d’ARN. D’un point de vue plus global, mes résultats enrichissent notre compréhension générale du rôle des différents types d’interactions tertiaires dans la formation des molécules d’ARN complexes.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Cette recherche-action vise à déterminer par quels moyens les enseignants de français peuvent contribuer à favoriser le transfert de connaissances grammaticales en situation d’écriture chez leurs élèves de niveau secondaire. Nous avons d’abord constaté que, chez les élèves du secondaire en général, les accords sont plus facilement réussis en contexte d’exercice qu’en contexte de production écrite. Sur la base de propositions didactiques pertinentes concernant l’orthographe grammaticale et/ou le transfert de connaissances, propositions fondées notamment sur une approche inductive, centrée sur le questionnement de l’élève et sur l’analyse de phrases, nous avons conçu et élaboré une séquence didactique portant sur l’accord du participe passé employé avec être ou avec un verbe attributif. Dans un deuxième temps, nous l’avons mise à l’essai auprès d’un groupe d’élèves de troisième secondaire, puis nous en avons vérifié les effets à l’aide d’un prétest et d’un posttest composés respectivement d’un questionnaire, d’un exercice et d’une production écrite. Les résultats révélés par l’analyse des données démontrent l’efficacité de la série de cours. En effet, le taux moyen de réussite des accords en contexte d’exercice passe de 53% à 75%, alors que, pour les productions écrites, il est de 48% avant la série de cours contre 82% après. Les questionnaires recueillis nous portent à attribuer en partie cette forte augmentation du taux de réussite des accords en contexte de production écrite au bon déroulement du processus de transfert grâce au travail effectué en cours de séquence sur les connaissances conditionnelles.
Resumo:
Notre recherche vise à décrire les connaissances grammaticales élaborées par des élèves de première secondaire au cours de l’enseignement/apprentissage de l’accord du verbe. Cette description se fonde sur l’observation des interactions didactiques entre les élèves, et leur enseignant autour de l’objet de savoir « accord du verbe » : elle concerne plus particulièrement l’interaction entre les pôles « élève » et « savoir ». Notre recherche s’inscrit dans le courant de la grammaire pédagogique moderne. La théorie de la transposition didactique de Chevallard (1985/1991) constitue également la pierre angulaire de nos travaux : les concepts de transposition didactique externe (le passage du savoir savant au savoir à enseigner) et interne (le passage du savoir à enseigner au savoir effectivement enseigné) agissent à titre d’analyseurs des interactions didactiques. L’observation, la description et la théorisation des interactions didactiques imposent une démarche écologique pour la collecte des données. Pour notre recherche, les données ont été recueillies grâce à la captation vidéo de séquences didactiques portant sur l’accord du verbe : elles consistent en des interactions verbales entre élèves ou entre les élèves et leur enseignant. L’analyse des données s’est effectuée selon une perspective macro et micro : (1) L’analyse macro indique que les connaissances antérieures des élèves résistent à l’institutionnalisation des savoirs puisque le savoir enseigné n’est pas celui qui est exclusivement mobilisé. Les élèves recourent à un vaste éventail de connaissances de types procédural et déclaratif pour l’identification du verbe et du sujet, dont la réussite n’est par ailleurs pas assurée. De plus, les connaissances qu’ils ont élaborées autour de la règle d’accord et du transfert des traits morphologiques sont également nombreuses et variées et ne les conduisent pas à accorder le verbe avec constance. (2) L’analyse micro suggère que l’élaboration des connaissances relatives à l’accord du verbe dépend de la manière dont les outils de la grammaire (manipulations syntaxiques et phrase de base) sont utilisés par les élèves. Plus précisément, le savoir piétine ou recule lorsque les manipulations syntaxiques ne sont pas appliquées dans la phrase ou qu’elles ne sont pas adaptées dans certains contextes syntaxiques; le savoir fait des bonds en avant dans les classes où les élèves sont en mesure de recourir à la phrase de base pour soutenir leur analyse grammaticale. Les descriptions proposées dans le cadre de notre thèse conduisent à discuter de leurs implications pour la transposition didactique externe et, plus généralement, pour la didactique du français et de la grammaire.
Resumo:
Très peu d’études ont été consacrées à l’œuvre de la romancière française Lydie Salvayre, dont le premier roman a paru en 1990. Il me semble pertinent de me pencher plus sérieusement sur son travail, qui manifeste une véritable exigence d’écriture. Un trait de l’œuvre de Salvayre m’intéresse plus spécifiquement : son rapport à l’héritage. J’envisage ce rapport à la fois dans la thématique, dans l’écriture et dans la forme de deux de ses romans, soient La Puissance des mouches (1995) et La Méthode Mila (2005). Dans chacun de ces deux romans, le narrateur a un rapport trouble à la fois avec son héritage familial et avec son héritage culturel, plus spécialement celui de la philosophie et de la satire classiques. Tiraillé entre le monde du quotidien (trivial) et le monde des idées (sublime), le personnage cherche une issue : il cherche comment vivre. Dans La Puissance des mouches, le narrateur voue une haine à son père et avoue un amour pour Pascal. Dans La Méthode Mila, il est déchiré entre sa mère sénile dont il a la charge et Descartes dont il est obsédé. J’étudierai comment se vit cette déchirure et comment le texte la travaille. La façon dont l’auteure met l’héritage en éclats — elle pastiche, bouscule, malmène, détourne les classiques — n’a rien du respect servile. Cette manière d’hériter, de rompre avec l’évidence d’une continuité avec le passé, pose une question essentielle : comment hériter aujourd’hui, et pourquoi ?
Resumo:
Dans la présente recherche, nous nous sommes penchés sur le processus du transfert intra-organisationnel de connaissances au sein d’entreprises multinationales (EM). Partant du triple constat suivant : les connaissances organisationnelles constituent un avantage stratégique (Barney, 1991 ; Bartlett et Ghoshal, 1998), les transferts intra-organisationnels constituent la raison d’être des EM (Gupta et Govindarajan, 2000), lesquelles ont accès à un vaste bassin de connaissances disséminées à travers le monde par le biais de leurs filiales et les mécanismes organisationnels internes sont plus efficaces que ceux du marché (Williamson, 1987 ; Casson, 1976) pour transférer des connaissances entre unités organisationnelles; nous nous sommes intéressés aux facteurs pouvant affecter l’efficacité de ce processus de transfert. Ayant identifié, lors de notre revue des écrits théoriques, une multitude d’approches permettant d’appréhender ce phénomène, nous proposons, dans notre recherche, un modèle théorique intégrant les trois étapes propres au processus de transfert, soit : la détermination des connaissances à transférer, la sélection des mécanismes de transfert appropriés et, finalement, l’évaluation, d’une part, de l’efficacité des transferts et, d’autre part, de l’ensemble des facteurs contextuels ayant un impact sur l’efficacité de ce processus. Sur le plan théorique, cette recherche oppose deux courants dominant ce champ disciplinaire. L’approche stratégique, exprimée par la théorie des ressources, met l’accent sur l’importance prépondérante des facteurs organisationnels internes sur l’efficacité de toute action organisationnelle (Bartlett et Ghoshal, 1998 ; Barney, 1991). Cette approche s’oppose au courant institutionnel, lequel considère plutôt que les choix et les actions organisationnels sont surtout conditionnés par les contraintes de l’environnement externe (Ferner, 1997; Kostova, 1999; Scott, 1991). Les résultats de notre recherche démontrent que, malgré l’existence de contraintes de nature institutionnelle et culturelle, l’efficacité du processus de transfert des connaissances associées à la gestion des ressources humaines relève davantage des conditions organisationnelles internes et, plus particulièrement, de l’implication de la haute direction, du rôle accordé à la fonction RH et de l’alignement entre la stratégie corporative, la stratégie RH et la culture organisationnelle. Sur le plan méthodologique, il s’agit d’une recherche exploratoire qualitative menée auprès de trois EM (2 canadiennes et 1 française) oeuvrant dans les secteurs de la métallurgie et des télécommunications. Les données empiriques proviennent de 17 entrevues approfondies que nous ont accordées, au Canada, en France, en Allemagne et en Suisse des cadres responsables de la gestion des ressources humaines, affectés au siège social des EM en question ou œuvrant au sein de leurs filiales, et de sources documentaires secondaires.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
Dans ce mémoire, nous proposons des protocoles cryptographiques d'échange de clef, de mise en gage, et de transfert équivoque. Un premier protocole de transfert équivoque, primitive cryptographique universelle pour le calcul multi-parties, s'inspire du protocole d'échange de clef par puzzle de Merkle, et améliore les résultats existants. Puis, nous montrons qu'il est possible de construire ces mêmes primitives cryptographiques sans l'hypothèse des fonctions à sens unique, mais avec le problème 3SUM. Ce problème simple ---dans une liste de n entiers, en trouver trois dont la somme a une certaine valeur--- a une borne inférieure conjecturée de Omega(n^2).
Resumo:
Nous assistons depuis quelques années à une commercialisation de la recherche académique. Celle-ci est principalement due à une déficience marquée du financement public. Par conséquent, les universités se tournent vers d’autres sources de financement, tels les brevets et l’industrie privée. En parallèle, les gouvernements et les organismes subventionnaires favorisent cette commercialisation par la promotion de programmes de partenariats université-industrie et par la mise en place de stratégies pour l’innovation et le transfert des technologies. Prenant comme modèle le chercheur académique dans le domaine de la santé, nous avons évalué l’impact de cette commercialisation sur les responsabilités du chercheur envers la science et la société. Ce nouveau mode de fonctionnement comporte certes des avantages. Par exemple, il résulte en une injection de fonds nouveaux pour la recherche, un développement des infrastructures universitaires et un transfert de technologies plus efficace, permettant ainsi à la population de bénéficier plus rapidement des bienfaits de la recherche. Cependant, notre réflexion révèle que cette commercialisation comporte aussi des impacts négatifs sur la recherche académique. En effet, on observe l’apparition de conflits d’intérêts pour le chercheur. En plus de constituer une menace pour la sécurité de la population, ces situations causent l’effritement du lien de confiance entre la société et les chercheurs académiques, lien qui est essentiel pour assurer la progression du savoir humain. La commercialisation porte aussi atteinte à la liberté académique, effet que l’on peut observer tant au plan de l’orientation des recherches qu’à celui de la diffusion de ses résultats. Or, la liberté académique est une valeur fondamentale qui a été défendue depuis le Moyen Âge comme étant essentielle pour la progression du savoir humain. Le potentiel commercial devient un facteur dans l’évaluation des projets de recherche académique alors que, traditionnellement, l’avancement des connaissances la guidait essentiellement. Ainsi, la recherche appliquée devient favorisée au détriment de la recherche fondamentale. Ce virage commercial peut bénéficier à la société à court terme mais, à long terme, l’évolution de la société est menacée. La recherche appliquée et la recherche fondamentale sont toutes deux essentielles à l’avancement de la société, apportant chacune leur lot de bénéfices pour cette dernière. La commercialisation de la recherche académique ne doit donc pas résulter en une diminution progressive de la recherche fondamentale au profit de la recherche appliquée. Bien que les chercheurs académiques soient conscients de l’importance de préserver la recherche fondamentale, cette protection ne peut s’opérer sans le support actif des organismes subventionnaires, des gouvernements et de la société en général.
Resumo:
En lien avec l’augmentation constante de l’obésité, de plus en plus de personnes sont atteintes de résistance à l’insuline ou de diabète de type 2. Ce projet doctoral s’est surtout intéressé à l’une des conséquences majeures des pathologies cardiométaboliques, soit la dyslipidémie diabétique. À cet égard, les gens présentant une résistance à l’insuline ou un diabète de type 2 sont plus à risque de développer des perturbations lipidiques caractérisées essentiellement par des taux élevés de triglycérides et de LDL-cholestérol ainsi que de concentrations restreintes en HDL-cholestérol dans la circulation. Les risques de maladies cardiovasculaires sont ainsi plus élevés chez ces patients. Classiquement, trois organes sont connus pour développer l’insulino-résistance : le muscle, le tissu adipeux et le foie. Néanmoins, certaines évidences scientifiques commencent également à pointer du doigt l’intestin, un organe critique dans la régulation du métabolisme des lipides postprandiaux, et qui pourrait, conséquemment, avoir un impact important dans l’apparition de la dyslipidémie diabétique. De façon très intéressante, des peptides produits par l’intestin, notamment le GLP-1 (glucagon-like peptide-1), ont déjà démontré leur potentiel thérapeutique quant à l’amélioration du statut diabétique et leur rôle dans le métabolisme intestinal lipoprotéinique. Une autre évidence est apportée par la chirurgie bariatrique qui a un effet positif, durable et radical sur la perte pondérale, le contrôle métabolique et la réduction des comorbidités du diabète de type 2, suite à la dérivation bilio-intestinale. Les objectifs centraux du présent programme scientifique consistent donc à déterminer le rôle de l’intestin dans (i) l’homéostasie lipidique/lipoprotéinique en réponse à des concentrations élevées de glucose (à l’instar du diabète) et à des peptides gastro-intestinaux tels que le PYY (peptide YY); (ii) la coordination du métabolisme en disposant de l’AMPK (AMP-activated protein kinase) comme senseur incontournable permettant l’ajustement précis des besoins et disponibilités énergétiques cellulaires; et (iii) l’ajustement de sa capacité d’absorption des graisses alimentaires en fonction du gain ou de la perte de sa sensibilité à l’insuline démontrée dans les spécimens intestinaux humains prélevés durant la chirurgie bariatrique. Dans le but de confirmer le rôle de l’intestin dans la dyslipidémie diabétique, nous avons tout d’abord utilisé le modèle cellulaire intestinal Caco-2/15. Ces cellules ont permis de démontrer qu’en présence de hautes concentrations de glucose en basolatéral, telle qu’en condition diabétique, l’intestin absorbe davantage de cholestérol provenant de la lumière intestinale par l’intermédiaire du transporteur NPC1L1 (Niemann Pick C1-like 1). L’utilisation de l’ezetimibe, un inhibiteur du NPC1L1, a permis de contrecarrer cette augmentation de l’expression de NPC1L1 tout comme l’élévation de l’absorption du cholestérol, prouvant ainsi que le NPC1L1 est bel et bien responsable de cet effet. D’autre part, des travaux antérieurs avaient identifié certains indices quant à un rôle potentiel du peptide intestinal PYY au niveau du métabolisme des lipides intestinaux. Toutefois, aucune étude n’avait encore traité cet aspect systématiquement. Pour établir définitivement l’aptitude du PYY à moduler le transport et le métabolisme lipidique dans l’intestin, nous avons utilisé les cellules Caco-2/15. Notre étude a permis de constater que le PYY incubé du côté apical est capable de réduire significativement l’absorption du cholestérol et le transporteur NPC1L1. Puisque le rôle de l'AMPK dans l'intestin demeure inexploré, il est important non seulement de définir sa structure moléculaire, sa régulation et sa fonction dans le métabolisme des lipides, mais aussi d'examiner l'impact de l’insulino-résistance et du diabète de type 2 (DT2) sur son statut et son mode d’action gastro-intestinal. En employant les cellules Caco-2/15, nous avons été capables de montrer (i) la présence de toutes les sous-unités AMPK (α1/α2/β1/β2/γ1/γ2/γ3) avec une différence marquée dans leur abondance et une prédominance de l’AMPKα1 et la prévalence de l’hétérotrimère α1/β2/γ1; (ii) l’activation de l’AMPK par la metformine et l’AICAR, résultant ainsi en une phosphorylation accrue de l’enzyme acétylCoA carboxylase (ACC) et sans influence sur l'HMG-CoA réductase; (iii) la modulation négative de l’AMPK par le composé C et des concentrations de glucose élevées avec des répercussions sur la phosphorylation de l’ACC. D’autre part, l’administration de metformine au Psammomys obesus, un modèle animal de diabète et de syndrome métabolique, a conduit à (i) une régulation positive de l’AMPK intestinale (phosphorylation de l’AMPKα-Thr172); (ii) la réduction de l'activité ACC; (iii) l’augmentation de l’expression génique et protéique de CPT1, supportant une stimulation de la β-oxydation; (iv) une tendance à la hausse de la sensibilité à l'insuline représentée par l’induction de la phosphorylation d'Akt et l’inactivation de la phosphorylation de p38; et (v) l’abaissement de la formation des chylomicrons ce qui conduit à la diminution de la dyslipidémie diabétique. Ces données suggèrent que l'AMPK remplit des fonctions clés dans les processus métaboliques de l'intestin grêle. La preuve flagrante de l’implication de l’intestin dans les événements cardiométaboliques a été obtenue par l’examen des spécimens intestinaux obtenus de sujets obèses, suite à une chirurgie bariatrique. L’exploration intestinale nous a permis de constater chez ceux avec un indice HOMA élevé (marqueur d’insulinorésistance) (i) des défauts de signalisation de l'insuline comme en témoigne la phosphorylation réduite d'Akt et la phosphorylation élevée de p38 MAPK; (ii) la présence du stress oxydatif et de marqueurs de l'inflammation; (iii) la stimulation de la lipogenèse et de la production des lipoprotéines riches en triglycérides avec l’implication des protéines clés FABP, MTP et apo B-48. En conclusion, l'intestin grêle peut être classé comme un tissu insulino-sensible et répondant à plusieurs stimuli nutritionnels et hormonaux. Son dérèglement peut être déclenché par le stress oxydatif et l'inflammation, ce qui conduit à l'amplification de la lipogenèse et la synthèse des lipoprotéines, contribuant ainsi à la dyslipidémie athérogène chez les patients atteints du syndrome métabolique et de diabète de type 2.
Resumo:
L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.
Resumo:
Travail dirigé présenté à la Faculté des cycles supérieurs en vue de l’obtention du grade de Maîtrise ès sciences option expertise-conseil en soins infirmiers