165 resultados para Couche mince
Resumo:
Les brosses de polyélectrolytes font l’objet d’une attention particulière pour de nombreuses applications car elles présentent la capacité de changer de conformation et, par conséquent, de propriétés de surface en réponse aux conditions environnementales appliquées. Le contrôle des principaux paramètres de ces brosses telles que l'épaisseur, la composition et l'architecture macromoléculaire, est essentiel pour obtenir des polymères greffés bien définis. Ceci est possible avec la Polymérisation Radicalaire par Transfert d’Atomes - Initiée à partir de la Surface (PRTA-IS), qui permet la synthèse de brosses polymériques de manière contrôlée à partir d’une couche d'amorceurs immobilisés de manière covalente sur une surface. Le premier exemple d’une synthèse directe de brosses de poly(acide acrylique) (PAA) par polymérisation radicalaire dans l’eau a été démontré. Par greffage d’un marqueur fluorescent aux brosses de PAA et via l’utilisation de la microscopie de fluorescence par réflexion totale interne, le dégreffage du PAA en temps réel a pu être investigué. Des conditions environnementales de pH ≥ 9,5 en présence de sel, se sont avérées critiques pour la stabilité de la liaison substrat-amorceur, conduisant au dégreffage du polymère. Afin de protéger de l’hydrolyse cette liaison substrat-amorceur sensible et prévenir le dégreffage non souhaité du polymère, un espaceur hydrophobique de polystyrène (PS) a été inséré entre l'amorceur et le bloc de PAA stimuli-répondant. Les brosses de PS-PAA obtenues étaient stables pour des conditions extrêmes de pH et de force ionique. La réponse de ces brosses de copolymère bloc a été étudiée in situ par ellipsométrie, et le changement réversible de conformation collapsée à étirée, induit par les variations de pH a été démontré. De plus, des différences de conformation provenant des interactions du bloc de PAA avec des ions métalliques de valence variable ont été obtenues. Le copolymère bloc étudié semble donc prometteur pour la conception de matériaux répondant rapidement a divers stimuli. Par la suite, il a été démontré qu’un acide phosphonique pouvait être employé en tant qu’ amorceur PRTA-IS comme alternative aux organosilanes. Cet amorceur phosphonate a été greffé pour la première fois avec succès sur des substrats de silice et une PRTA-IS en milieux aqueux a permis la synthèse de brosses de PAA et de poly(sulfopropyl méthacrylate). La résistance accrue à l’hydrolyse de la liaison Sisubstrat-O- Pamorceur a été confirmée pour une large gamme de pH 7,5 à 10,5 et a permis l’étude des propriétés de friction des brosses de PAA sous différentes conditions expérimentales par mesure de forces de surface. Malgré la stabilité des brosses de PAA à haute charge appliquée, les études des propriétés de friction ne révèlent pas de changement significatif du coefficient de friction en fonction du pH et de la force ionique.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
La concentration locale des messagers chimiques sécrétés par les cellules peut être mesurée afin de mieux comprendre les mécanismes moléculaires liés à diverses maladies, dont les métastases du cancer. De nouvelles techniques analytiques sont requises pour effectuer ces mesures locales de marqueurs biologiques à proximité des cellules. Ce mémoire présentera le développement d’une nouvelle technique basée sur la réponse plasmonique sur des leviers AFM, permettant d’étudier les réactions chimiques et biologiques à la surface des leviers grâce au phénomène de résonance des plasmons de surface (SPR), ainsi qu’à la diffusion Raman exaltée par effet de pointe (TERS). En effet, il est possible de localiser l’amplification du signal Raman à la pointe d’un levier AFM, tout comme le principe de la diffusion Raman exaltée par effet de surface (SERS) basée sur la diffusion de la lumière par des nanoparticules métalliques, et permettant une large amplification du signal Raman. La surface du levier est recouverte d’une nano-couche métallique d’or, suivi par des réactions biologiques pour l’immobilisation d’un récepteur moléculaire, créant ainsi un biocapteur sur la pointe du levier. Une détection secondaire utilisant des nanoparticules d’or conjuguées à un anticorps secondaire permet également une amplification du signal SPR et Raman lors de la détection d’antigène. Ce mémoire démontrera le développement et la validation de la détection de l’immunoglobuline G (IgG) sur la pointe du levier AFM.Dans des projets futurs, cette nouvelle technique d’instrumentation et d’imagerie sera optimisée grâce à la création d’un micro-détecteur protéique généralement adapté pour l’étude de la communication cellulaire. En intégrant le signal SPR à la microscopie AFM, il sera alors possible de développer des biocapteurs SPR couplés à une sonde à balayage, ce qui permettra d’effectuer une analyse topographique et de l’environnement chimique d’échantillons cellulaires en temps réel, pour la mesure des messagers moléculaires sécrétés dans la matrice extracellulaire, lors de la communication cellulaire.
Resumo:
L’imagerie par spectrométrie de masse (IMS) est une technique en pleine expansion et utilisée dans beaucoup d’études effectuées sur des systèmes biologiques tels que la corrélation entre l’expression moléculaire et l’état de santé d’un tissu et pour étudier la biologie du développement. Cependant, plus particulièrement lors de l’analyse de protéines, seulement les molécules les plus abondantes et/ou les plus facilement ionisables seront détectées. L’une des approches utilisées pour éviter cette limitation est de transférer les protéines de manière sélective à partir d’une section tissulaire mince vers une surface fonctionnalisée tout en maintenant leur organisation spatiale. Dans ce cas, seulement les protéines possédant une affinité pour la surface seront alors retenues alors que les autres seront éliminées. Donc, la nature chimique de cette surface est critique. Les travaux de recherches présentés dans ce mémoire portent sur le développement d’une méthode de transfert des protéines d’une section tissulaire vers une surface composée de nitrocellulose. Cette méthode utilise un système permettant d’effectuer le transfert sans contact physique direct entre les surfaces. De plus, lors du transfert, une pression physique est appliquée. Dans une première approche, la méthode développée a été appliquée en utilisant une section de rein de souris comme échantillon modèle. Des sections sérielles ont été collectées, soit pour être colorées à l’aide d’hématoxyline et d’éosine (H&E) afin de démontrer la régiospécificité du transfert, soit pour être analysées directement par IMS afin de déterminer si les protéines détectées après transfert sont également détecter dans les sections analysées directement. Les résultats obtenus ont démontré qu’un sous-ensemble de protéines a été transféré tout en conservant leur position spatiale initiale dans les sections. Certains signaux observés pour les protéines transférées sont uniques et/ou sont nettement mieux détectés que lors de l’analyse directe d’une section.
Resumo:
L’anarchisme vit un renouveau un peu partout sur le globe depuis les années 1990 et la montée du mouvement contre la mondialisation. Cependant pour les chercheurs contemporains, le lien est bien mince entre l’anarchisme du 21e siècle et le mouvement anarchiste du début du 20e siècle. Selon ces chercheurs, l’anarchisme contemporain serait davantage caractérisé par la nature expérimentale de ses stratégies et par son focus sur le moment présent. L’objectif de ce mémoire est de démontrer qu’il est possible de tracer des liens clairs entre les auteurs anarchistes classiques et l’anarchisme contemporain. En effet, certains auteurs classiques de ce courant vivent leur anarchisme dans le moment présent contrairement à ce que laissent entendre implicitement les chercheurs qui se sont penchés sur l’anarchisme contemporain. Nous analysons les cas d’auteurs anarchistes de la première moitié du 20e siècle comme Alexander Berkman, Emma Goldman, Joseph J. Cohen, Albert Libertad, Émile Armand et Rirette Maîtrejean. Une analyse de la colonie libertaire d’Aiglemont complète le tableau. Notre approche centrée sur l’étude des pratiques militantes repose sur trois conceptions idéal-typiques. Nous considérons trois types de pratiques anarchistes : l’action anarchiste de type insurrectionnel, de type syndicaliste et de type éducationnisteréalisateur. Nous concluons que les pratiques du mouvement anarchiste contemporain s’apparentent aux pratiques de certains anarchistes classiques, c’est-à-dire les pratiques de type éducationniste-réalisateur.
Resumo:
L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
L'oeuvre au service de la traduction : l'écriture vianesque, une invitation à la traduction créative
Resumo:
Stanley Chapman n’est pas un traducteur ni même un écrivain très connu. Le volume de ses écrits originaux, qui sont d’ailleurs difficiles voire impossibles à trouver, et des traductions à son actif reste mince. Peut-être serait-il même passé complètement inaperçu, sauf bien sûr chez ses compères du Collège de ’Pataphysique, de l’Oulipo et de l’Outrapo, s’il n’avait pas traduit deux romans phares de l’écrivain français Boris Vian: L’Écume des jours et L’Arrache-coeur. La prose singulière de Vian l’aurait-elle incité à passer à l’acte d’écriture qui trouve justement sa source et se déploie dans l’acte du traduire ? Par ailleurs, les affinités intellectuelles que partageaient Vian et Chapman pourraient-elles aussi être en cause dans cette expérience du traduire ? Henri Meschonnic et Antoine Berman nous informent que la critique de la traduction a le pouvoir de révéler le rapport intime entre la pensée, l’écriture et la traduction. À partir de la « poétique du traduire » de Meschonnic et de « l’analytique de la traduction » de Berman, ce mémoire interroge en quoi Heartsnatcher, la traduction anglaise de L’Arrache-coeur, peut être considérée comme un acte de « traduire-écrire ». Étayée des notions de rythme et de signifiance, notre critique identifie les stratégies qui émergent de cette activité de création qu’est la traduction et par le fait même, révèle la manière particulière dont Stanley Chapman est parvenu à traduire L’Arrache-coeur.
Resumo:
Le système endocannabinoïde (eCB) est présent dans le système nerveux central (SNC) de mammifères, incluant la rétine, et est responsable de la régulation de nombreux processus physiologiques. Bien que la présence du récepteur cannabinoïde de type 1 (CB1R) a bien été documenté dans la rétine de rongeurs et primates, il y a encore une controverse quant à la présence du récepteur cannabinoïde de type 2 (CB2R) au niveau du SNC. En utilisant la microscopie confocale, nous sommes les premiers à signaler les patrons d’expression du CB2R dans la rétine de singe. Nos résultats démontrent que le CB2R est exprimé exclusivement dans les cellules de Müller de la rétine du singe. En outre, nous avons comparé les différents patrons d’expression du système eCB dans la rétine de la souris, du toupaye, ainsi que du singe vervet et macaque. Nous rapportons que les distributions de CB1R, FAAH (fatty acid amid hydrolase), MAGL (monoacylglycerol lipase) et DAGLα (diacylglycerol lipase alpha) sont hautement conservées parmi ces espèces alors que CB2R et NAPE-PLD (N-acyl phosphatidylethanolamine phospholipase D) présentent différents profils d'expression. CB2R n'a pas été détecté dans les cellules neuronales de la rétine des primates. L’immunoréactivité de NAPE-PLD est présente dans les couches de la rétine de souris et toupayes, mais a été limitée à la couche des photorécepteurs des singes vervet et macaque. Pour étudier les corrélats neuronaux et le rôle de la signalisation du système eCB dans la rétine, nous avons établi un protocole standard pour l'électrorétinographie (ERG), puis enregistré la réponse ERG de la rétine après le blocage des récepteurs avec des antagonistes spécifiques pour CB1R (AM251) et CB2R (AM630). Comparé au témoin, dans des conditions photopiques, et à certaines intensités faibles du stimulus, le blocage de CB1R diminue l'amplitude de l'onde-b, alors qu’à des intensités plus élevées, le blocage de CB2R augmente l'amplitude des deux-ondes a et b. De plus, le blocage des récepteurs cannabinoïdes provoque une augmentation de la latence des deux ondes a et b. Dans des conditions d’adaptation à l'obscurité, le blocage de CB1R et CB2R réduit l’amplitudes de l'onde a seulement à des intensités plus élevées et réduit l’onde b à intensités plus faibles. Des augmentations significatives de latence ont été observées dans les deux cas. Ces résultats indiquent que les récepteurs CB1 et CB2 chez les primates non humains sont impliqués dans la fonction rétinienne conditions photopiques. En outre, nous avons évalué le profil d'expression du CB1R, de FAAH et de NAPE-PLD au-delà de la rétine dans le corps géniculé latéral des singes et nous rapportons pour la première fois que CB1R et FAAH sont exprimés davantage dans les couches magnocellulaires. La NAPE-PLD a été localisée à travers les couches magno- et parvocellulaires. Aucune de ces composantes n’est exprimée dans les couches koniocellulaires. Ces résultats nous aident à mieux comprendre les effets des cannabinoïdes sur le système visuel qui pourraient nous mener à trouver éventuellement de nouvelles cibles thérapeutiques.
Resumo:
EphA7 est un membre de la famille des récepteurs à tyrosine kinase, Eph, qui assume plusieurs rôles durant le développement du système nerveux central. Par ailleurs, il continue d’être fortement exprimé dans le cerveau adulte, notamment dans les régions reconnues pour leur grande plasticité synaptique, telles que l’hippocampe et le cervelet. Par hybridation in situ, nous avons cartographié la distribution de l’ARNm d’EphA7 dans le cerveau de rats et souris adultes. Les couches pyramidales du CA1 et CA3 et granulaire du gyrus dentelé de la formation de l’hippocampe ont montré le plus fort marquage. Un niveau d’ARNm d’EphA7 plus modéré a été observé dans l’habenula, le striatum, l’amygdale, le cervelet et le cortex cingulaire, piriforme et entorhinal. Quant à la protéine détectée par immunohistochimie, elle était fortement exprimée dans le neuropile de l’hippocampe et la couche des cellules de Purkinje du cervelet. En microscopie électronique, dans toutes les couches de l’hippocampe et du cervelet examinées, des épines dendritiques, des dendrites, des axones non-myélinisés, des terminaisons axonales et quelquefois des prolongements astrocytaires constituaient les éléments immunopositifs. Comme on pouvait déjà le voir en microscopie photonique, les corps cellulaires des cellules pyramidales et granulaires de l’hippocampe ainsi que des cellules de Purkinje du cervelet montraient aussi du marquage, surtout intracellulaire. L’analyse quantitative a révélé la localisation préférentielle d’EphA7 dans des dendrites et épines dendritiques. La majorité des épines marquées formaient des synapses asymétriques (excitatrices) avec des terminaisons axonales non marquées. La double localisation préférentielle d’EphA7 dans les dendrites ainsi que les densités post-synaptiques des épines dendritiques est compatible avec l’hypothèse d’un rôle d’EphA7 dans le maintien ou la fonction de certaines synapses du SNC adulte.
Resumo:
Malgré une vaste littérature concernant les propriétés structurelles, électroniques et ther- modynamiques du silicium amorphe (a-Si), la structure microscopique de ce semi-cond- ucteur covalent échappe jusqu’à ce jour à une description exacte. Plusieurs questions demeurent en suspens, concernant par exemple la façon dont le désordre est distribué à travers la matrice amorphe : uniformément ou au sein de petites régions hautement déformées ? D’autre part, comment ce matériau relaxe-t-il : par des changements homo- gènes augmentant l’ordre à moyenne portée, par l’annihilation de défauts ponctuels ou par une combinaison de ces phénomènes ? Le premier article présenté dans ce mémoire propose une caractérisation des défauts de coordination, en terme de leur arrangement spatial et de leurs énergies de formation. De plus, les corrélations spatiales entre les défauts structurels sont examinées en se ba- sant sur un paramètre qui quantifie la probabilité que deux sites défectueux partagent un lien. Les géométries typiques associées aux atomes sous et sur-coordonnés sont extraites du modèle et décrites en utilisant les distributions partielles d’angles tétraédriques. L’in- fluence de la relaxation induite par le recuit sur les défauts structurels est également analysée. Le second article porte un regard sur la relation entre l’ordre à moyenne portée et la relaxation thermique. De récentes mesures expérimentales montrent que le silicium amorphe préparé par bombardement ionique, lorsque soumis à un recuit, subit des chan- gements structuraux qui laissent une signature dans la fonction de distribution radiale, et cela jusqu’à des distances correspondant à la troisième couche de voisins.[1, 2] Il n’est pas clair si ces changements sont une répercussion d’une augmentation de l’ordre à courte portée, ou s’ils sont réellement la manifestation d’un ordonnement parmi les angles dièdres, et cette section s’appuie sur des simulations numériques d’implantation ionique et de recuit, afin de répondre à cette question. D’autre part, les corrélations entre les angles tétraédriques et dièdres sont analysées à partir du modèle de a-Si.
Resumo:
La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.
Resumo:
La technique de trempage («dip-coating») est un procédé rapide et efficace pour former des films minces de copolymères à blocs (CPB) d’épaisseur et de nano-morphologies variées. Très peu d’études ont toutefois porté sur le trempage des CPB supramoléculaires et/ou photosensibles. Le trempage du CPB poly(styrène-b-4-vinyl pyridine) (PS-P4VP) a premièrement été étudié avec des petites molécules (PM) d’acide 1-naphtoïque (NCOOH) et de 1-naphtol (NOH) capables de former des ponts hydrogène (ponts H) avec le bloc P4VP dans 4 solvants (tétrahydrofurane (THF), p-dioxane, toluène et chloroforme). Le ratio d’incorporation (RI) molaire PM/VP dans les films trempés augmente avec la vitesse de retrait mais sa variation dépend fortement du solvant et de la PM utilisés. Le RI et la morphologie des films minces dépendent de la possibilité (ou non) du solvant à former des ponts H avec la PM et de sa sélectivité au bloc de PS menant (ou non) à des micelles de P4VP/PM en solution dont la rigidité influence l’état cinétique du système en film mince. La dépendance en une courbe en V de l’épaisseur des films en fonction la vitesse de retrait définit deux régimes, nommés régimes capillaire et de drainage. Ces régimes influencent différemment le RI et la morphologie finale. Nous nous sommes ensuite intéressés aux complexes de PS-P4VP avec des azobenzènes (AB) photosensibles, le 4-hydroxy-4’-butyl-azobenzène (BHAB) et le 4-hydroxy-4’-cyano-azobenzène (CHAB). Ces AB peuvent non seulement former des ponts H avec le bloc P4VP mais aussi s'isomériser entre les formes trans et cis sous illumination. Les expériences avec PS-P4VP/BHAB dans le THF et le toluène ont révélé que l'irradiation pendant le trempage permet de provoquer une transition entre les morphologies sphérique et cylindrique à basses vitesses de retrait. Ces transitions sont expliquées par l’augmentation du ratio molaire BHAB/VP pris dans les films sous illumination et par le plus grand volume des isomères BHAB-cis par rapport aux BHAB-trans. L'irradiation permet également de moduler l'épaisseur des films sans égard à la présence des AB. Finalement, des solutions de PS-P4VP/CHAB et PS-P4VP/BHAB dans le THF avec un CPB de masse molaire plus élevée ont été étudiées afin de comprendre l’effet d'un temps de demi-vie plus court de l’AB et de la présence de micelles en solution. Le photocontrôle morphologique perd de son efficacité avec le CHAB car l’augmentation du RI de CHAB dans les films illuminés par rapport aux films non irradiés est moins prononcée que pour les complexes de BHAB. Le choix du PS-P4VP est également important puisque la présence de micelles dans les solutions de THF du PS-P4VP(36,5k-16k), même si elle n’influence pas les RI BHAB/VP, fige davantage la morphologie sphérique en solution par rapport à une solution non-micellaire de PS-P4VP(24k-9,5k), limitant les possibilités de transition morphologique.