125 resultados para Couche de mouillage
Resumo:
Le virus Herpès simplex de type 1 (HSV-1), agent étiologique des feux sauvages, possède une structure multicouche comprenant une capside icosaédrale qui protège le génome viral d’ADN, une couche protéique très structurée appelée tégument et une enveloppe lipidique dérivant de la cellule hôte et parsemée de glycoprotéines virales. Tous ces constituants sont acquis séquentiellement à partir du noyau, du cytoplasme et du réseau trans-golgien. Cette structure multicouche confère à HSV-1 un potentiel considérable pour incorporer des protéines virales et cellulaires. Toutefois, l’ensemble des protéines qui composent ce virus n’a pas encore été élucidé. De plus, malgré son rôle critique à différentes étapes de l’infection, le tégument demeure encore mal défini et ce, tant dans sa composition que dans la séquence d’addition des protéines qui le composent. Toutes ces incertitudes quant aux mécanismes impliqués dans la morphogenèse du virus nous amènent à l’objectif de ce projet, soit la caractérisation du processus de maturation d’HSV-1. Le premier article présenté dans cette thèse et publié dans Journal of Virology s’attarde à la caractérisation protéique des virus extracellulaires matures. Grâce à l’élaboration d’un protocole d’isolation et de purification de ces virions, une étude protéomique a pu être effectuée. Celle-ci nous a permis de réaliser une cartographie de la composition globale en protéines virales des virus matures (8 protéines de la capside, 23 protéines du tégument et 13 glycoprotéines) qui a fait la page couverture de Journal of Virology. De plus, l’incorporation potentielle de 49 protéines cellulaires différentes a été révélée. Lors de cette étude protéomique, nous avons aussi relevé la présence de nouveaux composants du virion dont UL7, UL23, ICP0 et ICP4. Le deuxième article publié dans Journal of General Virology focalise sur ces protéines via une analyse biochimique afin de mieux comprendre les interactions et la dynamique du tégument. Ces résultats nous révèlent que, contrairement aux protéines ICP0 et ICP4, UL7 et UL23 peuvent être relâchées de la capside en présence de sels et que les cystéines libres jouent un rôle dans cette relâche. De plus, cet article met en évidence la présence d’ICP0 et d’ICP4 sur les capsides nucléaires suggérant une acquisition possible du tégument au noyau. La complexité du processus de morphogenèse du virus ainsi que la mise en évidence d’acquisition de protéines du tégument au noyau nous ont incités à poursuivre nos recherches sur la composition du virus à un stade précoce de son cycle viral. Les capsides C matures, prémisses des virus extracellulaires, ont donc été isolées et purifiées grâce à un protocole innovateur basé sur le tri par cytométrie en flux. L’analyse préliminaire de ces capsides par protéomique a permis d’identifier 28 protéines virales et 39 protéines cellulaires. Les données recueilles, comparées à celles obtenues avec les virus extracellulaires, suggèrent clairement un processus séquentiel d’acquisition des protéines du tégument débutant dans le noyau, site d’assemblage des capsides. Finalement, tous ces résultats contribuent à une meilleure compréhension du processus complexe de maturation d’HSV-1 via l’utilisation de techniques variées et innovatrices, telles que la protéomique et la cytométrie en flux, pouvant être appliquées à d’autres virus mais aussi permettre le développement de meilleurs traitements pour vaincre l’HSV-1.
Resumo:
Le béluga du Saint-Laurent est une espèce menacée au Canada et protégée par la Loi sur les espèces en péril du Canada. La détermination des fonctions biologiques de ses habitats essentiels est nécessaire afin d’assurer le rétablissement de la population. Parcs Canada a entamé en 2009 un suivi des proies du béluga dans deux de ses aires de fréquentation intensive situées dans le Parc marin du Saguenay–Saint-Laurent : l’embouchure de la rivière Saguenay et la baie Sainte-Marguerite. L’étude de l’abondance et de la distribution des proies est réalisée par sondage hydroacoustique le long de transects à l’aide d’un échosondeur multifréquences. Un protocole d’observations systématiques du béluga est mené simultanément aux sondages hydroacoustiques à partir de sites terrestres. Le premier objectif de cette étude est de développer la méthodologie concernant le traitement, la classification et la cartographie des données hydroacoustiques échantillonnées. L’objectif principal consiste à déterminer si l’abondance et la distribution des proies pélagiques ont une influence sur l’utilisation de ces deux habitats par le béluga. La cartographie de la biomasse relative de poissons a été réalisée pour la couche de surface, la couche en profondeur et pour l’ensemble de la colonne d’eau par krigeage ordinaire pour les deux habitats pour les 29 transects. À la baie Sainte-Marguerite, le nombre de bélugas observés augmente avec la biomasse relative des proies en surface et en profondeur. À l’embouchure de la rivière Saguenay, les résultats n’ont pas été concluants. Les résultats suggèrent que l’alimentation pourrait être l’une des fonctions biologiques de la baie Sainte-Marguerite.
Resumo:
Film abstrait peint à la main sur de la pellicule recyclée, The Dante Quartet de Stan Brakhage est une adaptation personnelle de La divine comédie de Dante. Agissant comme un palimpseste où chaque couche révèle des éléments caractéristiques de l’oeuvre du cinéaste ainsi que l’influence de certains poètes et artistes, The Dante Quartet reprend certaines caractéristiques de l’ekphrasis. Dans ce mémoire, je travaille avec l’hypothèse heuristique que The Dante Quartet est une ekphrasis, et plus précisément une ekphrasis inversée. Ce mémoire s’intéresse à ce qui reste du pré-texte après son passage d’un média à un autre. Compte tenu du laps temporel qui sépare ces deux œuvres, il est aussi question d’influences contemporaines au travail de Brakhage. Le cinéaste basant son travail sur les phénomènes de vision (et plus particulièrement sur les visions hypnagogiques dans le cas qui m’occupe), le point sera fait sur la pensée de Brakhage à ce sujet, pensée qu’il expose dans son livre-manifeste Metaphors on Vision.
Resumo:
Les changements climatiques mesurés dans le Nord-ouest canadien au cours du XXIe siècle entraînent une dégradation du pergélisol. Certaines des principales conséquences physiques sont la fonte de la glace interstitielle lors du dégel du pergélisol, l’affaissement du sol et la réorganisation des réseaux de drainage. L’effet est particulièrement marqué pour les routes bâties sur le pergélisol, où des dépressions et des fentes se créent de façon récurrente, rendant la conduite dangereuse. Des observations et mesures de terrain effectuées à Beaver Creek (Yukon) entre 2008 et 2011 ont démontré qu’un autre processus très peu étudié et quantifié dégradait le pergélisol de façon rapide, soit la chaleur transmise au pergélisol par l’écoulement souterrain. Suite aux mesures de terrain effectuées (relevé topographique, étude géotechnique du sol, détermination de la hauteur de la nappe phréatique et des chenaux d’écoulement préférentiels, température de l’eau et du sol, profondeur du pergélisol et de la couche active), des modèles de transfert de chaleur par conduction et par advection ont été produits. Les résultats démontrent que l’écoulement souterrain dans la couche active et les zones de talik contribue à la détérioration du pergélisol via différents processus de transfert de chaleur conducto-convectifs. L’écoulement souterrain devrait être pris en considération dans tous les modèles et scénarios de dégradation du pergélisol. Avec une bonne caractérisation de l’environnement, le modèle de transfert de chaleur élaboré au cours de la présente recherche est applicable dans d’autres zones de pergélisol discontinu.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
L’oxydoréduction de monocouches auto-assemblées (SAMs) de ferrocénylalcanethiolates à la surface d’or (FcRSAu) a été étudiée en temps réel par la spectroscopie de résonance de plasmons de surface couplée avec l’électrochimie (E-SPR). La sensibilité de cette technique permet de déterminer des changements d’épaisseur de couche l’ordre de quelques angström résultant d’un changement de structure de la SAM. Plusieurs études antérieures ont proposé que l’oxydation électrochimique d’une SAM de FcRSAu induit une réorientation moléculaire. L’E-SPR est utilisé pour identifier l’origine de ce changement structurel. D’abord, une calibration du réfractomètre SPR utilisé a été effectuée afin de trouver une équation de conversion du signal SPR obtenu en pixel en angle d’incidence pour que l’on puisse calculer le changement d’épaisseur de monocouche à partir du changement d’angle de résonance avec le modèle de Fresnel. Par la suite, une caractérisation approfondie des SAMs de FcCnSAu (où n = 6, 8, 12, 14) en contact avec du NaClO4 acidifié a été réalisée par électrochimie, éllipsométrie, spectroscopie infrarouge et microscopie à force atomique. Les résultats obtenus montrent que l’augmentation de la longueur des chaînes alkyles donne des SAMs de ferrocènes plus épaisses et moins désordonnées. L’analyse par l’E-SPR de ces SAMs pures montre que le changement d’épaisseur induit par l’électro-oxydation dépend linéairement du nombre de méthylènes sur la chaîne alkyle. En appliquant la déconvolution mathématique aux voltampérogrammes cycliques enregistrés pour les SAM mixtes (FcC12SAu/C11SAu) de différentes compositions, on arrive à la conclusion qu’il y a un redressement des chaînes alkyles dans les domaines des ferrocènes agrégés mais la réorientation des têtes de ferrocène dans les domaines de ferrocènes agrégés ou dispersés ne peut pas être exclue. Enfin, l’effet de l’anion électrolytique sur le changement d’épaisseur de la SAM mesuré par l’E-SPR a été étudié. L’analyse électrochimique montre que la capacité de pairage d’anions avec les ferrocéniums décroit comme suit : PF6- > ClO4- > BF4- > NO3-. Tandis que l’épaisseur de la SAM donnée par le changement d’angle de résonance suit la tendance suivante : NO3- ≥ ClO4- > PF6- ≈ BF4-. Des études plus approfondies seront nécessaire pour clarifier cette tendance observée par E-SPR.
Resumo:
Nous avons observé une augmentation ‘’transient’’du taux de cristallisation interfacique de l’a-Si lorsqu’on réimplante du Si à proximité de l’interface amorphe/cristal. Après amorphisation et traitement thermique à 650°C pendant 5s de la couche a-Si crée par implantation ionique, une partie a été réimplantée. Les défauts produits par auto-réimplantation à 0.7MeV se trouvent à (302±9) nm de l’interface initiale. Cela nous a permis d’étudier d’avantage la variation initiale de la vitesse SPE (Épitaxie en phase solide). Avec des recuit identiques de 4h à 500°C, nous avons déterminé les positions successives des interfaces et en déduit les taux de cristallisation SPE. La cristallisation débute à l’interface et continue graduellement vers la surface. Après le premier recuit, (252±11) nm s’est recristallisé dans la zone réimplantée soit un avancement SPE de 1.26x10^18at./cm2. Cette valeur est environ 1.50 fois plus importante que celle dans l’état relaxé. Nous suggérons que la présence de défauts à proximité de l’interface a stimulé la vitesse initiale. Avec le nombre de recuit, l’écart entre les vitesses diminue, les deux régions se cristallisent presque à la même vitesse. Les mesures Raman prises avant le SPE et après chaque recuit ont permis de quantifier l’état de relaxation de l’a-Si et le transfert de l’état dé-relaxé à relaxé.
Resumo:
En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.
Resumo:
Nous investiguons dans ce travail la création d'échantillons permettant l'étude du comportement des polaritons excitoniques dans les matériaux semi-conducteurs organiques. Le couplage fort entre les états excités d'électrons et des photons impose la création de nouveaux états propres dans le milieu. Ces nouveaux états, les polaritons, ont un comportement bosonique et sont donc capables de se condenser dans un état fortement dégénéré. Une occupation massive de l'état fondamental permet l'étude de comportements explicables uniquement par la mécanique quantique. La démonstration, au niveau macroscopique, d'effets quantiques promet d'éclairer notre compréhension de la matière condensée. De plus, la forte localisation des excitons dans les milieux organiques permet la condensation des polaritons excitoniques organiques à des températures beaucoup plus hautes que dans les semi-conducteurs inorganiques. À terme, les échantillons proposés dans ce travail pourraient donc servir à observer une phase cohérente macroscopique à des températures facilement atteignables en laboratoire. Les cavités proposées sont des résonateurs Fabry-Perot ultraminces dans lesquels est inséré un cristal unique d'anthracène. Des miroirs diélectriques sont fabriqués par une compagnie externe. Une couche d'or de 60 nanomètres est ensuite déposée sur leur surface. Les miroirs sont ensuite mis en contact, or contre or, et compressés par 2,6 tonnes de pression. Cette pression soude la cavité et laisse des espaces vides entre les lignes d'or. Une molécule organique, l'anthracène, est ensuite insérée par capillarité dans la cavité et y est cristallisée par la suite. Dans leur état actuel, les cavités présentent des défauts majeurs quant à la planarité des miroirs et à l'uniformité des cristaux. Un protocole détaillé est présenté et commenté dans ce travail. Nous y proposons aussi quelques pistes pour régler les problèmes courants de l'appareil.
Resumo:
L’actualité entourant les Jeux olympiques de Vancouver de 2010 a fait couler beaucoup d’encre. Les retombées économiques enviables que procure l’exclusivité de la commandite aux Jeux olympiques suscitent la convoitise chez de nombreux concurrents commerciaux. Face aux phénomènes grandissant de la contrefaçon de la marque olympique et du marketing insidieux, le Comité international olympique et les pays hôtes des Jeux ont apporté une couche supplémentaire de protection pour la marque olympique. Au Canada, la Loi sur les marques olympiques et paralympiques (LMOP) fut sanctionnée le 22 juin 2007 par la Gouverneure Générale. Les sections-clés de cette loi sont arrivées à échéance le 31 décembre 2010 alors que d’autres de ses aspects sont permanents. La première partie de cet article a pour but de présenter les enjeux reliés à la protection de la propriété intellectuelle lors des Jeux de Vancouver, de définir et déterminer les limites de la propriété olympique, ainsi que le rôle de chaque acteur dans le domaine olympique. Nous étudierons les actions qui furent prises par le Comité d’organisation des Jeux olympiques et paralympiques d’hiver de 2010 à Vancouver (COVAN) et par les autres paliers de comités olympiques pour s’assurer la propriété de l’image olympique au Canada et l’importance de la LMOP dans leurs actions. Dans la deuxième partie de l’article, il sera question de la mise en œuvre de la protection de la marque olympique. Au cours des Jeux, le COVAN a dû faire face à l’adoption ou l’utilisation de la marque olympique par des tiers non autorisés et à des associations commerciales non autorisées avec l’image olympique. D’autres infractions ont également pris place sur Internet. Le présent article se veut un bilan de la situation canadienne suite aux Jeux olympiques de Vancouver de 2010. La LMOP a-t-elle été invoquée devant les tribunaux canadiens ? La loi a-t-elle effectivement été le seul rempart entre la protection olympique et les entreprises ou individus qui souhaitaient profiter indûment de l’événement ? Et finalement, cette initiative a-t-elle été déterminante dans le combat contre le marketing insidieux et autres attaques contre l’image olympique?
Resumo:
Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.
Étude de la cinétique et des dommages de gravure par plasma de couches minces de nitrure d’aluminium
Resumo:
Une étape cruciale dans la fabrication des MEMS de haute fréquence est la gravure par plasma de la couche mince d’AlN de structure colonnaire agissant comme matériau piézoélectrique. Réalisé en collaboration étroite avec les chercheurs de Teledyne Dalsa, ce mémoire de maîtrise vise à mieux comprendre les mécanismes physico-chimiques gouvernant la cinétique ainsi que la formation de dommages lors de la gravure de l’AlN dans des plasmas Ar/Cl2/BCl3. Dans un premier temps, nous avons effectué une étude de l’influence des conditions opératoires d’un plasma à couplage inductif sur la densité des principales espèces actives de la gravure, à savoir, les ions positifs et les atomes de Cl. Ces mesures ont ensuite été corrélées aux caractéristiques de gravure, en particulier la vitesse de gravure, la rugosité de surface et les propriétés chimiques de la couche mince. Dans les plasmas Ar/Cl2, nos travaux ont notamment mis en évidence l’effet inhibiteur de l’AlO, un composé formé au cours de la croissance de l’AlN par pulvérisation magnétron réactive et non issu des interactions plasmas-parois ou encore de l’incorporation d’humidité dans la structure colonnaire de l’AlN. En présence de faibles traces de BCl3 dans le plasma Ar/Cl2, nous avons observé une amélioration significative du rendement de gravure de l’AlN dû à la formation de composés volatils BOCl. Par ailleurs, selon nos travaux, il y aurait deux niveaux de rugosité post-gravure : une plus faible rugosité produite par la présence d’AlO dans les plasmas Ar/Cl2 et indépendante de la vitesse de gravure ainsi qu’une plus importante rugosité due à la désorption préférentielle de l’Al dans les plasmas Ar/Cl2/BCl3 et augmentant linéairement avec la vitesse de gravure.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
Problème: Ma thèse porte sur l’identité individuelle comme interrogation sur les enjeux personnels et sur ce qui constitue l’identification hybride à l’intérieur des notions concurrentielles en ce qui a trait à l’authenticité. Plus précisément, j’aborde le concept des identifications hybrides en tant que zones intermédiaires pour ce qui est de l’alternance de codes linguistiques et comme négociation des espaces continuels dans leur mouvement entre les cultures et les langues. Une telle négociation engendre des tensions et/ou apporte le lien créatif. Les tensions sont inhérentes à n’importe quelle construction d’identité où les lignes qui définissent des personnes ne sont pas spécifiques à une culture ou à une langue, où des notions de l’identité pure sont contestées et des codes communs de l’appartenance sont compromis. Le lien créatif se produit dans les exemples où l’alternance de code linguistique ou la négociation des espaces produit le mouvement ouvert et fluide entre les codes de concurrence des références et les différences à travers les discriminations raciales, la sexualité, la culture et la langue. Les travaux que j’ai sélectionnés représentent une section transversale de quelques auteurs migrants provenant de la minorité en Amérique du Nord qui alternent les codes linguistiques de cette manière. Les travaux détaillent le temps et l’espace dans leur traitement de l’identité et dans la façon dont ils cernent l’hybridité dans les textes suivants : The Woman Warrior de Maxine Hong Kingston (1975-76), Hunger of Memory de Richard Rodriguez (1982), Comment faire l’amour avec un nègre sans se fatiguer de Dany Laferrière (1985), Borderlands/La Frontera de Gloria Anzalduá (1987), Lost in Translation de Eva Hoffman (1989), Avril ou l’anti-passion de Antonio D’Alfonso (1990) et Chorus of Mushrooms de Hiromi Goto (1994). Enjeux/Questions La notion de l’identification hybride est provocante comme sujet. Elle met en question l’identité pure. C’est un sujet qui a suscité beaucoup de discussions tant en ce qui a trait à la littérature, à la politique, à la société, à la linguistique, aux communications, qu’au sein même des cercles philosophiques. Ce sujet est compliqué parce qu’il secoue la base des espaces fixes et structurés de l’identité dans sa signification culturelle et linguistique. Par exemple, la notion de patrie n’a pas les représentations exclusives du pays d’origine ou du pays d’accueil. De même, les notions de race, d’appartenance ethnique, et d’espaces sexuels sont parfois négativement acceptées si elles proviennent des codes socialement admis et normalisés de l’extérieur. De tels codes de la signification sont souvent définis par l’étiquette d’identification hétérosexuelle et blanche. Dans l’environnement généralisé d’aujourd’hui, plus que jamais, une personne doit négocier qui elle est, au sens de son appartenance à soi, en tant qu’individu et ce, face aux modèles locaux, régionaux, nationaux, voire même globaux de la subjectivité. Nous pouvons interpréter ce mouvement comme une série de couches superposées de la signification. Quand nous rencontrons une personne pour la première fois, nous ne voyons que la couche supérieure. D’ailleurs, son soi intérieur est caché par de nombreuses couches superposées (voir Joseph D. Straubhaar). Toutefois, sous cette couche supérieure, on retrouve beaucoup d’autres couches et tout comme pour un oignon, on doit les enlever une par une pour que l’individualité complète d’une personne soit révélée et comprise. Le noyau d’une personne représente un point de départ crucial pour opposer qui elle était à la façon dont elle se transforme sans cesse. Sa base, ou son noyau, dépend du moment, et comprend, mais ne s’y limite pas, ses origines, son environnement et ses expériences d’enfance, son éducation, sa notion de famille, et ses amitiés. De plus, les notions d’amour-propre et d’amour pour les autres, d’altruisme, sont aussi des points importants. Il y a une relation réciproque entre le soi et l’autre qui établit notre degré d’estime de soi. En raison de la mondialisation, notre façon de comprendre la culture, en fait, comment on consomme et définit la culture, devient rapidement un phénomène de déplacement. À l’intérieur de cette arène de culture généralisée, la façon dont les personnes sont à l’origine chinoises, mexicaines, italiennes, ou autres, et poursuivent leur évolution culturelle, se définit plus aussi facilement qu’avant. Approche Ainsi, ma thèse explore la subjectivité hybride comme position des tensions et/ou des relations créatrices entre les cultures et les langues. Quoique je ne souhaite aucunement simplifier ni le processus, ni les questions de l’auto-identification, il m’apparaît que la subjectivité hybride est aujourd’hui une réalité croissante dans l’arène généralisée de la culture. Ce processus d’échange est particulièrement complexe chez les populations migrantes en conflit avec leur désir de s’intégrer dans les nouveaux espaces adoptés, c’est-à-dire leur pays d’accueil. Ce réel désir d’appartenance peut entrer en conflit avec celui de garder les espaces originels de la culture définie par son pays d’origine. Ainsi, les références antérieures de l’identification d’une personne, les fondements de son individualité, son noyau, peuvent toujours ne pas correspondre à, ou bien fonctionner harmonieusement avec, les références extérieures et les couches d’identification changeantes, celles qu’elle s’approprie du pays d’accueil. Puisque nos politiques, nos religions et nos établissements d’enseignement proviennent des représentations nationales de la culture et de la communauté, le processus d’identification et la création de son individualité extérieure sont formées par le contact avec ces établissements. La façon dont une personne va chercher l’identification entre les espaces personnels et les espaces publics détermine ainsi le degré de conflit et/ou de lien créatif éprouvé entre les modes et les codes des espaces culturels et linguistiques. Par conséquent, l’identification des populations migrantes suggère que la « community and culture will represent both a hybridization of home and host cultures » (Straubhaar 27). Il y a beaucoup d’écrits au sujet de l’hybridité et des questions de l’identité et de la patrie, toutefois cette thèse aborde la valeur créative de l’alternance de codes culturels et linguistiques. Ce que la littérature indiquera Par conséquent, la plate-forme à partir de laquelle j’explore mon sujet de l’hybridité flotte entre l’interprétation postcoloniale de Homi Bhabha concernant le troisième espace hybride; le modèle d’hétéroglossie de Mikhail Bakhtine qui englobent plusieurs de mes exemples; la représentation de Roland Barthes sur l’identité comme espace transgressif qui est un modèle de référence et la contribution de Chantal Zabus sur le palimpseste et l’alternance de codes africains. J’utilise aussi le modèle de Sherry Simon portant sur l’espace urbain hybride de Montréal qui établit un lien important avec la valeur des échanges culturels et linguistiques, et les analyses de Janet Paterson. En effet, la façon dont elle traite la figure de l’Autre dans les modèles littéraires au Québec fournisse un aperçu régional et national de l’identification hybride. Enfin, l’exploration du bilinguisme de Doris Sommer comme espace esthétique et même humoristique d’identification situe l’hybridité dans une espace de rencontre créative. Conséquence Mon approche dans cette thèse ne prétend pas résoudre les problèmes qui peuvent résulter des plates-formes de la subjectivité hybride. Pour cette raison, j’évite d’aborder toute approche politique ou nationaliste de l’identité qui réfute l’identification hybride. De la même façon, je n’amène pas de discussion approfondie sur les questions postcoloniales. Le but de cette thèse est de démontrer à quel point la subjectivité hybride peut être une zone de relation créatrice lorsque l’alternance de codes permet des échanges de communication plus intimes entre les cultures et les langues. C’est un espace qui devient créateur parce qu’il favorise une attitude plus ouverte vis-à-vis les différents champs qui passent par la culture, aussi bien la langue, que la sexualité, la politique ou la religion. Les zones hybrides de l’identification nous permettent de contester les traditions dépassées, les coutumes, les modes de communication et la non-acceptation, toutes choses dépassées qui emprisonnent le désir et empêchent d’explorer et d’adopter des codes en dehors des normes et des modèles de la culture contenus dans le discours blanc, dominant, de l’appartenance culturelle et linguistique mondialisée. Ainsi, il appert que ces zones des relations multi-ethniques exigent plus d’attention des cercles scolaires puisque la population des centres urbains à travers l’Amérique du Nord devient de plus en plus nourrie par d’autres types de populations. Donc, il existe un besoin réel d’établir une communication sincère qui permettrait à la population de bien comprendre les populations adoptées. C’est une invitation à stimuler une relation plus intime de l’un avec l’autre. Toutefois, il est évident qu’une communication efficace à travers les frontières des codes linguistiques, culturels, sexuels, religieux et politiques exige une négociation continuelle. Mais une telle négociation peut stimuler la compréhension plus juste des différences (culturelle ou linguistique) si des institutions académiques offrent des programmes d’études intégrant davantage les littératures migrantes. Ma thèse vise à illustrer (par son choix littéraire) l’identification hybride comme une réalité importante dans les cultures généralisées qui croissent toujours aujourd’hui. Les espaces géographiques nous gardent éloignés les uns des autres, mais notre consommation de produits exotiques, qu’ils soient culturels ou non, et même notre consommation de l’autre, s’est rétrécie sensiblement depuis les deux dernières décennies et les indicateurs suggèrent que ce processus n’est pas une tendance, mais plutôt une nouvelle manière d’éprouver la vie et de connaître les autres. Ainsi les marqueurs qui forment nos frontières externes, aussi bien que ces marqueurs qui nous définissent de l’intérieur, exigent un examen minutieux de ces enjeux inter(trans)culturels, surtout si nous souhaitons nous en tenir avec succès à des langues et des codes culturels présents, tout en favorisant la diversité culturelle et linguistique. MOTS-CLÉS : identification hybride, mouvement ouvert, alternance de code linguistique, négociation des espaces, tensions, connectivité créative
Resumo:
Les brosses de polyélectrolytes font l’objet d’une attention particulière pour de nombreuses applications car elles présentent la capacité de changer de conformation et, par conséquent, de propriétés de surface en réponse aux conditions environnementales appliquées. Le contrôle des principaux paramètres de ces brosses telles que l'épaisseur, la composition et l'architecture macromoléculaire, est essentiel pour obtenir des polymères greffés bien définis. Ceci est possible avec la Polymérisation Radicalaire par Transfert d’Atomes - Initiée à partir de la Surface (PRTA-IS), qui permet la synthèse de brosses polymériques de manière contrôlée à partir d’une couche d'amorceurs immobilisés de manière covalente sur une surface. Le premier exemple d’une synthèse directe de brosses de poly(acide acrylique) (PAA) par polymérisation radicalaire dans l’eau a été démontré. Par greffage d’un marqueur fluorescent aux brosses de PAA et via l’utilisation de la microscopie de fluorescence par réflexion totale interne, le dégreffage du PAA en temps réel a pu être investigué. Des conditions environnementales de pH ≥ 9,5 en présence de sel, se sont avérées critiques pour la stabilité de la liaison substrat-amorceur, conduisant au dégreffage du polymère. Afin de protéger de l’hydrolyse cette liaison substrat-amorceur sensible et prévenir le dégreffage non souhaité du polymère, un espaceur hydrophobique de polystyrène (PS) a été inséré entre l'amorceur et le bloc de PAA stimuli-répondant. Les brosses de PS-PAA obtenues étaient stables pour des conditions extrêmes de pH et de force ionique. La réponse de ces brosses de copolymère bloc a été étudiée in situ par ellipsométrie, et le changement réversible de conformation collapsée à étirée, induit par les variations de pH a été démontré. De plus, des différences de conformation provenant des interactions du bloc de PAA avec des ions métalliques de valence variable ont été obtenues. Le copolymère bloc étudié semble donc prometteur pour la conception de matériaux répondant rapidement a divers stimuli. Par la suite, il a été démontré qu’un acide phosphonique pouvait être employé en tant qu’ amorceur PRTA-IS comme alternative aux organosilanes. Cet amorceur phosphonate a été greffé pour la première fois avec succès sur des substrats de silice et une PRTA-IS en milieux aqueux a permis la synthèse de brosses de PAA et de poly(sulfopropyl méthacrylate). La résistance accrue à l’hydrolyse de la liaison Sisubstrat-O- Pamorceur a été confirmée pour une large gamme de pH 7,5 à 10,5 et a permis l’étude des propriétés de friction des brosses de PAA sous différentes conditions expérimentales par mesure de forces de surface. Malgré la stabilité des brosses de PAA à haute charge appliquée, les études des propriétés de friction ne révèlent pas de changement significatif du coefficient de friction en fonction du pH et de la force ionique.