184 resultados para Étudiants de première génération


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour objet d’étude le processus de succession dans les entreprises familiales. Pour la collecte de données, nous avons choisi d’utiliser l’entrevue semi-dirigée. Notre corpus d’analyse consiste en une petite entreprise familiale québécoise oeuvrant dans le secteur des services professionnels, qui vit présentement un transfert de la première à la deuxième génération. Au total, nous avons réalisé des entrevues avec cinq personnes : les deux propriétaires-dirigeants actuels qui sont en voie d’être succédés, leur successeure,ainsi que deux employés ayant vécu de près la succession. Nous nous sommes intéressés plus spécifiquement à la dimension communicationnelle du processus de succession, dont nous avons fait la démonstration à l’aide du modèle discursif de l’organisation de Taylor (1993). Cet exercice nous a permis d’observer deux moments clés du processus, soit l’intégration à plein temps du successeur dans l’entreprise, et le moment où le rôle de leader lui est transféré, rejoignant ainsi les conclusions de Longenecker et Schoen (1978).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre recherche vise à décrire les connaissances grammaticales élaborées par des élèves de première secondaire au cours de l’enseignement/apprentissage de l’accord du verbe. Cette description se fonde sur l’observation des interactions didactiques entre les élèves, et leur enseignant autour de l’objet de savoir « accord du verbe » : elle concerne plus particulièrement l’interaction entre les pôles « élève » et « savoir ». Notre recherche s’inscrit dans le courant de la grammaire pédagogique moderne. La théorie de la transposition didactique de Chevallard (1985/1991) constitue également la pierre angulaire de nos travaux : les concepts de transposition didactique externe (le passage du savoir savant au savoir à enseigner) et interne (le passage du savoir à enseigner au savoir effectivement enseigné) agissent à titre d’analyseurs des interactions didactiques. L’observation, la description et la théorisation des interactions didactiques imposent une démarche écologique pour la collecte des données. Pour notre recherche, les données ont été recueillies grâce à la captation vidéo de séquences didactiques portant sur l’accord du verbe : elles consistent en des interactions verbales entre élèves ou entre les élèves et leur enseignant. L’analyse des données s’est effectuée selon une perspective macro et micro : (1) L’analyse macro indique que les connaissances antérieures des élèves résistent à l’institutionnalisation des savoirs puisque le savoir enseigné n’est pas celui qui est exclusivement mobilisé. Les élèves recourent à un vaste éventail de connaissances de types procédural et déclaratif pour l’identification du verbe et du sujet, dont la réussite n’est par ailleurs pas assurée. De plus, les connaissances qu’ils ont élaborées autour de la règle d’accord et du transfert des traits morphologiques sont également nombreuses et variées et ne les conduisent pas à accorder le verbe avec constance. (2) L’analyse micro suggère que l’élaboration des connaissances relatives à l’accord du verbe dépend de la manière dont les outils de la grammaire (manipulations syntaxiques et phrase de base) sont utilisés par les élèves. Plus précisément, le savoir piétine ou recule lorsque les manipulations syntaxiques ne sont pas appliquées dans la phrase ou qu’elles ne sont pas adaptées dans certains contextes syntaxiques; le savoir fait des bonds en avant dans les classes où les élèves sont en mesure de recourir à la phrase de base pour soutenir leur analyse grammaticale. Les descriptions proposées dans le cadre de notre thèse conduisent à discuter de leurs implications pour la transposition didactique externe et, plus généralement, pour la didactique du français et de la grammaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse a été réalisée en cotutelle entre l'Université de Montréal et l'École des Hautes Études en Sciences Sociales de Paris, sous la direction de Michel Duchesneau (UdeM) et Esteban Buch (EHESS). La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Québec, la compétence professionnelle à intégrer les technologies de l’information et de la communication (TIC) est une compétence professionnelle à acquérir par les étudiants en enseignement. Cependant, son acquisition est problématique à plusieurs niveaux. Afin d’évaluer et mieux comprendre la compétence, cette thèse présente trois objectifs : 1) décrire le degré de maitrise des TIC et leurs usages dans les salles de classe 2) identifier les facteurs qui influencent l’intégration des TIC en fonction de la compétence professionnelle, et finalement 3) décrire le niveau d’atteinte des composantes de la compétence. Pour atteindre les objectifs de l’étude, une méthodologie mixte fut employée. Ce sont 2065 futurs enseignants du Québec provenant de neuf universités québécoises qui ont complété le questionnaire en plus de 34 participants à des groupes de discussion (n = 5). Cette thèse rédigée sous forme d’articles, répondra à chacun des objectifs visés. Dans le but de mieux comprendre l’utilisation actuelle des TIC par les futurs maitres, le premier article fournira un aperçu de la maitrise d’outils technologiques susceptibles d’être utilisés lors des stages. Le deuxième article visera à identifier les variables externes ainsi que les différentes composantes de la compétence qui ont une influence sur l’intégration des TIC lors des stages. Dans le troisième article, afin de comprendre où se situent les forces et les faiblesses des futurs maitres quant à la compétence professionnelle à intégrer les TIC, une description du niveau d’atteinte de chacune des composantes sera réalisée afin d’en dégager une appréciation globale. Les principaux résultats montrent que pour la moitié des répondants, seuls cinq outils sur 12 sont intégrés en stage et ce sont principalement les outils peu complexes qui sont bien maitrisés. Le logiciel de présentation Power Point, est le plus fréquemment utilisé. Les données considérées dans le premier article suggèrent aussi l’importance d’augmenter, de façon générale, la maitrise technique des futurs enseignants. Les résultats du second article ont permis de constater que la « prévision d’activités faisant appel aux TIC » est une variable prédictive majeure pour l’intégration des TIC. L’analyse des résultats suggèrent le besoin d’enseigner aux futurs maitres comment développer le réflexe d’inclure les TIC dans leurs plans de leçons. De plus, l’appropriation de la sixième composante de la compétence joue un rôle important sur la probabilité d’intégrer les TIC. Les résultats du troisième article indiquent que les composantes 2, 4, 5 et 6 de la compétence sont partiellement maitrisées. La mieux maitrisée est la première composante. Finalement, la troisième composante de la compétence s’est avérée être encore non atteinte et reste à être développer par les futurs enseignants. Cette thèse nous apprend que des efforts considérables restent encore à accomplir quant à la maitrise de la compétence professionnelle à intégrer les TIC. Ces efforts doivent être accomplis à la fois par les futurs enseignants ainsi que par les universités au niveau de la structure des cours de TIC en formation initiale des maitres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’approche Module X a été créée dans le but de concevoir de petits peptides modulateurs ayant des propriétés allostériques. Module X reproduit de petites parties des portions extracellulaires flexibles des récepteurs. Ces petits peptides vont interagir en s’interposant entre deux sous unités ou entre deux régions de la même sous-unité qui interagissent par des liens hydrogènes, des ponts salins ou des liens disulfure. Ces régions sont spécialement choisies à l’extérieur du domaine de liaison du ligand orthostérique et sont situées dans les régions inter domaines, la portion juxta membranaire ou dans les boucles. Étant donné que les boucles sont exposées durant les changements de conformation, une séquence peptidique reproduisant certaines régions de ces boucles pourrait s’insérer à un endroit approprié dans la structure où se lier à son partenaire de signalisation dans le complexe protéique, ce qui aurait comme effet de déplacer l’équilibre de l’ensemble vers un état particulier et modulerait ainsi la signalisation. De cette façon, certaines voies de signalisation pourraient être partiellement inhibées tandis que d’autres voies ne seraient pas touchées puisque le ligand orthostérique pourrait toujours se lier au récepteur. Dans une première étude, nous avons conçu des peptides inhibiteurs du récepteur de l’interleukine 1 (IL-1R/IL-1RAcP) plus précisément en reproduisant des régions flexibles de la protéine accessoire, sous-unité signalisatrice du récepteur. IL-1 est un médiateur majeur de l’inflammation, mais le seul antagoniste disponible est l’analogue naturel de IL-1, IL-1Ra qui compétitionne avec IL-1 pour le site de liaison sur le récepteur. Nous avons conçu plusieurs peptides à partir des boucles de la protéine accessoire. Un de ces peptides, rytvela (101.10) a démontré des propriétés de non-compétitivité et de sélectivité fonctionnelle caractéristiques des modulateurs allostériques. 101.10 bloque la prolifération des thymocytes et la synthèse de PGE2 avec un IC50 de 1 nM mais une efficacité de 100 % et 45 % respectivement et ne déplace pas IL-1 radioactif dans des essais de radioliaisons. De plus, 101.10 n’a qu’un effet minime sur l’affinité de IL-1 pour son récepteur. 101.10 démontre, de plus, une activité inhibitrice in vivo dans des modèles d’inflammation de l’intestin chez le rat (efficacité supérieure aux corticostéroïdes et à IL-1Ra) et de dermatite chez la souris de même que dans un modèle d’hyperthermie induite par IL-1. La deuxième étude démontre que Module X peut être utilisé pour concevoir des inhibiteurs pour une autre grande famille de récepteurs : les récepteurs couplés aux protéines G. La vasopressine joue un rôle important dans l’équilibre hydro-osmotique et un moindre rôle dans la vasomotricité. Six peptides ont été conçus à partir de régions juxta membranaires du récepteur de la vasopressine V2R. Le peptide le plus actif, VRQ397 (IC50 = 0,69 nM dans un modèle de vasorelaxation du crémastère), a démontré de la sélectivité fonctionnelle en inhibant la synthèse de prostacycline mais sans inhiber l’activation de la protéine Gs et la génération d’ AMP cyclique. Le peptide VRQ397 ne pouvait déplacer le ligand naturel AVP marqué radioactivement; de même VRQ397 radioactif ne se liait que sur V2R et non pas sur d’autres récepteurs de la même famille tel que V1R (récepteur de la vasopressine de type I). Ces études décrivent la caractérisation de petits peptides modulateurs de la signalisation de IL-1R et V2R et présentant des propriétés de modulateurs allostériques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur l’insertion des Haïtiens de seconde génération sur le marché de l’emploi. L’insertion professionnelle est la condition principale permettant une intégration sociale. En effet, avoir un emploi a des répercussions au niveau économique, social et psychologique. Les écrits ont montré que les jeunes et particulièrement ceux faisant partie d’une minorité visible ont plus de difficulté à s’insérer sur le marché du travail. C’est dans cette optique que nous nous sommes penchés sur la condition des Haïtiens de deuxième génération. La littérature fait état des multiples difficultés sociales et économiques auxquelles est confrontée cette tranche de la population. Nous nous sommes donc intéressés aux caractéristiques de l’insertion professionnelle des ces Haïtiens de seconde génération. Nous avions comme objectif général d’analyser la trajectoire d’insertion de cette population sur le marché du travail. Notre démarche de type qualitatif s’est basée sur une série d’entrevues réalisées à l’hiver 2010 avec des hommes et des femmes Québécois d’origine haïtienne. Les thèmes abordés durant ces entrevues nous ont menés à des résultats différents de ceux recensés dans la littérature académique portant sur les Haïtiens de deuxième génération. En effet, nous avons rencontré des hommes et des femmes qui ont rencontré certains obstacles et qui continuent à faire face à des difficultés en lien avec leur vécu comme individu ayant une origine ethnique différente de celle de la majorité. Ces difficultés se manifestent également dans leur insertion en emploi. Cependant, cela n’a pas empêché ces enfants d’immigrants haïtiens de surmonter les obstacles et réussir leur intégration aux plans professionnel, économique et social.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse a pour objectif de déterminer quelques aspects des figurations du sujet au XVIIe siècle à travers une lecture conjointe des romans à la première personne et des textes philosophiques de cette période. Partant de questionnements proches, ces deux genres discursifs construisent une figure du sujet savant et itinérant : être animé d'un désir de connaissance et amené à repenser les conditions d'énonciation de son expérience particulière. Pour les auteurs du corpus, la vérité se découvre au fil d'expériences singulières si bien que dire le monde avec exactitude revient à l'énoncer à la première personne, à en rendre une perception d'abord subjective. Se pose alors le problème de la légitimation de l'énonciation personnelle, légitimation qui permet d'articuler la première personne à une altérité tout en conservant la singularité du sujet. Cette singularité se double toujours d'une dispersion des identités du sujet et des référents de la première personne. Mais narration, fiction et usages du corps figurent cette identité en constellation. Les deux premières exposent la diversité des visages du « je », leurs concordances ou leurs discordances, à la fois être passé et présent, homme réel et personnage imaginaire, narrateur et auteur. Dans les usages liés aux peines et aux plaisirs du corps se dessine une autre forme de rencontre possible entre la particularité du sujet et l'autre : celui qu'il désire, avec lequel il souffre, avec lequel il jouit, qui vit en lui. Par tous ces aspects, énonciatif, narratif, fictionnel, physique, la subjectivité construite par les textes est toujours et essentiellement une relation : récit raconté pour rejoindre autrui.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de développer et de caractériser diverses sources de neutres réactifs destinées à des études fondamentales des interactions plasmas-surfaces. Ce projet s’inscrit dans le cadre d’une vaste étude de la physique des interactions plasmas-parois mises en jeu dans les procédés de gravure par plasma des matériaux de pointe. Une revue de la littérature scientifique sur les diverses méthodes permettant de générer des faisceaux de neutres réactifs nous a permis de sélectionner deux types de sources. La première, une source pyrolitique, a été caractérisée par spectrométrie de masse en utilisant le C2F6 comme molécule mère. Nous avons montré que le C2F6 était dissocié à plus de 90% à 1000ºC et qu’il formait du CF4, lui-même dissocié en CF2 vers 900ºC. Ces résultats ont été validés à l’aide d’un modèle basé sur des calculs d’équilibres chimiques, qui a aussi prédit la formation de F à 1500ºC. La seconde source, un plasma entretenu par une onde électromagnétique de surfaces, a été caractérisée par spectroscopie optique d’émission et par interférométrie haute fréquence. Dans le cas du plasma d’argon créé par un champ électromagnétique (>GHz), nos travaux ont révélé une distribution en énergie des électrons à trois températures avec Te-low>Te-highgénération d’instabilités de plasma au point de résonance au voisinage des parois du réacteur et à des mécanismes d’amortissement de ces instabilités de type Landau. Le même phénomène a été observé dans le plasma de Cl2, mais cet effet disparaissait pour des pressions élevées du au fait de l’amortissement collisionnel. Nous avons aussi montré que ces sources pouvaient conduire à des degrés de dissociation du Cl2 près de 100%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal