25 resultados para Dipôle de courant équivalent


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cet essai est d’analyser et d’évaluer les documents en lien avec l’aménagement du territoire et la gestion de l’eau (lois, plans et politiques et règlements) afin de déterminer dans quelle mesure le partage des compétences favorise (ou non) la gestion de l’eau intégrée au développement du territoire au Québec. L’aménagement du territoire est implicitement lié à la gestion de l’eau. Cette dernière doit se faire de façon intégrée à l’environnement qui l’entoure afin d’optimiser la ressource ainsi que sa protection. Cela assure un développement efficient fait en parallèle avec les instances et dans le respect des sphères économique, sociale et environnementale. Pourtant, malgré toutes les dispositions mises en place et la conscientisation exprimée par les autorités et la population, le Québec se retrouve au sein d’une situation complexe où le partage de compétences et l’aménagement du territoire ne semblent pas répondre adéquatement aux dispositions nécessaires à une gestion de l’eau intégrée. Les conclusions de l’analyse démontrent que le partage actuel des compétences au sein de la province n’est pas optimal afin d’assurer une intégration des ressources en eaux au sein de l’aménagement du territoire. Il a des forces et des faiblesses au sein de chacun de documents analysés et les recommandations établies ont pour objectif de s’approcher d’une gestion de l’eau intégrée répondant aux besoins de la province en aménagement du territoire, mais aussi en terme de protection de l’environnement et de la ressource. On note, dans cette situation particulière au Québec, que, dans la majorité des situations, la gestion de l’eau n’est pas du tout adaptée. Certaines municipalités régionales de comté sont très avancées et proactives alors que d’autres se laissent porter par le courant. Le rôle du gouvernement et la prépondérance de ses outils se doivent d’être optimisés afin que les paliers de gouvernance inférieurs soient en mesure de se doter des instruments nécessaire à une gestion de l’eau intégrée à l’aménagement du territoire. Les éléments d’analyse, les constats et les recommandations qui ont été établis ont été repris et exposé dans un exemple concret présentant la situation de cette ville albertaine où la gestion de l’eau a été intégrée de façon dynamique à l’aménagement du territoire, faisant de cette municipalité une pionnière dans le domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’enseignement de l’anglais, langue seconde a connu de nombreux changements au courant des 20 dernières années, du primaire au collégial, afin d’assurer une meilleure maîtrise de cette langue par les élèves au Québec. Ainsi, à la fin du parcours secondaire, le niveau visé par le Programme de formation de l’école québécoise et sanctionné par le ministère à l’épreuve unique de secondaire cinq à l’égard de la connaissance de l’anglais, langue seconde se compare au niveau intermédiaire (Intermediate Mid ou High) de l’échelle de l’American Council on the Teaching of Foreign Languages. En somme, l’élève qui possède son diplôme d’études secondaires a normalement une connaissance de niveau intermédiaire de l’ALS lorsqu’il s’inscrit dans un collège d’enseignement général et professionnel (cégep). Or, 20 ans après l’instauration des cours obligatoires d’ALS, les cégeps accueillent toujours 30 à 40 % des étudiants en 604-100 Anglais de base alors que ce cours n’était que temporaire au départ (Commission d’évaluation de l’enseignement collégial, 2001; Fournier 2007). Cet état de fait nous a amenée à proposer une recherche ayant pour objet les caractéristiques des étudiants des cours 604-100 Anglais de base et 604-101 Langue anglaise et communication du Cégep de St-Hyacinthe dans le but de comprendre l’écart entre les deux niveaux quant à leur maîtrise de la langue anglaise. Notre recherche est descriptive avec un volet comparatif afin d’atteindre les deux objectifs suivants: (1) identifier les caractéristiques des étudiants inscrits dans les cours collégiaux de niveau 604-100 Anglais de base et 604-101 Langue anglaise et communication du Cégep de St-Hyacinthe; (2) comparer les réponses des étudiants des deux niveaux pour voir quelles caractéristiques se distinguent et pourraient expliquer l’écart de maîtrise de la langue anglaise entre les étudiants classés au niveau attendu (604-101 Langue anglaise et communication) et ceux du niveau de base (604-100 Anglais de base). Nous avons construit un questionnaire électronique spécifiquement pour cette étude, composé de questions fermées comprenant cinq sections (profil scolaire, attitude et intérêt envers l’ALS, la motivation, l’anxiété linguistique et l’utilisation de stratégies d’apprentissage) que nous avons envoyé à 907 répondants potentiels du Cégep de St-Hyacinthe à l’automne 2015. Nous n’avons retenu que les étudiants qui satisfaisaient à nos trois critères de sélection, soit (1) être inscrit dans le niveau 604-100 Anglais de base ou 604-101 Langue anglaise et communication, (2) avoir fait toutes ses études primaires et secondaires en français au Québec, et (3) être en continuité de formation (sans interruption entre la fin du secondaire et l’entrée au cégep). Au final, notre recherche compte 294 sujets, 108 étudiants de niveau 604-100 et 186 étudiants de niveau 604-101. Nous avons utilisé l’approche quantitative et réalisé des statistiques descriptives et inférentielles pour analyser nos données. Les analyses ont révélé une différence significative entre les deux niveaux sur plusieurs points, que nous avons regroupés en quatre caractéristiques principales qui peuvent expliquer l’écart quant à leur maîtrise de la langue anglaise. La première est d’avoir un intérêt intégratif et instrumental à apprendre l’anglais, car celui-ci supporte les efforts pour atteindre une maîtrise satisfaisante de la langue. La deuxième est le développement d’une confiance en ses capacités à communiquer dans la langue puisque cette confiance réduit l’anxiété linguistique qui gêne l’apprentissage. La troisième est une préparation adéquate aux études supérieures, tant au niveau des compétences spécifiques (moyenne générale, programmes enrichis) que transversales (comme l’utilisation des stratégies d’apprentissage) au secondaire, car elle offre un bagage de connaissances nécessaires à la maîtrise d’une langue. Finalement, la présence de difficultés liées à l’apprentissage comme les troubles d’apprentissage et des faiblesses dans la langue maternelle est un frein au développement d’une compétence en langue seconde puisqu’elles touchent précisément des compétences essentielles à l’apprentissage soit la lecture et l’écriture. Outre la recherche de Fournier (2007) sur les prédicteurs de réussite, peu ou pas d’études ont porté sur les étudiants collégiaux par rapport à leur profil d’apprenant d’une L2. Nos résultats contribuent donc à documenter une situation peu étudiée, et permettent de quantifier ce que les enseignants constatent sur le terrain depuis des années. Ce faisant, nos données sont utiles tant au niveau de l’organisation scolaire des collèges que des départements de langue et de l’enseignement, car elles permettent l’amélioration du contexte dans lequel ces cours sont offerts et du coup, d’avoir des retombées sur la réussite des étudiants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse à l’évolution de la conception des stratégies d’apprentissage d’étudiants ou d’étudiantes de niveau collégial présentant un trouble du spectre de l’autisme (TSA). Nous souhaitons analyser la perception que ces étudiants ont de ces stratégies avant notre intervention proprement dite et à la suite de celle-ci, c’est-à-dire de suivre son évolution. Si notre hypothèse de travail se vérifie, l’étudiant ou l’étudiante aux prises avec cette condition devrait se responsabiliser et modifier ses stratégies en fonction des informations que nous lui fournirons. C’est dans le cadre d’interventions éducatives formelles avec l’étudiante ou l’étudiant que nous agirons sur la prise de conscience d’abord, puis sur la modification de ses habitudes et de ses croyances en matière d’apprentissage. Nos interventions prendront la forme d’ateliers individualisés basés sur certains concepts béhavioraux et des théories du courant constructiviste qui tiendront compte, bien entendu, des caractéristiques de la personne ayant un TSA. Dans la présente étude, nous explorerons les stratégies que les étudiants ou les étudiantes présentant un TSA utilisent lors des rédactions dans leurs cours de français, langue d’enseignement et littérature. Nous avons recensé des auteurs pour qui les stratégies d’apprentissage prennent la forme d’actions que l’étudiant ou l’étudiante autiste sera capable de reconnaitre. Nous aimerions savoir si une intervention sur la métacognition auprès d’étudiants ou d’étudiantes ayant un TSA favoriserait chez eux la mise en place de stratégies d’apprentissage efficaces pour la rédaction de l’analyse littéraire, la compétence demandée au terme du premier cours de la séquence des cours de français, langue d’enseignement et littérature. Afin de répondre à cette interrogation, notre recherche vise les objectifs suivants: 1) inventorier les stratégies d’apprentissage utilisées lors de la phase du travail individuel; 2) informer l’étudiant ou l’étudiante du profil d’apprentissage élaboré pour lui ou pour elle par le logiciel Étudiant Plus et ainsi l’aider à prendre conscience de ses stratégies; 3) selon les stratégies identifiées par le questionnaire Étudiant Plus, élaborer deux ou trois ateliers qui tiennent compte des pratiques à modifier lors du travail individuel; 4) appliquer le processus d’encadrement auprès de tous lors de la phase du travail individuel; 5) évaluer les effets de l’expérimentation du processus d’encadrement sur les stratégies d’apprentissage en fonction des changements apportés. Cette recherche est réalisée auprès de trois étudiants. Elle propose une approche méthodologique qui réunit le rôle de la chercheuse et des participants ou des participantes à la recherche. L’analyse des données met en valeur les stratégies d’apprentissage communes utilisées par les étudiants et les étudiantes présentant un TSA. Cette recherche soutient l'adoption d’un processus d’encadrement auprès des étudiants ou des étudiantes ayant un TSA. Notre étude ne vise pas à généraliser les résultats, mais elle favorise une approche éducative centrée sur les besoins d’apprentissage des étudiants ou des étudiantes présentant un TSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche a permis d'étudier l'émission d'un rayonnement térahertz (THz) par des antennes photoconductrices (PC) émettrices de type micro-ruban coplanaire. Ces antennes sont fabriquées sur substrats d'arséniure de gallium semi-isolant (GaAs-SI) ou sur ce même substrat ayant subit un traitement d'implantation ionique aux protons suivi d'un recuit thermique (GaAs:H). L'influence de ce procédé de fabrication sur les propriétés du matériau photoconducteur et sur les caractéristiques de l'antenne émettrice a été étudiée. Des mesures de photoconductivité résolue en temps effectuées sur les deux types de substrat montrent que le procédé d'implantation/recuit a eu pour effet de diminuer le temps de vie des photoporteurs de 630 ps à environ 4 ps, tandis que la mobilité n'est réduite que d'un facteur maximum de 1,6. Cette valeur de la mobilité des photoporteurs a par ailleurs été estimée à environ 100 cm$^2$/(V.s) pour le substrat GaAs:H. Les mesures électriques effectuées sur les antennes fabriquées sur les deux types de substrat montrent que le procédé d'implantation/recuit permet d'augmenter la résistivité de la couche active du dispositif d'un facteur 10 (elle passerait de 10$^{8}$ $\Omega$.cm pour le GaAs-SI à 10$^9$ $\Omega$.cm pour le GaAs:H). Les courbes courant-tension, en obscurité et sous illumination, de ces antennes suggèrent également que la densité de pièges profonds est fortement augmentée suite au traitement d'implantation/recuit. L'étude des caractéristiques des diverses antennes a permis de montrer l'intérêt de ce procédé de fabrication. Pour les antennes fabriquées sur GaAs:H, la largeur de bande est améliorée (elle atteint environ 3 THz) et l'amplitude du champ THz émis est augmentée par un facteur 1,4 (dans les mêmes conditions expérimentales). Le rapport signal/bruit des traces THz mesurées sur les antennes les plus performantes est $>$ 200. Une plus grande résistivité et une densité de pièges profonds plus élevée, permet d'appliquer de plus fortes tensions de polarisation sur ces antennes GaAs:H. Finalement, nos résultats ont montré que les améliorations des caractéristiques d'émission de ces antennes THz sont corrélées à la présence d'un champ électrique local plus élevé du coté de l'anode du dispositif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les producteurs d’aluminium sont des acteurs majeurs dans l’économie du Québec. Le métal gris est apprécié pour sa légèreté et sa résistance à la corrosion. Bien qu’il possède des qualités indéniables, sa production consomme une quantité considérable d’électricité. L’amélioration de l’efficacité énergétique du procédé est donc primordiale d’un point de vue économique et environnemental. L’étude du contact électrique entre le carbone et la fonte à l’intérieur de l’ensemble cathodique fait partie de la liste des paramètres pour optimiser la consommation énergétique de la cellule Hall-Héroult. Ce contact doit offrir une résistance minimale au passage du courant nécessaire pour la réaction d’électrolyse. Au cours du temps, la qualité du contact se dégrade en raison de la transformation physique et chimique des matériaux. Cette thèse se concentre sur l’étude de la dégradation chimique de la surface de la fonte. La première partie étudie la pénétration des composés chimiques provenant du bain d’électrolyse à l’intérieur du bloc de carbone. Le gonflement sodique suit généralement la diffusion du sodium, un sous-produit de la réaction cathodique, et du bain. Le gonflement causé par le sodium a été mesuré directement à l’aide de LVDT alors que la diffusion du bain électrolytique a été déterminée par microtomographie à rayons X. La seconde partie évalue le mécanisme de la dégradation du contact électrique entre le carbone et la fonte. Des travaux en laboratoire ont été réalisés pour quantifier l’impact des paramètres d’opération. Les résultats obtenus ont été comparés par la suite à des échantillons industriels provenant de deux technologies pour évaluer leur degré de dégradation. Un modèle numérique a été calibré à partir de ces résultats pour estimer l’effet de la dégradation de la fonte sur la chute de voltage cathodique. Les résultats démontrent que les paramètres d’opération de la cellule d’électrolyse ont des effets sur la vitesse de pénétration des espèces chimiques dans le bloc de carbone. Un bain plus riche en sodium ou une densité de courant cathodique plus élevée augmente la vitesse de pénétration. La présence d’une nappe d’aluminium au démarrage de l’électrolyse au contraire divise le gonflement et la pénétration du bain de moitié. La vitesse de dégradation de la fonte suit la même tendance. De plus, une augmentation de température de 50 °C provoque une fusion partielle de la surface de la fonte. Ces résultats intégrés au modèle numérique montre que la dégradation du contact entre le carbone et la fonte augmente la chute de voltage cathodique mais aussi change la distribution du courant à la surface du bloc de carbone. La détermination du mécanisme de dégradation de la fonte par des essais en laboratoire combinée avec la pénétration des espèces chimiques constitue l’apport original de cette thèse et ceci permet d’éclaircir le processus d’évolution de ce contact électrique sous condition d’opération.