11 resultados para Phase transformations (Statistical physics)

em Universit


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au cours des trois dernières décennies, le travail quotidien des cadres gestionnaires infirmiers de premier niveau (CGIPN) a subi de profondes transformations quant aux rôles qu’ils occupent et aux responsabilités qui leur incombent dans les divers établissements de santé. Ces CGIPN vivent et subissent de la pression au regard de leur charge de travail, faisant en sorte qu’ils perçoivent avoir peu de temps pour réaliser adéquatement leur travail en gestion, et que plusieurs infirmières de la relève qui souhaitent faire carrière en gestion se questionnent sur la possibilité d’œuvrer dans ce domaine de la pratique. Peu d’études portent sur l’état de la qualité de vie au travail (QVT) chez ces professionnels. Divisé en trois volets, le projet de recherche mixte séquentielle exploratoire a pour objectif général d’explorer la QVT chez les CGIPN et les facteurs qui l’influencent dans les divers établissements de santé québécois. Les objectifs spécifiques visent à : 1) décrire et comprendre ce que signifie la QVT auprès des 14 CGIPN œuvrant en Centre hospitalier affilié (CHA) à l’Université, 2) décrire et comprendre ce que signifie l’absence d’une QVT auprès des CGIPN en CHA, 3) développer et valider un nouvel instrument de mesure des facteurs favorables et défavorables pouvant influer sur la QVT à partir des données qualitatives auprès de CGIPN (n= 11) œuvrant en Centre de santé et des services sociaux et de CGIPN (n= 11) en Centre hospitalier universitaire, 4) identifier et mesurer les facteurs qui influencent la QVT des CGIPN (n= 291) travaillant dans divers établissements publics de santé et 5) déterminer si les caractéristiques sociodémographiques influencent le choix des facteurs de la QVT. Inspiré de la philosophie du Human caring de Watson comme perspective disciplinaire, le premier volet qualitatif fait appel à une méthode phénoménologique descriptive husserlienne. Pour ce faire, deux séries d’entretiens semi-dirigés à l’aide d’un guide d’entrevue visent à répondre aux deux premiers objectifs. Le second volet cible l’élaboration et la validation d’un instrument de mesure permettant de répondre au troisième objectif de la recherche et le dernier volet, de type quantitatif corrélationnel, s’applique à répondre aux deux derniers objectifs. Dans la première phase, l’analyse visuelle des données qualitatives (verbatim) permet l’émergence des résultats qualitatifs, soit de cinq eidos-thèmes favorables exprimés par les participants et décrits par ordre d’importance : 1) l’actualisation du leadership et des habiletés politiques pour l’amélioration de la qualité des soins infirmiers, 2) les éléments contextuels propices à l’humanisation organisationnelle, 3) le soutien organisationnel favorisant l’épanouissement socioprofessionnel et personnel, 4) l’organisation apprenante favorisant le développement des compétences en gestion des soins infirmiers et 5) l’accompagnement personnalisé répondant aux besoins spécifiques des novices en gestion des soins infirmiers. L’essence de la QVT pour les CGIPN se définit par l’émancipation socioprofessionnelle du cadre gestionnaire infirmier de premier niveau dans sa pratique clinico-administrative au sein d’une organisation humaniste. De plus, trois eidos-thèmes défavorables se dégagent des analyses qualitatives. Les résultats, décrits par ordre d’importance, sont : 1) la déshumanisation organisationnelle, 2) les conditions défavorables à la pratique en gestion des soins infirmiers et 3) l’accompagnement insuffisant des gestionnaires infirmiers novices. L’essence de l’absence d’une QVT pour les CGIPN se présente comme la dysharmonie au travail du cadre gestionnaire infirmier de premier niveau à l’intérieur d’une structure organisationnelle déshumanisante mettant en péril sa pratique clinico-administrative. Par la suite, une mise en relation des deux essences du phénomène a permis de faire émerger la signification universelle de l’expérience de la QVT et l’absence de celle-ci pour des CGIPN œuvrant en CHA comme étant : une dialectique en administration des services infirmiers dans laquelle se vit des pratiques humanisantes permettant l’atteinte d’un idéal de QVT, en coexistence avec des pratiques déshumanisantes conduisant à l’absence de QVT. Afin de respecter les postulats des méthodes quantitatives, les huit eidos-thèmes qui émergent de la première phase qualitative se transforment en facteurs favorables (FF) et défavorables (FD) à la QVT pour la réalisation des deuxième et troisième phases de la recherche. Dans la seconde phase, le construit théorique qui provient des huit eidos-thèmes et 23 thèmes permet de développer un nouvel instrument de mesure qui s’avère unique à cette population à l’étude. L’analyse psychométrique de l’instrument de mesure (questionnaire auto-administré en mode électronique) permet l’obtention d’un score global du coefficient alpha de Cronbach (α) de 0,93, ce qui est jugé excellent. Dans la troisième et dernière phase, les analyses statistiques des données (logiciel SPSS, version 22 pour Windows 7, 2013) issues de l’enquête quantitative provinciale en ligne (Web) mettent en évidence des résultats probants. Les résultats du questionnaire en ligne avec une échelle ordinale à cinq niveaux révèlent un score global du coefficient alpha de Cronbach à 0,95. De plus, les résultats quantitatifs suggèrent que les facteurs favorables (FF) à la QVT ont des scores moyens de 3,99 (FF1), 3,97 (FF2), 3,96 (FF3), 3,72 (FF4) et 3,53 (FF5) et les trois facteurs défavorables (FD) à la QVT ont des scores moyens de 3,91(FD1), 3,78 (FD2) et 3,56 (FD3). Ces facteurs correspondent aux eidos-thèmes favorables et défavorables de la QVT du volet qualitatif phénoménologique. Les résultats quantitatifs révèlent quelques relations significatives des caractéristiques sociodémographiques (âge et années d’expérience) sur le choix des facteurs qui influencent le plus fortement la QVT. En conclusion, le fait de pouvoir mieux décrire et comprendre la signification de la QVT ainsi que son absence et de pouvoir identifier les facteurs qui sont les plus susceptibles de l’influencer permet de formuler des recommandations pour les quatre domaines de la pratique infirmière. Des pistes d’avenues sont formulées pour maintenir la relève infirmière à des postes de CGIPN au sein des organisations de santé en lui assurant des moyens pour optimiser humainement sa QVT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le poly(1,3-dioxolanne) (PDOL) est un polymère semi-cristallin présentant à l’état solide quatre morphologies différentes (Phases I, IIa, IIb et III). Les transformations d'une phase à l'autre ont été suivies par microscopie optique polarisée (MOP) et microscopie à force atomique (AFM) en fonction de la température de cristallisation et de la masse molaire. La Phase I présente une morphologie sphérolitique tandis que la Phase IIa peut croître à partir de la Phase I ou spontanément. De façon inattendue, la Phase IIa, devient très biréfringente et cette nouvelle morphologie est appelée Phase IIb. Quand la transformation IIa-IIb est terminée, une nouvelle phase, la Phase III, croît à partir de la Phase IIb. La Phase III n'a jamais été observée sans la présence de Phase IIb; en outre, la Phase IIb remplace toujours la Phase IIa. Ce phénomène est appelé germination croisée. La mesure de la température de fusion des phases par MOP a permis d’établir leur stabilité relative: IIb > III >IIa. La vitesse de croissance (G) des sphérolites a été mesurée sur une plage de températures de 10,0 à 24,0 °C et montre une grande dépendance avec la masse molaire. Ces mesures ont révélé l’existence d’une masse molaire critique, autour de 5000 g.mol-1, en-dessous de laquelle nous avons observé GIIa > GIII et au-dessus de laquelle la relation est inversée avec GIII > GIIa. Finalement, nous avons exploré l’influence de l’ajout d’un deuxième polymère amorphe sur l’évolution des phases optiques dans des mélanges PDOL-PMMA, PDOL-PVC et PDOL-PVAc. Nous avons observé les mêmes transitions de phases que pour le PDOL pur et un certain degré de compatibilité dans le cas du PDOL-PMMA et du PDOL-PVC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse effectuée en cotutelle avec l’Université de Montréal et l’Université Paris 1 Panthéon-Sorbonne (IHPST)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: La stomatite prothétique est une condition inflammatoire chronique de la muqueuse buccale recouverte par une prothèse. Cette maladie est considérée comme la lésion buccale la plus fréquente chez les porteurs de prothèses amovibles. Des études récentes sur l'étiologie de la stomatite prothétique suggèrent que des traitements basés sur la réduction de l'inflammation seraient efficaces dans le traitement de cette maladie. Objectifs: Évaluer l'efficacité du brossage du palais dans le traitement de la stomatite prothétique. Méthodes: Quarante-huit participants (âge moyen : 66,0 ± 11,2 ans) avec un diagnostic de stomatite prothétique, ont été sélectionnés à partir d’un examen préalable de 143 individus, afin de participer à cet essai clinique de phase I à deux centres, réalisé selon un devis de type pré-test/post-test à un seul groupe. L'intervention a consisté en un brossage du palais avec une brosse manuelle après chaque repas et avant le coucher. Des examens cliniques et microbiologiques ont été effectués avant le traitement, et à 1 mois et 3 mois de suivi. Des données supplémentaires ont été obtenues par l'utilisation d'un questionnaire validé. Les résultats primaires et secondaires étaient, respectivement, la rémission de stomatite prothétique et la diminution du nombre de colonies de Candida. Des tests statistiques descriptifs et non paramétriques ont été menés pour analyser les données. Résultats: À 3 mois de suivi, 10,4 % des participants ont été guéris et 70,8 % ont eu une amélioration clinique de la stomatite prothétique grâce au brossage du palais. Une réduction statistiquement significative de la surface et de l’intensité de l’inflammation après 3 mois de brossage du palais a été démontrée (p < 0,0001). L’ampleur de l’effet a varié d’un effet modéré à important (0,34 à 0,54) selon la classification utilisée pour le diagnostique de la stomatite prothétique. De plus, le nombre de colonies de Candida, recueillies par sonication des prothèses et par échantillonnage du palais, a diminué de manière statistiquement significative après 3 mois de brossage (p ≤ 0,05). Conclusion: Les résultats de cette étude suggèrent que le brossage du palais est efficace comme traitement de la stomatite prothétique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il sera question dans ce mémoire de maîtrise de l’étude d’une nouvelle classification des états solides de la matière appelée isolant topologique. Plus précisément, nous étudierons cette classification chez le composé demi-Heusler GdBiPt. Nous avons principalement cherché à savoir si ce composé ternaire est un isolant topologique antiferromagnétique. Une analyse de la susceptibilité magnétique ainsi que de la chaleur spécifique du maté- riau montre la présence d’une transition antiferromagnétique à 8.85(3) K. Une mesure d’anisotropie de cette susceptibilité montre que les plans de spins sont ordonnés sui- vant la direction (1,1,1) et finalement des mesures de résistivité électronique ainsi que de l’effet Hall nous indiquent que nous avons un matériau semimétallique lorsque nous sommes en présence d’antiferromagnétisme. Présentement, les expériences menées ne nous permettent pas d’associer cet état métallique aux états surfaciques issus de l’état d’isolant topologique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.