50 resultados para Qualité du logiciel
Resumo:
Méthodologie: Modèle de l’organisation de la personnalité de Kernberg
Resumo:
Cette recherche a pour objectif de faire un bilan de la pédagogie de la nouvelle grammaire, analyse en usage au sein du système scolaire québécois, en ce qui concerne la transitivité du verbe et son enseignement au secondaire. La qualité des explications au sujet de la transitivité proposées par les ouvrages fondés sur la nouvelle grammaire sera donc évaluée. La recherche vise aussi à évaluer si les explications fournies par la sémantique grammaticale peuvent servir à la pédagogie et à montrer en quoi elle pourrait être une option intéressante à exploiter dans un cadre pédagogique, en raison de la de rigueur, de la cohérence et de la systématicité des principes qui régissent cette analyse. La description du système de la transitivité fondée sur les principes de la sémantique grammaticale sera donc utilisée dans le cadre de cette recherche, dans le but de vérifier si les explications fournies en sémantique grammaticale sont adaptables pour le cadre scolaire. Une démarche d’exploitation pédagogique de la sémantique grammaticale sera proposée.
Resumo:
Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.
Resumo:
Cette thèse porte sur l’évolution des conditions de travail et d’emploi des infirmières d’une unité de soins intensifs d’un centre hospitalier pendant une dizaine d’années. Afin de suivre l’évolution des conditions de travail et d’emploi, l’auteur a d’abord participé à deux enquêtes quantitatives qui dressaient le portrait de l’évolution des facteurs psychosociaux du travail de ces infirmières. À la lumière des résultats de ces enquêtes, les infirmières débutantes estimaient bénéficier d’une charge de travail moins élevée et d’une plus grande autonomie que les plus expérimentées (Lapointe et collab., 2011). Par ses travaux qualitatifs menés à l’été 2013, l’auteur propose une explication aux résultats de ces enquêtes. Considérant les ressources limitées et l’imposition de contraintes budgétaires, les infirmières gestionnaires du projet ont été confrontées à des choix difficiles et elles ont dû procéder à certains arbitrages. En somme, elles ont tenté de concilier une conception humaniste des soins infirmiers avec les préceptes d’une idéologie gestionnaire. Il s’agissait d’une tentative de concilier les objectifs du projet (doter les infirmières de meilleures conditions de travail et d’emploi) avec des impératifs économiques (respecter le budget accordé par le Ministère de la santé et des services sociaux). Les plus jeunes infirmières ont bénéficié de ce projet de réorganisation du travail alors que les plus anciennes sont beaucoup plus critiques quant à sa valeur et ses impacts. En période d’austérité budgétaire, le budget de fonctionnement d’une unité de soins est insuffisant pour assurer des conditions de travail et d’emploi adéquates aux infirmières. Les équipes de travail infirmier risquent d’être déstabilisées et la qualité des soins est potentiellement menacée. Différentes tensions caractérisent les rapports sociaux du travail. Quant à la mise en oeuvre d’un modèle qui démocratise le travail, elle s’avère difficile. Pourtant, même en période de crise, une implantation même partielle de ce modèle de travail a permis de stabiliser les équipes de travail infirmier de cette unité de soins et d’améliorer les caractéristiques psychosociales de travail.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
Le stress joue un rôle important dans le maintien de la qualité de vie quotidienne. Une exposition à une situation stressante peut causer divers désordres neuropsychiatriques du cerveau qui sont associés avec des problèmes liés au sommeil, à la dépression, à des problèmes digestifs et à des troubles de l’alimentation. Les traitements de ces troubles liés au stress sont très coûteux à travers le monde. De nos jours, des considérations importantes ont été soulevées afin de trouver des moyens appropriés pour la prévention plutôt que de dépenser ultérieurement plus de budget sur les traitements. De cette façon, l’étude et l’expérimentation sur les animaux des troubles liés au stress sont l’un des moyens les plus fiables pour atteindre une compréhension plus profonde des problèmes liés au stress. Ce projet visait à révéler la modulation des potentiels de champ locaux (LFP) lors de la consommation de sucrose dans deux conditions englobant la condition de contrôle non-stressante et celle stressante d’un choc électrique aiguë à la patte dans le cortex préfrontal médian (CPFm) du cerveau de rat. Le CPFm est une structure importante dans la réponse au stress et à l’anxiété par l’interaction avec l’axe hypothalamique-pituitaire surrénale (HPA). Les résultats de ce projet ont révélé que la plupart des coups de langue se sont produits dans les 15 premières minutes de l’accès à une solution de sucrose autant pour la condition contrôle non-stressante que pour la condition stressante. En outre, le stress aigu d’un choc à la patte affecte de manière significative la consommation horaire de sucrose en diminuant le volume de la consommation. Les résultats ont également révélé une présence importante du rythme thêta dans le CPFm pendant la condition de base et pendant l’ingestion de sucrose dans les deux conditions. De plus, les résultats ont montré une diminution de puissance des bandes delta et thêta lors des initiations de léchage du sucrose. Ce projet conduit à des informations détaillées sur les propriétés électrophysiologiques du cortex infra-limbique (IL) du CPFm en réponse à l’exposition à des conditions de stress et de l’apport d’une solution de sucrose. Ce projet permet également de mieux comprendre les mécanismes neurophysiologiques des neurones du CPFm en réponse à l’exposition à une condition stressante suivie d’apport de sucrose. Ce projet a également permis de confirmer les effets anorexigènes du stress et suggèrent également que la synchronisation neuronale dans le cortex IL peut jouer un rôle dans le comportement de léchage et sa désynchronisation pendant le léchage après une exposition à des conditions stressantes.
Resumo:
Le développement des hydroliennes se base souvent sur des conditions d'écoulement idéalisées qui ne reflètent pas entièrement le courant présent sur un site réel. Dans cette optique, ce mémoire investigue l'effet d'un écoulement non aligné ou cisaillé sur les performances et le chargement de deux types d'hydrolienne : les hydroliennes à rotor axial (HRA) et à aile oscillante (HAO). Cette étude est réalisée à l'aide de simulations numériques et les résultats démontrent que pour les deux types d'hydrolienne, le désalignement produit une réduction de la puissance et de la traînée, tandis que le cisaillement n'a qu'un effet de second ordre sur ces derniers. Le chargement additionnel sur la structure de support causé par des conditions d'écoulement non idéal est aussi similaire pour les deux technologies. Le désalignement et le cisaillement affectent cependant plus significativement le chargement en fatigue des pales de l'HRA que celui de l'aile de l'HAO.
Resumo:
La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.
Resumo:
Loin de la réduction pressentie du temps de travail et de l’émergence d’une société des loisirs, est plutôt observé, depuis une trentaine d’années, un accroissement du temps consacré au travail pour les travailleurs les plus qualifiés, au Québec comme dans la plupart des sociétés occidentales (Burke et Cooper, 2008; Lapointe, 2005; Lee, 2007). Dans un contexte où les « arrangements temporels » (Thoemmes, 2000) tendent à s’individualiser de façon à mieux prendre en compte les réalités et les besoins des salariés et salariées tout comme ceux des organisations, cette thèse interroge le caractère « volontaire » des conduites d’hypertravail observées chez les travailleurs et les travailleuses des secteurs des services informatiques et du multimédia. Elle s’attarde plus particulièrement aux processus psychosociaux qui sous-tendent la construction de ces conduites. Inscrite au sein d’une approche psychosociale et systémique, notre recherche articule une théorie qui met en résonance les fonctionnements individuel et organisationnel, soutenue par le modèle du Système psychique organisationnel (Aubert et de Gaulejac, 1991), et une théorie de la socialisation plurielle et active, soutenue par le modèle du Système des activités (Baubion-Broye et Hajjar, 1998; Curie, 2000). Opérationnalisée selon une grille articulée autour de cinq niveaux d’analyse (intra-individuel, interpersonnel, positionnel, idéologique et de la tâche et de l’organisation du travail), nous avons mené 34 entretiens biographiques (26 hommes et 8 femmes) auprès de salariés et salariées des secteurs des services informatiques et du multimédia. Les résultats mettent en évidence trois types de processus menant à l’adoption de conduites d’hypertravail ; un cas-type qui illustre un processus de renforcement d’une identité professionnelle de « grand travailleur » ; un cas-type qui rend compte d’un processus de suraffiliation organisationnelle et d’assujettissement de la vie hors-travail; et un cas-type qui expose le maintien d’une conduite d’hypertravail défensive, dans un contexte de mise à l’épreuve organisationnelle. Au final, les résonances particulières observées entre ces niveaux et facteurs nous amènent à souligner l’intérêt de mieux comprendre l’hypertravail en prenant en compte les significations que les individus donnent à leurs conduites, à partir d’un regard diachronique et synchronique. Nous discutons également du caractère dynamique et évolutif de la relation individu-collectif-organisation et du rôle différencié des organisations et des collectifs de travail dans la construction des conduites d’hypertravail. Nous relevons enfin certaines implications des nouvelles pratiques et normes de temps de travail observées dans ces organisations, favorables au développement et au maintien de l’hypertravail. Mots-clés : temps de travail, longues heures de travail, conduites d’hypertravail, articulation travail-vie personnelle, socialisation plurielle et active, domination au travail.
Resumo:
Cette recherche s’inscrit dans le domaine des études visant à documenter le processus d’apprentissage du système phonologique de la langue du pays d’accueil chez des apprenants hispanophones du français en situation d’immigration. Nous avons effectué une étude de cas à l’aide d’enregistrements recueillis à quatre reprises pour documenter l’appropriation de sept nouvelles voyelles françaises à l’intérieur de paires minimales courantes comme vu et vous. Nous avons observé une réorganisation importante de l’inventaire des voyelles suscitée par le passage de l’espagnol au français : création d’une nouvelle catégorie phonétique pour les voyelles antérieures arrondies et distinction des nouveaux contrastes [e/ɛ], [o/ɔ] et [a/ɑ]. Par ailleurs, nous avons noté une amélioration marquée des contrastes vocaliques chez l’un des quatre participants, et une légère amélioration chez les trois autres.
Resumo:
Cette étude s’intéresse à la façon dont l’enveloppe du bâtiment s’est développée au Québec depuis l’industrialisation des procédés de construction, soit vers le milieu du XIXe siècle, jusqu’à nos jours. L’étude cherche à recenser l’ensemble des critères, de nature technique, social, historique, économique ou autre, qui influencent nos façons de penser, de construire et d’entretenir l’enveloppe, et ultimement nos approches d’intervention. Ce travail comporte trois volets principaux. La première partie vise à définir le contexte de la conservation en lien avec les enjeux liés à l’enveloppe du bâtiment. Une recherche documentaire a été pas la suite réalisée autant dans des ouvrages à propension théorique que dans d’autres plus techniques, pour comprendre comment est traitée l’enveloppe, ici et ailleurs. Enfin une synthèse de l’ensemble des études devait permettre de dégager la façon dont l’enveloppe du bâtiment est comprise, diagnostiquée et traitée dans le cadre de la réhabilitation des édifices. Les résultats de ce mémoire confirment que plusieurs facteurs influencent la conception et la réalisation de l’enveloppe. Ils confirment surtout que ces facteurs sont peu tenus en compte dans la cadre actuel de la conservation. Il est souhaitable que la réflexion entamée dans ce projet de recherche puisse se poursuivre, en vue de développer un outil d’accompagnement pour les professionnels spécialisés dans ce domaine. Mots-clés : Enveloppe, identité, histoire, matériau, système, assemblage, façade, performance, conservation, réhabilitation. Envelope, enclosure, identity, history, component, system, assembly, facade, performance, conservation, refurbishment, rehabilitation.
Resumo:
La cellule utilise des nœuds d’interactions protéiques relativement stables, conservés et souvent constitués d’adaptateurs moléculaires pour gérer des signaux reçus (synthèse, sécrétion, traffic, métabolisme, division), des problèmes de sécurité et de niveaux d’énergie. Nos résultats montrent que la cellule utilise aussi des nœuds relativement petits et dynamiques où des informations propres concernant des voies métaboliques apparemment indépendantes sont évaluées. Ces informations y sont intégrées localement et une décision y est prise pour action immédiate. Cette idée est supportée par notre étude sur le récepteur de l’insuline (RI). Ce récepteur transmembranaire à activité tyrosine kinase reconnaît un signal externe (insuline circulante) et engage la signalisation de l’insuline, les réponses métaboliques et le contrôle du glucose circulant. Le RI est aussi impliqué dans l’internalisation de l’insuline et sa dégradation dans les endosomes (clairance). Il régule donc indirectement la sécrétion de l’insuline par les cellules du pancréas endocrine. La signification pathophysiologique de l’endocytose du RI ainsi que les bases moléculaires d’une telle coordination sont peu connues. Nous avons construit un réseau d’interactions du RI (IRGEN) à partir d’un protéome de fractions Golgi-endosomales (G/E) hépatiques. Nous démontrons une forte hétérogénéité fonctionnelle autour du RI avec la présence des protéines ATIC, PTPLAD1, AMPKα et ANXA2. ANXA2 est une protéine impliquée dans la biogénèse et le transport endosomal. Nos résultats identifient un site de SUMOylation régulé par l’insuline dans sa région N-terminale. ATIC est une enzyme de la voie de synthèse des purines de novo dont le substrat AICAR est un activateur de l’AMPKα. Des analyses biochimiques in vitro et in vivo nous montrent que ATIC favorise la tyrosine phosphorylation du RI par opposition fonctionnelle à PTPLAD1. Une délétion partielle d’ATIC stimule l’activation de l’AMPK dont la sous-unité AMPKα2 apparaît déterminante pour le trafic du RI. Nous démontrons que ATIC, PTPLAD1, AMPKα, AICAR et ANXA2 contrôlent l’endocytose du RI à travers le cytosquelette d’actine et le réseau de microtubules. Nous ressortons un nœud de signalisation (ATIC, PTPLAD1, AMPKα) capable de détecter les niveaux d’activation du RI, d’énergie cellulaires (rapports AMP/ATP) et aussi d’agir sur la signalisation et l’endocytose du RI. Cette proximité moléculaire expliquerait le débat sur le mécanisme primaire du diabète de type 2 (DT2), notamment entre la sensibilité à l’insuline et sa clairance. Nous avons calculé un enrichissement de 61% de variants communs du DT2 parmi les protéines fonctionnellement proches du RI incluant RI, ATIC, AMPKα, KIF5A et GLUT2. Cet enrichissement suggère que l’hétérogénéité génétique révélée par les consortiums sur études génomiques (GWAS) converge vers des mécanismes peu étudiés de biologie cellulaire.
Resumo:
L’immunopathogenèse de l’infection au VIH-1 est principalement causée par la déplétion des LT CD4 (lymphocytes T-CD4). Cette mort des LT CD4 dépend de plusieurs facteurs comme la lyse des LT CD4 infectés et la présence de vésicules extracellulaires et d’exosomes libérées par les cellules dendritiques et les LT CD4 infectés au VIH-1. L’analyse protéomique des exosomes issus des cellules dendritiques mises en culture avec le VIH-1 a révélé la présence de molécules pro-apoptotiques comme le Dap-3 (Death Associated Protein 3). Nous avons proposé comme hypothèse que le Dap-3 puisse être contenu dans d’autres types de vésicules extracellulaires et que le Dap-3 vésiculaire contribue à la déplétion des LT CD4. Après avoir optimisé l’immunobuvardage avec l’anti-Dap-3, nous avons déterminé la présence de Dap-3 dans les vésicules extracellulaires issues des cellules RAJI-CD4-DCIR infectées au VIH-1. L’utilisation de gradients de vélocité nous a permis d’observer la présence de Dap-3 dans les fractions du gradient contenant les exosomes issus des cellules RAJI-CD4-DCIR infectées, mais également dans d’autres fractions du gradient de vélocité encore non caractérisées. Chez les patients, nous avons montré une hétérogénéité des vésicules extracellulaires dans les fractions du gradient de vélocité issues des plasmas des patients VIH-1+. Ces résultats indiquent la présence de plusieurs populations de vésicules extracellulaires séparées par la méthode du gradient de vélocité. Enfin, la transfection des cellules RAJI-CD4-DCIR et des cellules dendritiques a été mise au point avec les ARN anti-sens de Dap-3 afin de produire éventuellement des vésicules Dap-3 négatives. Ce projet de recherche aura permis de valider les outils nécessaires à la poursuite de l’étude du rôle de Dap-3 dans la pathogenèse de l’infection au VIH-1.
Resumo:
Le but du présent mémoire est de démontrer que la discontinuité opérée en fin de carrière dans la philosophie de Michel Foucault repose sur l’avènement d’une impasse du sujet assujetti, qui mènera l’auteur à la proposition d’une libération éthique basée sur les pratiques de subjectivation et l’esthétique de l’existence. Cette proposition permet à Foucault d’établir la base d’une éthique minimale du sujet, à partir du principe de subjectivation, dans une perspective de liberté. Après avoir ancré et expliqué l’impasse subjective dans l’œuvre de Michel Foucault, il sera montré comment celui-ci parvient à réhabiliter le sujet dans sa pensée et à constituer une éthique minimale autour de pratiques et d’exercices de liberté. Le mémoire se conclura sur les enjeux, la réception et les critiques du projet foucaldien. Mots-clés : Michel Foucault, Éthique, Esthétique de l’existence, Sujet, Souci de soi, Culture de soi, Subjectivation, Assujettissement, Liberté, Gouvernement de soi.
Resumo:
Le forgeage de préformes fabriquées par métallurgie des poudres nous permet d’atteindre une densification voisine de la densité théorique ce qui a comme incidence directe une amélioration substantielle des propriétés mécaniques finales des pièces, notamment la résistance en fatigue. La démarche préconisée pour améliorer cette performance critique de pièces forgées par métallurgie des poudres consiste à optimiser leurs caractéristiques métallurgiques et leur densité concomitante. À ce propos, une nouvelle formulation d’acier MP a été développée et caractérisée. La stratégie de développement portait sur l’utilisation d’éléments de microalliage préalliés, comme le vanadium et le niobium. Pour ce faire, on a optimisé le paramètre de mise en œuvre primordial, qui est la température de forgeage, afin d’obtenir une fine taille de grains à la fin du cycle du traitement réalisé accompagnée d’une densité élevée des pièces forgées. Une série de traitements d’austénisation sur une gamme étendue de température variant entre 900 °C à 1250 °C a été effectuée ce qui nous a permis par la suite de connaître, pour chaque mélange, l’évolution de la taille des grains en fonction de la température d’austénisation. La nouvelle formulation de composition chimique a démontré un impact marqué quant au contrôle de la taille de grains en fonction de la température d’austénitisation. Une étude comparative nous a permis d’identifier la température de forgeage la plus appropriée pour ce type de pièces et de dégager la méthodologie à suivre en fonction des propriétés mécaniques et microstructurales.