665 resultados para Bruit de fond
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
La trilogie des Histoires naturelles du Nouveau Monde de Pierre Morency, vaste entreprise de description de la nature d’Amérique, trouve son fondement dans une expérience du paysage, où une conscience subjective se découvre elle-même en découvrant le monde concret de la nature. Dans ce mémoire, je montrerai d’abord comment la poésie de Morency a évolué d’un lyrisme radicalement subjectif, fondé sur l’exploration d’une intériorité fantasmée, à un lyrisme davantage tourné vers la réalité extérieure et privilégiant le poème en prose, annonçant par le fait même l’expérience du paysage qui fonde la trilogie des Histoires naturelles du Nouveau Monde. Ensuite, j’analyserai les différentes modalités de cette expérience du paysage, notamment la relation particulière que le sujet entretient avec le lieu, la mise en œuvre d’un art de voir et de vivre, et l’écriture de récits qui rendent compte de cette aventure subjective.
Resumo:
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées).
Resumo:
Selon le voile d’ignorance proposé par John Harsanyi (1953, 1955), l’observateur rationnel derrière le voile d’ignorance cherche à maximiser la somme des utilités individuelles. Cependant, le modèle d’Harsanyi est fondé sur une hypothèse erronée que la fonction d’utilité à la von Neumann-Morgenstern de l’observateur permet la comparaison interpersonnelle de bien-être. Ce papier suggère une modification du modèle d’Harsanyi qui permet la comparaison interpersonnelle de bien-être, en utilisant les années de vie en parfaite utilité ou les années de vie heureuse comme mesure du bien-être.
Resumo:
Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.
Resumo:
Fond : Le substrat de fibrillation auriculaire (FA) vagale et celui secondaire à remodelage par tachycardie auriculaire (RTA) partagent beaucoup des caractéristiques : période réfractaire efficace (PRE) réduite, hétérogénéité accrue de PRE et quelques mécanismes moléculaires communs. Cette étude a comparé les 2 substrats à une abréviation comparable de PRE. Méthodes : Chez chacun de 6 chiens de groupe de stimulation vagal (SV), les paramètres de stimulation cervicale bilatérale de nerves vagaux ont été ajustés pour produire la même PRE moyenne (calculé à 8 sites des oreillettes gauche et droite) avec 6 chiens de groupe de RTA assorti à sexe et poids. Des paramètres électrophysiologiques, la durée moyenne de la fibrillation auriculaire (DAF) et les fréquences dominantes (FD) locales ont étés calculés. Résultats : En dépit des PREs assorties (SV: 80±12msec contre RTA: 79±12msec) la DAF était plus longue (*), l’hétérogénéité de conduction était plus élevée (*), la FD était plus rapide (*) et la variabilité de FD plus grande (*) chez les chiens SV. Les zones de maximum FD qui reflètent les zones d’origine de FA étaient à côté de ganglions autonomes chez les chiens SV. Conclusions : Pour un PRE atriale comparable, la FA secondaire à SV est plus rapide et plus persistante que la FA avec un substrat de RTA. Ces résultats sont consistants avec des modèles de travail suggérant que l'hyperpolarisation SV-induite contribue de façon important à la stabilisation et à l'accélération des rotors qui maintiennent la FA. La similitude de la distribution de FD du groupe vagal avec la distribution des lésions d’ablation après cartographie des électrogrammes atriales fragmentés suggère des nouvelles techniques d’ablation. La distribution des FD entre le SV et le RTA fournit de nouvelles idées au sujet de possible rémodelage neuroreceptorial et indique des différences importantes entre ces substrats de FA superficiellement semblables.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.
Resumo:
Ce mémoire est consacré à l’analyse du mensonge chez Kant. Or, comme la Métaphysique des moeurs est subdivisée en deux volets, le premier portant sur le droit et le second sur la moralité proprement dite, nous nous sommes proposé d’envisager le mensonge selon ces deux points de vue, en commençant par le second. En nous appuyant sur les textes de Kant qui envisagent le mensonge comme faute morale, les Leçons d’éthique, la Fondation de la Métaphysique des Moeurs, la Doctrine de la Vertu, nous montrons que Kant condamne moralement le mensonge parce qu’en lui-même, le mensonge constitue la plus grave violation du devoir de l’homme envers lui-même : la sincérité. L’homme qui n’est pas sincère, c’est-à-dire qui dit délibérément le contraire de ce qu’il pense non seulement va à l’encontre de la finalité inhérente à la communication, mais aussi, par le mensonge, l’homme renonce à sa personnalité. En renonçant ainsi à sa personnalité, l’homme cesse d’être un homme véritable, c’est-à-dire celui en qui la pensée et le dit coïncident, il devient un semblant d’homme, c’est-à-dire celui qui délibérément dit le contraire de ce qu’il pense. En s’appuyant sur le texte de Kant qui envisage le mensonge au point de vue du droit, D’un prétendu droit de mentir par humanité, nous avons mis en évidence que l’argument central de Kant est de montrer que toute tentative de tolérer un droit de mentir rendrait la société impossible. C’est qu’un droit de mentir condamnerait à jamais l’humanité à l’état de nature, parce que la confiance qu’exige le contrat originel qui marque l’entrée dans l’état de droit n’aurait plus aucun sens. De même, un droit de mentir ruinerait tous les contrats, qui reposent, pour leur effectivité, sur la confiance. Au fond, un droit de mentir est contraire même au droit. Nous avons montré en conclusion de mémoire en quoi la position de Kant restait encore, de nos jours, actuelle. Une grande partie de ce mémoire a été réservée au texte polémique de 1796 D’un prétendu droit de mentir par humanité. Ayant montré en quoi consiste la position de Kant, contrairement à celle de Constant, nous avons analysé les nombreux commentaires qui ont été consacrés à ce texte polémique, qui opposa Kant et Benjamin Consstant, afin de montrer que l’interprétation de la position de Kant sur le mensonge varie selon qu’on revendique exclusivement sa philosophie morale ou sa philosophie du droit.
Resumo:
Figure majeure de l’histoire des relations coloniales franco-algériennes, l’émir Abdelkader est généralement présenté par ses compatriotes comme le modèle politique, militaire et religieux du résistant au colonialisme français du 19ième siècle. L’historiographie officielle algérienne en véhicule l’image du chef religieux qui a initié al-jihad de résistance conforme aux règles exotériques de la chari’ia. Il est décrit comme un guerrier loyal et magnanime, fin stratège, dont la défaite militaire a paradoxalement marqué la fondation de l’Algérie moderne en tant que Nation et État. La construction sociopolitique postcoloniale de ce mythe a permis de légitimer les différents régimes politiques, qui se sont succédé dans l’Algérie indépendante et qui ont toujours tenu, dans le cadre d’une lecture littérale de l’Islam. Ceci dans le but de taire la dimension spirituelle d’Abdelkader disciple, héritier et commentateur de l’œuvre du magister Magnus soufi, IbnʻArabî. Fascinés dès le début de l’occupation par cet adversaire hors du commun, les français, de plus en plus sécularisés, en ont érigé une image utilitaire, l’aliénant ainsi de ses compatriotes coreligionnaires et le découplant de sa foi islamique. Les mémoires concurrentes de l’ancienne puissance coloniale et de son ex-colonie, l’Algérie, ont généré plusieurs débats contemporains en ce qui a trait à l’écriture de l’histoire de la colonisation. Le personnage d’Abdelkader a été instrumentalisé par les uns et les autres. Deux évènements controversés de sa biographie sont devenus les objets d’une polémique souvent âpre et amère entre auteurs chercheurs algériens et français : l’adhésion de l’émir à la franc-maçonnerie française et sa séparation d’avec celle-ci. Nous allons présenter que la prémisse d’auteurs algériens, selon laquelle Abdelkader n’aurait pas pu adhérer au Grand Orient de France, pour cause d’incompatibilité doctrinale musulmane, est inconsistante. Nous essayerons de démontrer au contraire, que son initiation à la maçonnerie telle qu’elle s’était présentée à lui était en accord avec sa vision soufie et légaliste du dogme islamique. En nous basant sur le choix de la franc-maçonnerie française pour la laïcité au moment de la réception supposée de l’émir dans la fraternité, nous montrerons qu’il s’en éloigna pour des raisons de doctrine islamique. En effet, l’élimination de toute référence déiste des textes constitutifs du Grand Orient de France fut inacceptable pour le musulman qu’était Abdelkader, vaincu militairement mais raffermi spirituellement par sa proximité grandissante avec son maître spirituel IbnʻArabî. L’humanisme des francs-maçons français avait motivé une refondation basée sur les droits de l’homme issus de la révolution française. Tandis que celui de l’émir Abdelkader prenait sa source dans l’Unicité de l’Être, concept-cadre Akbarien de la compréhension de la relation de Dieu avec ses créatures. Nous allons montrer que les polémiques franco-algériennes sur les relations d’Abdelkader avec la franc-maçonnerie française, masquent un autre débat de fond qui dure depuis des siècles dans le monde musulman. Un débat opposant deux herméneutiques légalistes des textes islamiques, l’une exotérique s’incarnant dans l’œuvre du théologien musulman Ibn Taymiyya et l’autre ésotérique se trouvant au cœur des écrits du mystique IbnʻArabî.
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Les avancées en biotechnologie ont permis l’identification d’un grand nombre de mécanismes moléculaires, soulignant également la complexité de la régulation génique. Néanmoins, avoir une vision globale de l’homéostasie cellulaire, nous est pour l’instant inaccessible et nous ne sommes en mesure que d’en avoir qu’une vue fractionnée. Étant donné l’avancement des connaissances des dysfonctionnements moléculaires observés dans les maladies génétiques telles que la fibrose kystique, il est encore difficile de produire des thérapies efficaces. La fibrose kystique est causée par la mutation de gène CFTR (cystic fibrosis transmembrane conductance regulator), qui code pour un canal chlorique transmembranaire. La mutation la plus fréquente (ΔF508) induit un repliement incorrect de la protéine et sa rétention dans le réticulum endoplasmique. L’absence de CFTR fonctionnel à la membrane a un impact sur l’homéostasie ionique et sur l’hydratation de la muqueuse respiratoire. Ceci a pour conséquence un défaut dans la clairance mucocilliaire, induisant infection chronique et inflammation excessive, deux facteurs fondamentaux de la physiopathologie. L’inflammation joue un rôle très important dans l’évolution de la maladie et malgré le nombre important d’études sur le sujet, la régulation du processus inflammatoire est encore très mal comprise et la place qu’y occupe le CFTR n’est pas établie. Toutefois, plusieurs autres facteurs, tels que le stress oxydatif participent à la physiopathologie de la maladie, et considérer leurs impacts est important pour permettre une vision globale des acteurs impliqués. Dans notre étude, nous exploitons la technologie des puces à ADN, pour évaluer l’état transcriptionnel d’une cellule épithéliale pulmonaire humaine fibro-kystique. Dans un premier temps, l’analyse de notre expérience identifie 128 gènes inflammatoires sur-exprimés dans les cellules FK par rapport aux cellules non FK où apparaissent plusieurs familles de gènes inflammatoires comme les cytokines ou les calgranulines. L’analyse de la littérature et des annotations suggèrent que la modulation de ces transcripts dépend de la cascade de NF-κB et/ou des voies de signalisation associées aux interférons (IFN). En outre, leurs modulations pourraient être associées à des modifications épigénétiques de leurs loci chromosomiques. Dans un second temps, nous étudions l’activité transcriptionnelle d’une cellule épithéliale pulmonaire humaine FK en présence de DMNQ, une molécule cytotoxique. Notre but est d’identifier les processus biologiques perturbés par la mutation du gène CFTR en présence du stress oxydatif. Fondé sur une analyse canonique de redondance, nous identifions 60 gènes associés à la mort cellulaire et leur variance, observée dans notre expérience, s’explique par un effet conjoint de la mutation et du stress oxydatif. La mesure de l’activité des caspases 3/7, des effecteurs de l’apoptose (la mort cellulaire programmée), montre que les cellules porteuses de la mutation ΔF508, dans des conditions de stress oxydatif, seraient moins apoptotiques que les cellules saines. Nos données transcriptomiques suggèrent que la sous-activité de la cascade des MAPK et la sur-expression des gènes anti-apoptotiques pourraient être impliquées dans le déséquilibre de la balance apoptotique.
Resumo:
Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.