989 resultados para fermion masses
Resumo:
Suite à la découverte d’environ 2000 naines brunes au cours des deux dernières décennies, on commence à bien comprendre la physique de ces objets de masse intermédiaire entre les étoiles et les planètes. Malgré tout, les modèles d’atmosphère et d’évolution de ces objets peu massifs peinent toujours à reproduire fidèlement leurs caractéristiques pour les âges les plus jeunes. Ce travail propose la caractérisation de quatre compagnons de masse sous-stellaire (8-30 MJup) en orbite à grande séparation (300-900 UA) autour d'étoiles jeunes (5 Ma) de la région de formation Upper Scorpius. De nouveaux spectres (0,9-2,5 um) et de nouvelles mesures photométriques (YJHKsL') sont présentés et analysés, dans le but de déterminer la masse, température effective, luminosité et gravité de surface de ces compagnons, tout en évaluant la fidélité avec laquelle les spectres synthétiques tirés de deux modèles d’atmosphère récents reproduisent les spectres observés.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Manifestation du processus de rationalisation capitaliste contemporain, la gestion des ressources humaines s’est largement développée et diffusée comme paradigme d’organisation des relations sociales au sein de l’entreprise, mais aussi à l’extérieur de celle-ci. En m’appuyant sur l’étude Les employés de Siegfried Kracauer (2004 [1931]) ayant mis en lumière les effets de la rationalisation de l’entreprise moderne sur les traits de mentalités des employés dans les années 1920, je propose de me pencher sur les employés en gestion des ressources humaines aujourd’hui. Plus précisément, c’est la tension dont ils sont à la fois les porteurs et les objets qui constitue le coeur de ce mémoire. Cette tension lie la fonction particulière que ces employés sont appelés à jouer dans l’entreprise et leur propre condition comme employé. Ainsi, c’est par la constitution de rapports à la tension sous une forme idéaltypique— propre à l’approche wébérienne — que ce mémoire propose d’appréhender la condition des employés en gestion des ressources humaines. L’interprétation des rapports à la tension et à la pratique professionnelle de ces employés, à l’aune de quatre idéaltypes construits à cette fin (le sous-officier comptable, le sous-officier sportif, celle qui prend sur soi et le synthétique), permet de mettre en lumière des dilemmes qu’ils sont enclins à vivre, dilemmes inhérents à leur condition d’employés dans le monde rationalisé.
Resumo:
Ce mémoire a pour objectif d’expliquer les causes de la montée des inégalités aux États-Unis. Leurs exacerbations par la mise en place de politiques défavorables aux intérêts de la majorité laissent penser que la démocratie est en danger. En partant des limites posées par les explications traditionnelles notamment celles fournies par les économistes, nous émettons l’idée que sous couvert de démocratie et d’égalité dans les voix politiques, nos démocraties pourraient être prises en otage par une oligarchie. Alors que nombreux théoriciens ont abordé la question de l’oligarchie sous l’angle matériel, nous pensons qu’il existe un autre aspect important : l’aspect organisationnel. Afin d’apporter un regard nouveau à cette problématique, nous émettons l’idée que la loi d’airain de l’oligarchie de Michels contient un fort pouvoir explicatif. En partant des indicateurs fournis par sa théorie, nous arrivons à plusieurs constats. Premièrement, on peut s’apercevoir que la bureaucratie, ou en d’autres termes l’État ne saurait être autre chose que l’organisation d’une minorité. Deuxièmement, le déséquilibre des intérêts organisés entre d’une part les classes moyennes et travailleuses et d’autre part les minorités riches peut être considéré comme l’une des variables les plus à même d’expliquer le creusement des inégalités qui ont pris place au sein de la société américaine. Enfin, la relative incompétence des masses sur les questions politiques et son manque général d’éducation est un terrain favorable au développement d’une oligarchie.
Resumo:
La spectroscopie infrarouge à matrice à plan focal (PAIRS) est utilisée pour étudier la déformation et la relaxation des polymères à très haute vitesse, soit de 46 cm/s, grâce à sa résolution temporelle de quelques millisecondes. Des mesures complémentaires de spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) ont été réalisées pour suivre des déformations plus lentes de 0,16 à 1,6 cm/s avec une résolution temporelle de quelques centaines de millisecondes. Notre étude a permis d’observer, à haute vitesse de déformation, un nouveau temps de relaxation (τ0) de l’ordre d’une dizaine de millisecondes qui n’est pas prédit dans la littérature. Le but de cette étude est de quantifier ce nouveau temps de relaxation ainsi que de déterminer les effets de la température, de la masse molaire et de la composition du mélange sur ce dernier. Des mesures effectuées sur du polystyrène (PS) de deux masses molaires différentes, soit 210 et 900 kg/mol, à diverses températures ont révélé que ce temps est indépendant de la masse molaire mais qu’il varie avec la température. Des mesures effectuées sur des films composés de PS900 et de PS deutéré de 21 kg/mol, ont révélé que ce temps ne dépend pas de la composition du mélange et que la longueur des chaînes de PS n’a aucun impact sur celui-ci. D’autres mesures effectuées sur des films de PS900 mélangé avec le poly(vinyl méthyl éther) (PVME) ont révélé que ce temps est identique pour le PS900 pur et le PS900 dans le mélange, mais qu’il est plus court pour le PVME, de l’ordre de quelques millisecondes.
Resumo:
Le présent mémoire aborde les problématiques morales de la scission corps-esprit chez les soldats de la guerre du Việt Nam telles que représentées à travers certains films traitant de cette guerre. Notre démarche sera centrée sur le travail individuel que propose le film Apocalypse Now, plutôt que sur la representation de la guerre. Nous postulons que ce film met les individus devant les contradictions inhérentes d'une société qui prétend justement pacifier le monde en faisant la guerre, et qui plus est, comme ce fut le cas au Việt Nam, au moyen d’un déchainement de violence qui dépasse l'entendement (torture, massacre de masses, napalm et Agent Orange). Notre hypothèse est que le film, à travers son personnage central, nous propose une « voie » qui n’empêche pas la guerre, certes, mais permet du moins d'entreprendre une demarche de distanciation et de redefinition morale individuelle permettant de survivre au(x) temps de guerre(s). Cette mutation morale, chez le personnage principal, s'acquiert au bout d'un voyage réflexif à tout point de vue « au coeur des ténèbres » – de la jungle, tout autant que de son être.
Resumo:
Comment comprendre la volonté d'appartenir à la nation américaine des Afro-Américains en dépit d'une mémoire faite d'humiliation et d'une accumulation de revers? À plusieurs reprises durant l'histoire américaine, des élites ont proposé à la communauté noire des solutions dites « radicales » qui remettent en question le paradigme dominant de l'intégration à la nation américaine. Ce mémoire tente d'identifier les raisons qui expliquent pourquoi, au cours du mouvement pour les droits civiques, les Noirs font le choix de l'intégration défendu par Martin Luther King et rejettent le séparatisme défendu par Malcolm X. La spécificité du mémoire réside dans l'utilisation de la littérature sur la formation des nations qui me permet d'étudier le choix des Afro-Américains. La nation est vue comme le produit d'une construction qui fait interagir les élites et les masses. J'étudie « par le haut » la façon dont les entrepreneurs ethniques, King et Malcolm X, redéfinissent l'américanité. J'étudie également « par le bas » comment les masses reçoivent les discours de ces élites. Ma première hypothèse se consacre à la formation de l'alliance stratégique entre King et l'exécutif américain qui permet à King de définir l'agenda législatif et d'appuyer son discours sur les gains qu'il réalise. La deuxième hypothèse se penche sur la structure des opportunités s'offrant aux Afro-Américains qui orientent le choix qu'ils font.
Resumo:
L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
Introduction : Faute de tests diagnostiques précis, une étude histologique est souvent nécessaire pour diagnostiquer les tuméfactions latérales solides cervicales (TLSC) chez l’enfant. Nous étudierons les modalités diagnostiques pour les TLSC afin de créer une approche diagnostique standardisée intégrant de nouveaux outils diagnostics à ceux actuellement offerts. Méthodologie : Après révision des étiologies et des modalités diagnostiques, une revue de la littérature a été effectuée. Une étude rétrospective entre 2002 à 2012 est présentée suivie d’une étude de faisabilité de la cytoponction. Puis, un arbre décisionnel est créé basé sur nos résultats et sur l’avis d’un groupe d’experts de différentes disciplines médicales. Résultats : Le diagnostic différentiel des TLSC est varié, la littérature scientifique est désuète et la comparaison reste difficile. Pour nos 42 enfants avec un âge médian de sept ans, les tuméfactions inflammatoires représentent 59% (26/44 biopsies) des TLSC, surtout des lymphadénites à mycobactérie atypique (13/26) qui ont un dépistage ardu et multimodal. La biopsie fut peu contributive à la prise en charge dans 39% (17/44) des cas. La cytoponction sous échoguidance est une technique diagnostique faisable et moins invasive que la biopsie. L’arbre décisionnel offre aux cliniciens une approche diagnostique standardisée des TLSC appuyée sur des faits scientifiques que nous souhaitons valider par une étude prospective. Conclusion : Les TLSC chez l’enfant représentent un défi diagnostic et notre arbre décisionnel répond au manque de standardisation dans l’approche diagnostique. Une étude prospective sur notre arbre décisionnel est en voie d’acceptation au CHU Sainte-Justine.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Toute historiographie se construit sous la forme d’un récit, soutenue par une narration qui, autour d’une intrigue, sélectionne et organise les événements en fonction de leur importance relative à des critères prédéterminés. La période des années 1960, qui est habituellement décrite comme celle de la naissance de la littérature québécoise, est on ne peut plus représentative de cette logique narrative qui sous-tend toute démarche historique. Un événement retenu par cette histoire, la Nuit de la poésie du 27 mars 1970, s’est littéralement élevé au rang de mythe dans l’imaginaire littéraire, mais aussi identitaire des Québécois. Que ce soit à travers les triomphes de Claude Gauvreau et de Michèle Lalonde ou la foule de plusieurs milliers de personnes devant le Gesù qui espérait assister à la soirée, cet événement, mis sur pellicule par Jean-Claude Labrecque et Jean-Pierre Masse, a été conçu par plusieurs comme l’apothéose de « l’âge de la parole ». Une observation minutieuse de ce happening soulève cependant de nombreuses questions concernant la construction de ce rôle dans l’histoire littéraire québécoise. En effet, tant l’étude des conditions d’organisation de la soirée que l’analyse de son mode de transmission révèlent des motivations archivistiques qui laissent transparaître l’objectif de la Nuit à « faire événement », à produire des traces qui participeront à l’inscription historique de la poésie québécoise. Considérant que l’œuvre filmique de Labrecque et de Masse constitue le seul véritable document témoignant de cet événement et que celui-ci a fait l’objet d’un montage ne présentant qu’une facette de la soirée, les enjeux de représentation et de mise en récit inhérents au cinéma documentaire poussent à questionner le portrait désiré de la poésie de l’époque que l’on voulait créer à travers le long-métrage. Véritable plateau de tournage, le spectacle du 27 mars 1970 appelle à être analysé dans les termes d’une conscience historique qui pousse les acteurs du milieu littéraire de l’époque à ériger les monuments qui seront à la base du canon et de l’institution littéraires québécois. L’étude, mobilisant les ressources de l’analyse de texte, de la sociologie de la littérature, de la théorie historiographique et de la théorie du cinéma, portera principalement sur le documentaire La Nuit de la poésie 27 mars 1970, considéré comme véritable recueil de textes, mais aussi de façon tout à fait originale sur les archives inédites rejetées du montage final des réalisateurs de l’ONF. Au terme de ce travail, j’approfondirai la réflexion sur le rôle historique d’un événement emblématique de la littérature québécoise en explicitant la construction historique autour de celui-ci. Il s’agira non seulement de relativiser l’événement en tant que tel, mais aussi de réfléchir sur le grand récit espéré par les artistes de l’époque.
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.