13 resultados para Large-scale Structures
em Université de Montréal, Canada
Resumo:
Diverses méthodes ont été utilisées pour étudier les étoiles Wolf-Rayet (WR) dans le but de comprendre les phénomènes physiques variés qui prennent place dans leur vent dense. Pour étudier la variabilité qui n'est pas strictement périodique et ayant des caractéristiques différentes d'une époque à l'autre, il faut observer pendant des périodes de temps suffisamment longues en adopter un échantillonnage temporel élevé pour être en mesure d'identifier les phénomènes physiques sous-jacents. À l'été 2013, des astronomes professionnels et amateurs du monde entier ont contribué à une campagne d'observation de 4 mois, principalement en spectroscopie, mais aussi en photométrie, polarimétrie et en interférométrie, pour observer les 3 premières étoiles Wolf-Rayet découvertes: WR 134 (WN6b), WR 135 (WC8) et WR 137 (WC7pd + O9). Chacune de ces étoiles est intéressante à sa manière, chacune présentant une variété différente de structures dans son vent. Les données spectroscopiques de cette campagne ont été réduites et analysées pour l'étoile présumée simple WR 134 pour mieux comprendre le comportement de sa variabilité périodique à long terme dans le cadre d'une étude des régions d'interactions en corotation (CIRs) qui se retrouvent dans son vent. Les résultats de cette étude sont présentés dans ce mémoire.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Les fichiers qui accompagnent mon document sont des tableaux supplémentaires réalisés avec Excel (Microsoft Office), dans la version papier du mémoire ces fichiers sont sur un CD-ROM.
Resumo:
Associée à d'autres techniques observationnelles, la polarimétrie dans le visible ou dans le proche infrarouge permet d'étudier la morphologie des champs magnétiques à la périphérie de nombreuses régions de formation stellaire. A l'intérieur des nuages molécualires la morphologie des champs est connue par polarimétrie submillimétrique, mais rarement pour les mêmes régions. Habituellement, il manque une échelle spatiale intermédiaire pour pouvoir comparer correctement la morphologie du champ magnétique galactique avec celle située à l'intérieur des nuages moléculaires. -- Cette thèse propose les moyens nécessaires pour réaliser ce type d'analyse multi-échelle afin de mieux comprendre le rôle que peuvent jouer les champs magnétiques dans les processus de formation stellaire. La première analyse traite de la région GF 9. Vient ensuite une étude de la morphologie du champ magnétique dans les filaments OMC-2 et OMC-3 suivie d'une analyse multi-échelle dans le complexe de nuages moléculaires Orion A dont OMC-2 et OMC-3 font partie. -- La synthèse des résultats couvrant GF 9 et Orion A est la suivante. Les approches statistiques employées montrent qu'aux grandes échelles spatiales la morphologie des champs magnétiques est poloïdale dans la région GF 9, et probablement hélicoïdale dans la région Orion A. A l'échelle spatiale des enveloppes des nuages moléculaires, les champs magnétiques apparaissent alignés avec les champs situés à leur périphérie. A l'échelle spatiale des coeurs, le champ magnétique poloïdal environnant la région GF 9 est apparemment entraîné par le coeur en rotation, et la diffusion ambipolaire n'y semble pas effective actuellement. Dans Orion A, la morphologie des champs est difficilement détectable dans les sites actifs de formation d'OMC-2, ou bien très fortement contrainte par les effets de la gravité dans OMC-1. Des effets probables de la turbulence ne seont détectés dans aucune des régions observées. -- Les analyses multi-échelles suggèrent donc qu'indépendamment du stade évolutif et de la gamme de masse des régions de formation stellaires, le champ magnétique galactique subit des modifications de sa morphologie aux échelles spatiales comparables à celles des coeurs protostellaires, de la même façon que les propriétés structurelles des nuages moléculaires suivent des lois d'autosimilarité jusqu'à des échelles comparables à celles des coeurs.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
L’implantation répandue de nouveaux quartiers résidentiels sur le territoire de la périphérie urbaine est en partie responsable de la baisse du couvert végétal et de l’augmentation des surfaces imperméables à grande échelle. Les villes sont maintenant aux prises avec une augmentation constante de la production de ruissellement qu'elles doivent gérer au moyen d’un vaste réseau d’égouts et de canalisations. Des données sur les impacts de ces modèles de quartier résidentiel nous révèlent que cette forme d’habitat provoque la dégradation des milieux naturels et aquatiques. La présente étude vise à mettre à l’épreuve la stratégie d’aménagement de l’Open space design en comparant l’effet de trois situations d’aménagement d’ensembles résidentiels sur le coefficient de ruissellement pondéré (Cp). Les trois situations étudiées sont 1 : le développement actuel tel que conçu par le promoteur, 2 : un scénario de quartier visant la préservation des cours d’eau existants ainsi qu’une réduction des lots et des surfaces imperméables et 3 : un quartier avec des types d’habitation plus denses. Les coefficients pondérés obtenus sont respectivement de 0,50 pour le quartier actuel, de 0,40 pour le scénario 1 et de 0,34 pour le scénario 2. Au terme de cet exercice, il apparaît, d’une part, que la densification du bâti, la nature des surfaces et l’organisation spatiale peuvent concourir à diminuer la production de ruissellement d’un quartier. Cette étude permet de situer l’importance de la gestion du ruissellement dans la planification et l’aménagement du territoire.
Resumo:
Nous savons que la grande majorité des étoiles WC9 produit de la poussière à base de carbone. Cette dernière doit se former dans des zones de très haute densité afin de survivre à l’environnement hostile qu’est celui du vent d’une étoile WR. Les étoiles WC appartenant à un système binaire WR + O produisent de la poussière quand les vents des deux étoiles entrent en collision et forment une zone de choc pouvant augmenter la densité du gaz d’un facteur 1000. Par contre, plusieurs étoiles WC9 n’ont, à ce jour, montré aucun signe de la présence d’un compagnon. Le but du projet est de tenter d’identifier un mécanisme alternatif responsable de la formation de poussière dans les étoiles WC9 n’appartenant pas à un système binaire. Nous présentons les résultats d’une campagne d’observation visant à caractériser la variabilité spectroscopique d’un échantillon de huit étoiles WC9 et une étoile WC8d. Nos résultats indiquent que la majorité des étoiles montrent des variations à grande échelle dans la raie d’émission C III 5696, soit à un niveau d’au moins 5% du flux de la raie et que les structures dans le vent ont une dispersion de vitesses de l’ordre de 150-300 km/s. De manière générale, les variations de vitesse radiales sont anti-corrélées avec le coefficient d’asymétrie de la raie, ce qui semble infirmer la présence d’un compagnon. Des observations en photométrie de l’étoile WR103 montrent une période de 9.1 ± 0.6 jours qui s’accorde avec les variations spectroscopiques et qui ne semble pas, de manière évidente, d’origine binaire.
Resumo:
L’importance des produits naturels dans le développement de nouveaux médicaments est indéniable. Malheureusement, l’isolation et la purification de ces produits de leurs sources naturelles procure normalement de très faibles quantités de molécules biologiquement actives. Ce problème a grandement limité l’accès à des études biologiques approfondies et/ou à une distribution sur une grande échelle du composé actif. Par exemple, la famille des pipéridines contient plusieurs composés bioactifs isolés de sources naturelles en très faible quantité (de l’ordre du milligramme). Pour pallier à ce problème, nous avons développé trois nouvelles approches synthétiques divergentes vers des pipéridines polysubstituées contenant une séquence d’activation/désaromatisation d’un sel de pyridinium chiral et énantioenrichi. La première approche vise la synthèse de pipéridines 2,5-disubstituées par l’utilisation d’une réaction d’arylation intermoléculaire sur des 1,2,3,4-tétrahydropyridines 2-substituées. Nous avons ensuite développé une méthode de synthèse d’indolizidines et de quinolizidines par l’utilisation d’amides secondaires. Cette deuxième approche permet ainsi la synthèse formelle d’alcaloïdes non-naturels à la suite d’une addition/cyclisation diastéréosélective et régiosélective sur un intermédiaire pyridinium commun. Finalement, nous avons développé une nouvelle approche pour la synthèse de pipéridines 2,6-disubstituées par l’utilisation d’une réaction de lithiation dirigée suivie d’un couplage croisé de Negishi ou d’un parachèvement avec un réactif électrophile. Le développement de transformations chimiosélectives et versatiles est un enjeu crucial et actuel pour les chimistes organiciens. Nous avons émis l’hypothèse qu’il serait possible d’appliquer le concept de chimiosélectivité à la fonctionnalisation d’amides, un des groupements le plus souvent rencontrés dans la structure des molécules naturelles. Dans le cadre précis de cette thèse, des transformations chimiosélectives ont été réalisées sur des amides secondaires fonctionnalisés. La méthode repose sur l’activation de la fonction carbonyle par l’anhydride triflique en présence d’une base faible. Dans un premier temps, l’amide ainsi activé a été réduit sélectivement en fonction imine, aldéhyde ou amine en présence d’hydrures peu nucléophiles. Alternativement, un nucléophile carboné a été employé afin de permettre la synthèse de cétones ou des cétimines. D’autre part, en combinant un amide et un dérivé de pyridine, une réaction de cyclisation/déshydratation permet d’obtenir les d’imidazo[1,5-a]pyridines polysubstituées. De plus, nous avons brièvement appliqué ces conditions d’activation au réarrangement interrompu de type Beckmann sur des cétoximes. Une nouvelle voie synthétique pour la synthèse d’iodures d’alcyne a finalement été développée en utilisant une réaction d’homologation/élimination en un seul pot à partir de bromures benzyliques et allyliques commercialement disponibles. La présente méthode se distincte des autres méthodes disponibles dans la littérature par la simplicité des procédures réactionnelles qui ont été optimisées afin d’être applicable sur grande échelle.
Resumo:
Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.
Resumo:
Les mécanismes qui entretiennent le cycle magnétique solaire sont encore aujourd’hui relativement mal compris. Entre autres, certains travaux suggèrent la présence d’insta- bilités magnétohydrodynamiques qui pourraient avoir une influence significative sur la période du cycle par leur capacité à accélérer la destruction des structures magnétiques à grandes échelles. Nous analysons la présence des instabilités au sein des simulations effectuées à l’aide du modèle EULAG-MHD en utilisant premièrement une méthodologie basée sur un proxy spécifique associé à l’instabilité et en le comparant à un proxy similaire, mais pour le cycle magnétique solaire observé dans notre modèle. Cette méthodologie fait ressortir une évolution temporellement cyclique du proxy de l’instabilité avec des amplitudes similaires au proxy du cycle magnétique, mais présentant un léger déphasage. Nous poursuivons cette analyse en appliquant une méthode se basant sur le découpage de “zones instables” via le critère de Tayler dans la zone stable de notre modèle. L’application expose une migration équatoriale d’une zone instable qui débute à très hautes latitudes aux pôles, passe par le champ toroïdal classique, accélère et atteint l’équateur. Cette zone instable semble accélérer la destruction du champ magnétique présent, laissant place au nouveau champ pour la prochaine demie-période du cycle. La combinaison de ces deux analyses permet d’énoncer un scénario plausible qui inclut les effets d’une telle instabilité sur le cycle magnétique ainsi que sur la stabilité globale de notre simulation. Dans ce scénario, il est important de noter que les inversions de polarités semblent indépendantes de cette instabilité, qui ne ferait qu’accélérer le processus de destruction du champ déjà en place.
Resumo:
Actuellement le polyéthylènimine (PEI) est l’agent de transfection transitoire le plus utilisé par l’industrie pharmaceutique pour la production de protéines recombinantes à grande échelle par les cellules de mammifères. Il permet la condensation de l’ADN plasmidique (ADNp) en formant spontanément des nanoparticules positives appelées polyplexes, lui procurant la possibilité de s’attacher sur la membrane cellulaire afin d’être internalisé, ainsi qu’une protection face aux nucléases intracellulaires. Cependant, alors que les polyplexes s’attachent sur la quasi-totalité des cellules seulement 5 à 10 % de l’ADNp internalisé atteint leur noyau, ce qui indique que la majorité des polyplexes ne participent pas à l’expression du transgène. Ceci contraste avec l’efficacité des vecteurs viraux où une seule particule virale par cellule peut être suffisante. Les virus ont évolués afin d’exploiter les voies d’internalisation et de routage cellulaire pour exprimer efficacement leur matériel génétique. Nous avons donc supposé que l’exploitation des voies d’internalisation et de routage cellulaire d’un récepteur pourrait, de façon similaire à plusieurs virus, permettre d’optimiser le processus de transfection en réduisant les quantités d’ADNp et d’agent de transfection nécessaires. Une alternative au PEI pour transfecter les cellules de mammifèreest l’utilisation de protéines possédant un domaine de liaison à l’ADNp. Toutefois, leur utilisation reste marginale à cause de la grande quantité requise pour atteindre l’expression du transgène. Dans cette étude, nous avons utilisé le système E/Kcoil afin de cibler un récepteur membranaire dans le but de délivrer l’ADNp dans des cellules de mammifères. Le Ecoil et le Kcoil sont des heptapeptides répétés qui peuvent interagir ensemble avec une grande affinité et spécificité afin de former des structures coiled-coil. Nous avons fusionné le Ecoil avec des protéines capables d’interagir avec l’ADNp et le Kcoil avec un récepteur membranaire que nous avons surexprimé dans les cellules HEK293 de manière stable. Nous avons découvert que la réduction de la sulfatation de la surface cellulaire permettait l’attachement ciblé sur les cellules par l’intermédiaire du système E/Kcoil. Nous démontrons dans cette étude comment utiliser le système E/Kcoil et une protéine interagissant avec l’ADNp pour délivrer un transgène de manière ciblée. Cette nouvelle méthode de transfection permet de réduire les quantités de protéines nécessaires pour l’expression du transgène.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.