19 resultados para Uniformity of distribution
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en Droit (LL.D.) et à la Faculté de Droit et de Sciences Politiques de l'Université de Nantes en vue de l'obtention du grade de Docteur"
Resumo:
Les cartes sur ce document ont été toutes conçues par l'auteur avec la logiciel ARCGIS version 9.3.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de docteur en droit"
Resumo:
"Mémoire présenté à la Faculté des études supérieures En vue de l'obtention du grade de LL.M. Dans le programme de maîtrise en droit"
Resumo:
Cette étude est consacrée au droit privé fédéral et à l'interaction entre la législation fédérale et le droit privé des provinces. Elle porte plus précisément sur le rôle des tribunaux dans le cadre de cette interaction. Elle a pour objectif de vérifier comment les juges procèdent à l'unification du droit privé fédéral en évitant de recourir formellement au droit provincial à titre supplétif. Dans un premier temps, elle établit le cadre juridique gouvernant l'interprétation du droit privé fédéral, de même que l'exercice du pouvoir judiciaire dans ce contexte. Dans un deuxième temps, elle analyse à travers un ensemble de jugements les procédés employés par les juges pour réaliser l'unification du droit privé fédéral. Elle conclut que ces procédés peuvent effectivement permettre de réaliser, au plan pratique, une telle unification. Cependant, ces interventions judiciaires sont ponctuelles et sont limitées à certains aspects de la conception ou de l'application des normes de droit privé. Dans les cas plus problématiques, elles peuvent avoir pour effet soit de nier le vide normatif rendant nécessaire le recours aux sources supplétives provinciales, soit de nier la pluralité formelle de ces sources dans le contexte fédéral.
Resumo:
Soit $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ la suite des nombres premiers, et soient $q \ge 3$ et $a$ des entiers premiers entre eux. R\'ecemment, Daniel Shiu a d\'emontr\'e une ancienne conjecture de Sarvadaman Chowla. Ce dernier a conjectur\'e qu'il existe une infinit\'e de couples $p_n,p_{n+1}$ de premiers cons\'ecutifs tels que $p_n \equiv p_{n+1} \equiv a \bmod q$. Fixons $\epsilon > 0$. Une r\'ecente perc\'ee majeure, de Daniel Goldston, J\`anos Pintz et Cem Y{\i}ld{\i}r{\i}m, a \'et\'e de d\'emontrer qu'il existe une suite de nombres r\'eels $x$ tendant vers l'infini, tels que l'intervalle $(x,x+\epsilon\log x]$ contienne au moins deux nombres premiers $\equiv a \bmod q$. \'Etant donn\'e un couple de nombres premiers $\equiv a \bmod q$ dans un tel intervalle, il pourrait exister un nombre premier compris entre les deux qui n'est pas $\equiv a \bmod q$. On peut d\'eduire que soit il existe une suite de r\'eels $x$ tendant vers l'infini, telle que $(x,x+\epsilon\log x]$ contienne un triplet $p_n,p_{n+1},p_{n+2}$ de nombres premiers cons\'ecutifs, soit il existe une suite de r\'eels $x$, tendant vers l'infini telle que l'intervalle $(x,x+\epsilon\log x]$ contienne un couple $p_n,p_{n+1}$ de nombres premiers tel que $p_n \equiv p_{n+1} \equiv a \bmod q$. On pense que les deux \'enonc\'es sont vrais, toutefois on peut seulement d\'eduire que l'un d'entre eux est vrai, sans savoir lequel. Dans la premi\`ere partie de cette th\`ese, nous d\'emontrons que le deuxi\`eme \'enonc\'e est vrai, ce qui fournit une nouvelle d\'emonstration de la conjecture de Chowla. La preuve combine des id\'ees de Shiu et de Goldston-Pintz-Y{\i}ld{\i}r{\i}m, donc on peut consid\'erer que ce r\'esultat est une application de leurs m\'thodes. Ensuite, nous fournirons des bornes inf\'erieures pour le nombre de couples $p_n,p_{n+1}$ tels que $p_n \equiv p_{n+1} \equiv a \bmod q$, $p_{n+1} - p_n < \epsilon\log p_n$, avec $p_{n+1} \le Y$. Sous l'hypoth\`ese que $\theta$, le \og niveau de distribution \fg{} des nombres premiers, est plus grand que $1/2$, Goldston-Pintz-Y{\i}ld{\i}r{\i}m ont r\'eussi \`a d\'emontrer que $p_{n+1} - p_n \ll_{\theta} 1$ pour une infinit\'e de couples $p_n,p_{n+1}$. Sous la meme hypoth\`ese, nous d\'emontrerons que $p_{n+1} - p_n \ll_{q,\theta} 1$ et $p_n \equiv p_{n+1} \equiv a \bmod q$ pour une infinit\'e de couples $p_n,p_{n+1}$, et nous prouverons \'egalement un r\'esultat quantitatif. Dans la deuxi\`eme partie, nous allons utiliser les techniques de Goldston-Pintz-Y{\i}ld{\i}r{\i}m pour d\'emontrer qu'il existe une infinit\'e de couples de nombres premiers $p,p'$ tels que $(p-1)(p'-1)$ est une carr\'e parfait. Ce resultat est une version approximative d'une ancienne conjecture qui stipule qu'il existe une infinit\'e de nombres premiers $p$ tels que $p-1$ est une carr\'e parfait. En effet, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $n = \ell_1\cdots \ell_r$, avec $\ell_1,\ldots,\ell_r$ des premiers distincts, et tels que $(\ell_1-1)\cdots (\ell_r-1)$ est une puissance $r$-i\`eme, avec $r \ge 2$ quelconque. \'Egalement, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n = \ell_1\cdots \ell_r \le Y$ tels que $(\ell_1+1)\cdots (\ell_r+1)$ est une puissance $r$-i\`eme. Finalement, \'etant donn\'e $A$ un ensemble fini d'entiers non-nuls, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $\prod_{p \mid n} (p+a)$ est une puissance $r$-i\`eme, simultan\'ement pour chaque $a \in A$.
Resumo:
Objectifs : Définir les paramètres pharmacocinétiques du pantoprazole intraveineux en soins intensifs pédiatriques et déterminer l’influence qu’exercent sur ceux-ci les facteurs démographiques, le syndrome de réponse inflammatoire systémique (SRIS), la dysfonction hépatique et l’administration d’un inhibiteur du cytochrome (CYP) 2C19. Méthode : Cent cinquante-six concentrations plasmatiques de pantoprazole provenant d’une population de 20 patients (âgés de 10 jours à 16.4 ans) à risque ou atteints d’une hémorragie gastroduodénale de stress, ayant reçu des doses quotidiennes de pantoprazole de 19.9 à 140.6 mg/1.73m2, ont été analysées selon les méthodes non compartimentale et de modélisation non linéaire à effets mixtes. Résultats : Une clairance médiane (CL) de 0.14 L/h/kg, un volume apparent de distribution de 0.20 L/kg et une demi-vie d’élimination de 1.7 h ont été déterminés via l’approche non compartimentale. Le modèle populationnel à deux compartiments avec une infusion d’ordre zéro et une élimination d’ordre un représentait fidèlement la cinétique du pantoprazole. Le poids, le SRIS, la dysfonction hépatique et l’administration d’un inhibiteur du CYP2C19 constituaient les covariables significatives rendant compte de 75 % de la variabilité interindividuelle observée pour la CL. Seul le poids influençait significativement le volume central de distribution (Vc). Selon les estimations du modèle final, un enfant de cinq ans pesant 20 kg avait une CL de 5.28 L/h et un Vc de 2.22 L. La CL du pantoprazole augmentait selon l’âge et le poids tandis qu’elle diminuait respectivement de 62.3%, 65.8% et 50.5% en présence d’un SRIS, d’un inhibiteur du CYP2C19 ou d’une dysfonction hépatique. Conclusion : Ces résultats permettront de guider les cliniciens dans le choix d’une dose de charge et dans l’ajustement des posologies du pantoprazole en soins intensifs pédiatriques dépendamment de facteurs fréquemment rencontrés dans cette population.
Resumo:
La xénotransplantation, soit la transplantation de cellules, de tissus ou d'organes d'origine animale chez l'homme, est envisagée comme solution à la pénurie d'organes. Toutefois, cette technologie pourrait être à l'origine de nouvelles maladies. D'où la nécessité d'avoir des mesures visant tant la santé des animaux fournisseurs que la qualité et la sécurité des xénogreffons pour minimiser les risques de transmission de maladies de l'animal à l'homme, appelées xénozoonoses. L'objet de ce mémoire est de vérifier si les normes existantes au Canada et au Québec sont appropriées pour assurer la sécurité des receveurs et de la population. Nous avons d'abord examiné les normes susceptibles de s'appliquer à la surveillance et au contrôle de la santé des animaux fournisseurs. Ne visant que les maladies connues, elles ne répondent pas aux spécificités de la xénotransplantation. Quant aux xénogreffons, leur qualification pose problème: drogues ou instruments. Cette incertitude pourrait affecter l'uniformité des décisions relatives à leur qualité et à leur sécurité. Nous avons aussi étudié la Proposition d'une Norme canadienne pour la xénotransplantation. Cette dernière pourrait certes pallier la situation d'inadéquation de l'encadrement normatif existant au Canada. Une comparaison de cette norme canadienne avec les recommandations de l'OMS et les mesures en place aux ÉtatsUnis nous permet de suggérer comment la bonifier. Il ressort de notre étude que l'encadrement normatif canadien visant la sécurité des xénogreffons demeure à bâtir. Un élément essentiel à considérer dans son élaboration est la nécessité d'instaurer des systèmes de contrôle adéquats et compatibles à l'échelle planétaire.
Resumo:
Depuis l’avènement de l’agriculture productiviste, les paysages des zones d’intensification agricole des pays industrialisés ont été marqués par la perte sévère de leur diversité et la dégradation de leurs fonctions environnementales, récréatives, esthétiques et sociales. Au moment où la qualité des paysages constitue un facteur clé du dynamisme des collectivités rurales, il devient urgent de développer des stratégies d’aménagement aptes à réintroduire le caractère multifonctionnel de ces paysages. Dans ce contexte, cette thèse propose un éclairage sur les enjeux d’aménagement de ces paysages sous l’angle des approches dialectiques en paysage issues de la Holistic Landscape Ecology. En développant un modèle conceptuel des trajectoires des paysages s’inscrivant dans les approches intégrées en paysage, elle établit une double lecture des dynamiques physico-spatiale et socioculturelle des paysages des zones d’intensification agricole afin d’en arriver à qualifier les écarts entre celles-ci. Pour y parvenir, elle prend appui sur une étude de cas d’un bassin versant agricole du sud du Québec. En puisant tantôt dans l’écologie du paysage, tantôt dans la sociologie du paysage, les résultats de cette thèse soulignent d’une part le poids des forces politiques et économiques dans le façonnement de ces paysages. Mais ils révèlent également le rôle des valorisations paysagères des agriculteurs dans la modulation de ces forces. Plus encore, l’étude des dynamiques socioculturelles révèle une diversité au sein des populations locales au plan des valorisations de ces paysages et des pratiques qui les façonnent qui vient renouveler l’image d’uniformité de ces territoires. Le maintien et l’accentuation de cette diversité apparaissent susceptibles de contribuer significativement à la réintroduction du caractère multifonctionnel des paysages au sein des zones d’intensification agricole. Des pistes concrètes pour l’aménagement concluent cette thèse.
Resumo:
L’histoire identitaire du Québec a constamment été marquée par des enjeux d’ordre «linguistique». En effet, de par l’isolement de cette province majoritairement francophone, entourée de provinces et d’un pays anglophones, nous avons été témoins de plusieurs débats passionnés sur l’avenir du français au Québec. Mais qu’en est-il réellement de la situation linguistique et plus particulièrement de la fécondité au Québec? Avec le constat que le Québec, tout comme la plupart des pays occidentaux, n’assure plus le remplacement de ses générations par son accroissement naturel, l’immigration devient la seule alternative. Certains se sont alors interrogés sur la représentativité future des francophones au sein de leur province. Axée essentiellement sur la langue d’usage, nous avons effectué plusieurs analyses comparatives de l’indice synthétique de fécondité (ISF) selon les groupes linguistiques, mais également selon les régions. Trois facteurs importaient : déterminer les différences de fécondité entre les groupes linguistiques; déterminer les différences de fécondité entre l’ensemble du Québec, l’île de Montréal et le reste du Québec; et déterminer quel jeu d’hypothèses de construction de l’ISF se rapproche le plus de la réalité. C’est à l’aide de six combinaisons d’hypothèses que nous avons effectué l’analyse de la fécondité des groupes linguistiques, soit trois hypothèses de redistribution des naissances dont la langue d’usage de la mère est inconnue, et deux hypothèses de distribution des effectifs, soit la population féminine âgée de 15 à 49 ans. L’analyse annuelle de la fécondité des groupes linguistiques au Québec nous a permis d’observer des variations pour le moins importantes au cours des deux dernières décennies, ce que des analyses de la fécondité limitées aux années censitaires seulement ont en quelque sorte atténué. Bien que les allophones aient des ISF plus «instables» que les deux autres groupes linguistiques, à cause de leurs faibles effectifs, il appert que leur ISF est en-deçà du seuil de remplacement depuis 1996, pour progressivement se rapprocher de celui des deux autres groupes linguistiques.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Au cours des dernières décennies, l’important mouvement de déconcentration territoriale évoluant au sein de nombreuses métropoles à travers le monde a indéniablement su bouleverser leurs dynamiques territoriales, notamment en termes d’organisation spatiale des fonctions urbaines et de mobilité. Ce phénomène n’a pas manqué de susciter l’intérêt de nombreux auteurs, toutefois, face à la variété des facteurs d’influence et aux nombreuses spécificités locales, ces études se sont régulièrement révélées divergentes, voire contradictoires. Ainsi, de nombreuses incertitudes demeurent. La déconcentration des activités serait-elle en mesure de favoriser une meilleure adéquation des lieux de résidence et de travail au sein des territoires métropolitains? Quels en sont les conséquences sur les migrations alternantes? À l’heure où la mobilité constitue à la fois un facteur clé du développement des villes et un enjeu majeur quant aux ’émissions de GES et, alors que le mouvement de déconcentration demeure très actuel et poursuit sa progression, ce mémoire vise à enrichir le débat en proposant une étude basée sur l’analyse des plus récentes formes de distribution des activités métropolitaines en lien avec les caractéristiques de navettage, le tout dans une optique d’évaluation de la durabilité des déplacements. Le cas de Montréal, une métropole dont l’organisation spatiale a été considérée atypique en Amérique du nord, a été observé. L’analyse réalisée comprend trois grandes étapes. L’espace métropolitain montréalais a d’abord fait l’objet d’une caractérisation basée sur une typologie développée en France et basée sur divers critères reliés à la localisation emploi-résidence. Cette typologie a ensuite servi de base à une analyse des déplacements pendulaires, entre 2003 et 2008. Le portrait obtenu a finalement été opposé à celui résultant d’une analyse basée sur un découpage plus traditionnel « centre-banlieue-périphérie » de l’espace métropolitain. Les résultats suggèrent, à l’instar d’autres études, que la seule proximité des lieux d’emploi et de résidence ne suffit pas à favoriser des pratiques de navettage plus durables. D’un point de vue méthodologique, l’étude révèle également la pertinence des deux types d’approches proposés, de même que leur complémentarité.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Nous investiguons dans ce travail la création d'échantillons permettant l'étude du comportement des polaritons excitoniques dans les matériaux semi-conducteurs organiques. Le couplage fort entre les états excités d'électrons et des photons impose la création de nouveaux états propres dans le milieu. Ces nouveaux états, les polaritons, ont un comportement bosonique et sont donc capables de se condenser dans un état fortement dégénéré. Une occupation massive de l'état fondamental permet l'étude de comportements explicables uniquement par la mécanique quantique. La démonstration, au niveau macroscopique, d'effets quantiques promet d'éclairer notre compréhension de la matière condensée. De plus, la forte localisation des excitons dans les milieux organiques permet la condensation des polaritons excitoniques organiques à des températures beaucoup plus hautes que dans les semi-conducteurs inorganiques. À terme, les échantillons proposés dans ce travail pourraient donc servir à observer une phase cohérente macroscopique à des températures facilement atteignables en laboratoire. Les cavités proposées sont des résonateurs Fabry-Perot ultraminces dans lesquels est inséré un cristal unique d'anthracène. Des miroirs diélectriques sont fabriqués par une compagnie externe. Une couche d'or de 60 nanomètres est ensuite déposée sur leur surface. Les miroirs sont ensuite mis en contact, or contre or, et compressés par 2,6 tonnes de pression. Cette pression soude la cavité et laisse des espaces vides entre les lignes d'or. Une molécule organique, l'anthracène, est ensuite insérée par capillarité dans la cavité et y est cristallisée par la suite. Dans leur état actuel, les cavités présentent des défauts majeurs quant à la planarité des miroirs et à l'uniformité des cristaux. Un protocole détaillé est présenté et commenté dans ce travail. Nous y proposons aussi quelques pistes pour régler les problèmes courants de l'appareil.