641 resultados para Taille d’échantillon
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Ce travail financé par l'ACDI a été réalisé au Laboratoire TRANSNUT de l'Université de Montréal (Canada)en collaboration avec le Laboratoire National de Santé Publique (Burkina Faso) et HKI-Burkina Faso.
Resumo:
Le diabète de type 1 (DT1) est une maladie complexe qui requiert une implication importante des patients pour contrôler leur glycémie et ainsi prévenir les complications et comorbidités. L’activité physique (AP) régulière et une attention constante pour les glucides ingérés sont des adjuvants essentiels au traitement insulinique. Nous avons démontré que le questionnaire BAPAD-1, spécifiquement développé pour des adultes atteints de DT1, est un outil valide (validité prédictive, fiabilité interne et reproductibilité) pour définir des barrières associées à l’AP. Bien que le niveau de barrières envers l’AP soit faible, la crainte de l’hypoglycémie est la barrière la plus importante chez cette population. L’adoption d’un mode de vie actif est associée à un profil corporel favorable. Les adultes, avec un DT1 et non diabétique, qui maintiennent un bon niveau d’AP, soit un ratio entre la dépense énergétique totale et celle au repos ≥ 1.7, ont une masse grasse, un indice de masse corporelle et un tour de taille significativement inférieurs à ceux d’adultes moins actifs. Le niveau d’AP peut être estimé au moyen d’un moniteur d’AP comme le SenseWear Armband™. Afin de compléter les études de validation de cet outil, nous avons évalué et démontré la reproductibilité des mesures. Toutefois, la dépense énergétique est sous-estimée durant les 10 premières minutes d’une AP d’intensité modérée sur ergocycle. L’utilisation de cet appareil est donc justifiée pour une évaluation de la dépense énergétique sur de longues périodes. Le calcul des glucides est une méthode largement utilisée pour évaluer la quantité d’insuline à injecter lors des repas. Nous avons évalué dans un contexte de vie courante, sans révision de la technique, la précision des patients pour ce calcul. L’erreur moyenne est de 15,4 ± 7,8 g par repas, soit 20,9 ± 9,7 % du contenu glucidique. L’erreur moyenne est positivement associée à de plus grandes fluctuations glycémiques mesurées via un lecteur de glucose en continu. Une révision régulière du calcul des glucides est probablement nécessaire pour permettre un meilleur contrôle glycémique. Nous avons développé et testé lors d’un essai clinique randomisé contrôlé un programme de promotion de l’AP (PEP-1). Ce programme de 12 semaines inclut une séance hebdomadaire en groupe ayant pour but d’initier l’AP, d’établir des objectifs et d’outiller les adultes atteints de DT1 quant à la gestion de la glycémie à l’AP. Bien que n’ayant pas permis d’augmenter la dépense énergétique, le programme a permis un maintien du niveau d’AP et une amélioration de la condition cardio-respiratoire et de la pression artérielle. À la fin du programme, une plus grande proportion de patients connaissait la pharmacocinétique de l’insuline et une plus grande variété de méthodes pour contrer l’hypoglycémie associée à l’AP était utilisée. En conclusion, le diabète de type 1 engendre des défis quotidiens particuliers. D’une part, le calcul des glucides est une tâche complexe et son imprécision est associée aux fluctuations glycémiques quotidiennes. D’autre part, l’adoption d’un mode de vie actif, qui est associée à un meilleur profil de composition corporelle, est limitée par la crainte des hypoglycémies. Le programme PEP-1 offre un support pour intégrer l’AP dans les habitudes de vie des adultes avec un DT1 et ainsi améliorer certains facteurs de risque cardio-vasculaire.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
Une sous-population des neurones à dopamine (DA) du mésencéphale ventral du rat et de la souris étant connue pour exprimer l'ARN messager du transporteur vésiculaire 2 du glutamate (VGLUT2), nous avons eu recours à l'immunocytochimie en microscopie électronique, après simple ou double marquage de l'enzyme de synthèse tyrosine hydroxylase (TH) et de VGLUT2, pour déterminer la présence de l'une et/ou l'autre protéine dans les terminaisons (varicosités) axonales de ces neurones et caractériser leur morphologie ultrastructurale dans diverses conditions expérimentales. Dans un premier temps, des rats jeunes (P15) ou adultes (P90), ainsi que des rats des deux âges soumis à l'administration intraventriculaire cérébrale de la cytotoxine 6-hydroxydopamine (6-OHDA) dans les jours suivant la naissance, ont été examinés, afin d'étayer l'hypothèse d'un rôle de VGLUT2 au sein des neurones DA, au cours du développement normal ou pathologique de ces neurones. Chez le jeune rat, ces études ont montré: i) la présence de VGLUT2 dans une fraction importante des varicosités axonales TH immunoréactives du coeur du noyau accumbens ainsi que du néostriatum; ii) une augmentation de la proportion de ces terminaisons doublement marquées dans le noyau accumbens par suite de la lésion 6-OHDA néonatale; iii) le double marquage fréquent des varicosités axonales appartenant à l'innervation DA aberrante (néoinnervation), qui se développe dans la substance noire, par suite de la lésion 6-OHDA néonatale. Des différences significatives ont aussi été notées quant à la dimension des terminaisons axonales marquées pour la TH seulement, VGLUT2 seulement ou TH et VGLUT2. Enfin, à cet âge (P15), toutes les terminaisons doublement marquées sont apparues dotées d'une spécialisation membranaire synaptique, contrairement aux terminaisons marquées pour la TH ou pour VGLUT2 seulement. Dans un deuxième temps, nous avons voulu déterminer le devenir du double phénotype chez le rat adulte (P90) soumis ou non à la lésion 6-OHDA néonatale. Contrairement aux observations recueillies chez le jeune rat, nous avons alors constaté: i) l'absence complète de terminaisons doublement marquées dans le coeur du noyau accumbens et le néostriatum d'animaux intacts, de même que dans les restes de la substance noire des animaux 6-OHDA lésés; ii) une très forte baisse de leurnombre dans le coeur du noyau accumbens des animaux 6-OHDA lésés. Ces observations, suggérant une régression du double phénotype TH/VGLUT2 avec l'âge, sont venues renforcer l'hypothèse d'un rôle particulier d'une co-libération de glutamate par les neurones mésencéphaliques DA au cours du développement. Dans ces conditions, il est apparu des plus intéressants d'examiner l'innervation DA méso-striatale chez deux lignées de souris dont le gène Vglut2 avait été sélectivement invalidé dans les neurones DA du cerveau, ainsi que leurs témoins et des souris sauvages. D'autant que malgré l'utilisation croissante de la souris en neurobiologie, cette innervation DA n'avait jamais fait l'objet d’une caractérisation systématique en microscopie électronique. En raison de possibles différences entre le coeur et la coque du noyau accumbens, l'étude a donc porté sur les deux parties de ce noyau ainsi que le néostriatum et des souris jeunes (P15) et adultes (P70-90) de chaque lignée, préparées pour l'immunocytochimie de la TH, mais aussi pour le double marquage TH et VGLUT2, selon le protocole précédemment utilisé chez le rat. Les résultats ont surpris. Aux deux âges et quel que soit le génotype, les terminaisons axonales TH immunoréactives des trois régions sont apparues comparables quant à leur taille, leur contenu vésiculaire, le pourcentage contenant une mitochondrie et une très faible incidence synaptique (5% des varicosités, en moyenne). Ainsi, chez la souris, la régression du double phénotype pourrait être encore plus précoce que chez le rat, à moins que les deux protéines ne soient très tôt ségréguées dans des varicosités axonales distinctes des mêmes neurones DA. Ces données renforcent aussi l’hypothèse d’une transmission diffuse (volumique) et d’un niveau ambiant de DA comme élément déterminant du fonctionnement du système mésostriatal DA chez la souris comme chez le rat.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Cette étude s'intéresse à la perception de l'avènement de la télévision (1952-1962) du point de vue des intellectuels canadiens-français. À cette époque, la province du Québec est dirigée par le gouvernement conservateur de l'Union nationale de Maurice Duplessis qui semble indélogeable pendant les années 1950. En même temps, l'Église catholique maintient son contrôle sur la société canadienne-française, plus particulièrement ses idéologies. Dans ce climat, la discordance intellectuelle avec ces deux pouvoirs mène souvent à la marginalité. Pour diverses raisons, la télévision, et plus particulièrement la Société Radio-Canada (SRC), ne sont pas soumises à ces contraintes. Nouveau média, tout doit être crée pour « alimenter le monstre », comme il a été déjà dit. Si l'équivalent anglophone de la SRC peut acheter des émissions sur le marché international, la télévision francophone mondiale est embryonnaire. L'antenne montréalaise de la SRC se retrouve en situation autarcique et doit s'appuyer sur les ressources du Canada français pour créer ses émissions d'actualités et de divertissements. Un déf de taille attend les premiers artisans de la télévision. Dans ce contexte, comment les intellectuels canadiens-français ont-ils perçu l'avènement de la télévision? Cette étude tente d'apporter quelques éléments de réponse en prenant en compte l'idéologie des intellectuels.
Resumo:
Cette étude porte sur l’écologie saisonnière des parasitoïdes des œufs de l’arpenteuse de la pruche (Lepidoptera : Geometridae), un important défoliateur du Québec (Canada). Premièrement, nous décrivons les patrons saisonniers de parasitisme d’hôtes sentinelles par Telenomus coloradensis, T. droozi, T. flavotibiae (Hymenoptera : Scelionidae), et Trichogramma spp., dans la région du Bas-Saint-Laurent. Telenomus flavotibiae et Trichogramma spp. parasitent rarement les œufs de l’arpenteuse de la pruche alors que T. coloradensis et T. droozi sont très abondants au printemps. En laboratoire, la convenance des hôtes pour T. coloradensis diminue rapidement avec leur développement embryonnaire au printemps, affectant négativement les niveaux de parasitisme, ainsi que la survie, la taille, le temps de développement et la longévité de la progéniture. Telenomus coloradensis et T. droozi sont actifs très tôt en saison, alors que les températures sont froides (4°C) pour profiter du développement embryonnaire peu avancé de l’hôte. À partir de paramètres empiriques, nous estimons que la progéniture de T. coloradensis issue du parasitisme printanier émerge au milieu de l’été, alors que l’hôte est totalement absent de l’environnement forestier. La nouvelle génération de femelles serait donc susceptible d’entrer précocement en diapause reproductive. D’ailleurs, nos résultats de laboratoire démontrent qu’une période de privation d’hôtes affecte négativement l’activité parasitaire de T. coloradensis. Ce phénomène pourrait expliquer les niveaux très faibles de parasitisme des œufs de l’arpenteuse de la pruche à l’automne. Étonnamment toutefois, les hôtes en début de diapause (à l’automne) sont de meilleure qualité énergétique que les hôtes en post-diapause (au printemps). Alors que des études précédentes ont démontré que T. coloradensis peut survivre à l’hiver en tant qu’immature à l’intérieur des hôtes, nos résultats indiquent que ce sont principalement les femelles fertilisés qui passent l’hiver en diapause reproductive, avec un point de surfusion automnal moyen de -30,6°C.
Resumo:
Le ministère de l’Éducation, du Loisir et du Sport (MELS) publie tous les ans des indicateurs (MELS, 2007) qui traitent de plusieurs aspects du système scolaire québécois. Quoique le MELS insiste sur l’obligation pour les écoles primaires et secondaires d’obtenir des résultats probants en termes d’« efficacité », les indicateurs utilisés pour apprécier la performance des écoles ne sont pas nécessairement conçus à cette fin. Une étude du MELS rapporte que les élèves de 5e secondaire éprouvent de la difficulté à obtenir de bons résultats à deux critères de correction (syntaxe et ponctuation, orthographe), parmi les six de l’épreuve unique de français écrit (MELS, 2008). Ce fait nous amène à nous intéresser à l’étude de la modélisation des liens entre des facteurs associés à l’environnement scolaire et les résultats des élèves de la région métropolitaine de Montréal, en ce qui a trait à ces deux critères pour les cohortes des années 2006, 2007 et 2008. Nous procédons d’abord à des analyses descriptives des variables pour chacune des trois populations. Nous poursuivons l’analyse en effectuant plusieurs modélisations multiniveaux multivariées des deux critères en fonction de variables indépendantes, caractéristiques de l’élève et de l’école. Les résultats de la présente recherche indiquent une relative stabilité dans la performance des élèves pour les trois années, avec une légère amélioration de la performance pour la cohorte de 2007, et qui se maintient pour la cohorte de 2008. Les élèves du secteur privé obtiennent de meilleurs résultats que ceux du public. Le résultat des filles est supérieur à celui des garçons et les élèves de langue maternelle française obtiennent de meilleurs résultats que ceux de langues maternelles différentes du français. Il importe cependant d’apporter quelques nuances dans l’interprétation de ces résultats. En outre, la part de variance dans la performance des élèves attribuable à l’élève est de l’ordre de 75,0 % et de l’ordre de 25,0 % à l’école. On note un effet différentiel des facteurs d’élève et d’école selon le critère considéré. Les variables caractéristiques de l’élève comptent pour 13,9 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 9,8 % en orthographe. Les variables caractéristiques de l’école comptent pour 3,7 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 6,4 % en orthographe. Certains facteurs d’école, comme la taille, la mixité ne semblent pas présenter un lien significatif avec la performance des élèves.
Resumo:
But: Cette étude a pour but de comparer : a)la morphologie du plancher pelvien (PP), du col vésical et du sphincter urogénital strié (SUS) par IRM et b) la fonction du PP par palpation digitale (PERFECT scheme) chez les femmes âgées continentes ou avec incontinence urinaire à l’effort (IUE) et mixte (IUM). Méthode: Les femmes ont appris à contracter correctement leur PP et la fonction de leur PP a été évaluée. Une séance d’IRM dynamique 3T a suivi. Résultats: 66 femmes ont participé à l’étude. Les groupes étaient similaires en âge, IMC, nombre d’accouchements vaginaux et d’hystérectomie. La validité et la fidélité des différentes mesures anatomiques utilisées ont été confirmées au début de cette étude. Afin de contrôler l’effet potentiel de la taille du bassin sur les autres paramètres, les femmes ont été appariées par la longueur de leur inlet pelvien. Les femmes avec IUM ont un PP plus bas et un support des organes pelviens plus faible, selon leurs ligne M, angle LPC/Ligne H et hauteur de la jonction urétro-vésicale (UV). Les femmes avec IUE ont un PP similaire à celui des continentes, mais présentent plus d’ouverture du col vésical et un angle UV postérieur plus large au repos que les autres groupes. Il n’y a aucune différence de morphologie du SUS entre les groupes. De plus, selon les résultats du PERFECT scheme, les femmes avec IU ont une force du PP plus faible que les continentes. Les femmes avec IUM montrent aussi une faible élévation des muscles du PP à la contraction. Les femmes avec IUE ont, quant à elle, un problème de coordination à la toux. Conclusion: Les déficits causant l’IUE et l’IUM sont différents, mais supportent tous le rationnel des exercices du PP pour le traitement de l’IUE et l’IUM. Ces résultats supportent le besoin de traitements de rééducation spécifiques aux déficits de chacun des types d’IU.
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Le besoin pour des biocapteurs à haute sensibilité mais simples à préparer et à utiliser est en constante augmentation, notamment dans le domaine biomédical. Les cristaux colloïdaux formés par des microsphères de polymère ont déjà prouvé leur fort potentiel en tant que biocapteurs grâce à l’association des propriétés des polymères et à la diffraction de la lumière visible de la structure périodique. Toutefois, une meilleure compréhension du comportement de ces structures est primordiale avant de pouvoir développer des capteurs efficaces et polyvalents. Ce travail propose d’étudier la formation et les propriétés des cristaux colloïdaux résultant de l’auto-assemblage de microsphères de polymère en milieu aqueux. Dans ce but, des particules avec différentes caractéristiques ont été synthétisées et caractérisées afin de corréler les propriétés des particules et le comportement de la structure cristalline. Dans un premier temps, des microsphères réticulées de polystyrène anioniques et cationiques ont été préparées par polymérisation en émulsion sans tensioactif. En variant la quantité de comonomère chargé, le chlorure de vinylbenzyltriméthylammonium ou le sulfonate styrène de sodium, des particules de différentes tailles, formes, polydispersités et charges surfaciques ont été obtenues. En effet, une augmentation de la quantité du comonomère ionique permet de stabiliser de façon électrostatique une plus grande surface et de diminuer ainsi la taille des particules. Cependant, au-dessus d’une certaine concentration, la polymérisation du comonomère en solution devient non négligeable, provoquant un élargissement de la distribution de taille. Quand la polydispersité est faible, ces microsphères chargées, même celles non parfaitement sphériques, peuvent s’auto-assembler et former des cristaux colloïdaux diffractant la lumière visible. Il semble que les répulsions électrostatiques créées par les charges surfaciques favorisent la formation de la structure périodique sur un grand domaine de concentrations et améliorent leur stabilité en présence de sel. Dans un deuxième temps, le besoin d’un constituant stimulable nous a orientés vers les structures cœur-écorce. Ces microsphères, synthétisées en deux étapes par polymérisation en émulsion sans tensioactif, sont formées d’un cœur de polystyrène et d’une écorce d’hydrogel. Différents hydrogels ont été utilisés afin d’obtenir des propriétés différentes : le poly(acide acrylique) pour sa sensibilité au pH, le poly(N-isopropylacrylamide) pour sa thermosensibilité, et, enfin, le copolymère poly(N-isopropylacrylamide-co-acide acrylique) donnant une double sensibilité. Ces microsphères forment des cristaux colloïdaux diffractant la lumière visible à partir d’une certaine concentration critique et pour un large domaine de concentrations. D’après les changements observés dans les spectres de diffraction, les stimuli ont un impact sur la structure cristalline mais l’amplitude de cet effet varie avec la concentration. Ce comportement semble être le résultat des changements induits par la transition de phase volumique sur les interactions entre particules plutôt qu’une conséquence du changement de taille. Les interactions attractives de van der Waals et les répulsions stériques sont clairement affectées par la transition de phase volumique de l’écorce de poly(N-isopropylacrylamide). Dans le cas des microsphères sensibles au pH, les interactions électrostatiques sont aussi à considérer. L’effet de la concentration peut alors être mis en relation avec la portée de ces interactions. Finalement, dans l’objectif futur de développer des biocapteurs de glucose, les microsphères cœur-écorce ont été fonctionnalisées avec l’acide 3-aminophénylboronique afin de les rendre sensibles au glucose. Les effets de la fonctionnalisation et de la complexation avec le glucose sur les particules et leur empilement périodique ont été examinés. La structure cristalline est visiblement affectée par la présence de glucose, même si le mécanisme impliqué reste à élucider.