401 resultados para Matériaux intelligents


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette thèse est de développer une plateforme d’immobilisation d’enzymes efficace pour application en biopile. Grâce à la microencapsulation ainsi qu’au choix judicieux des matériaux polymériques pour la fabrication de la plateforme d’immobilisation, l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode serait amélioré. Du même coup, les biopiles employant cette plateforme d’immobilisation d’enzymes pourrait voir leur puissance délivrée être grandement augmentée et atteindre les niveaux nécessaires à l’alimentation d’implants artificiels pouvant remplacer des organes telque le pancréas, les reins, le sphincter urinaire et le coeur. Dans un premier temps, le p-phénylènediamine a été employé comme substrat pour la caractérisation de la laccase encapsulée dans des microcapsules de poly(éthylèneimine). La diffusion de ce substrat à travers les microcapsules a été étudiée sous diverses conditions par l’entremise de son oxidation électrochimique et enzymatique afin d’en évaluer sa réversibilité et sa stabilité. La voltampérométrie cyclique, l’électrode à disque tournante (rotating disk electrode - RDE) et l’électrode à O2 ont été les techniques employées pour cette étude. Par la suite, la famille des poly(aminocarbazoles) et leurs dérivés a été identifée pour remplacer le poly(éthylèneimine) dans la conception de microcapsules. Ces polymères possèdent sur leurs unités de répétition (mono- ou diamino) des amines primaires qui seraient disponibles lors de la polymérisation interfaciale avec un agent réticulant tel qu’un chlorure de diacide. De plus, le 1,8-diaminocarbazole (unité de répétition) possède, une fois polymérisé, les propriétés électrochimiques recherchées pour un transfert d’électrons efficace entre l’enzyme et l’électrode. Il a toutefois été nécessaire de développer une route de synthèse afin d’obtenir le 1,8-diaminocarbazole puisque le protocole de synthèse disponible dans la littérature a été jugé non viable pour être utilisé à grande échelle. De plus, aucun protocole de synthèse pour obtenir du poly(1,8-diaminocarbazole) directement n’a été trouvé. Ainsi, deux isomères de structure (1,6 et 1,8-diaminocarbazole) ont pu être synthétisés en deux étapes. La première étape consistait en une substitution électrophile du 3,6-dibromocarbazole en positions 1,8 et/ou 1,6 par des groupements nitro. Par la suite, une réaction de déhalogénation réductive à été réalisée en utilisant le Et3N et 10% Pd/C comme catalyseur dans le méthanol sous atmosphère d’hydrogène. De plus, lors de la première étape de synthèse, le composé 3,6-dibromo-1-nitro-carbazole a été obtenu; un monomère clé pour la synthèse du copolymère conducteur employé. Finalement, la fabrication de microcapsules conductrices a été réalisée en incorporant le copolymère poly[(9H-octylcarbazol-3,6-diyl)-alt-co-(2-amino-9H-carbazol-3,6-diyl)] au PEI. Ce copolymère a pu être synthétisé en grande quantité pour en permettre son utilisation lors de la fabrication de microcapsules. Son comportement électrochimique s’apparentait à celui du poly(1,8-diaminocarbazole). Ces microcapsules, avec laccase encapsulée, sont suffisamment perméables au PPD pour permettre une activité enzymatique détectable par électrode à O2. Par la suite, la modification de la surface d’une électrode de platine a pu être réalisée en utilisant ces microcapsules pour l’obtention d’une bioélectrode. Ainsi, la validité de cette plateforme d’immobilisation d’enzymes développée, au cours de cette thèse, a été démontrée par le biais de l’augmentation de l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est désormais commun de reconnaître que le cinéma, aujourd’hui, s’émancipe de son dispositif médiatique traditionnel, adoptant maintes formes liées aux champs culturels qui l’accueillent : jeux vidéo, web, médias portatifs, etc. Toutefois, c’est peut-être le champ des arts visuels et médiatiques contemporains qui lui aura fait adopter, depuis la fin des années soixante, les formes les plus désincarnées, allant parfois jusqu’à le rendre méconnaissable. À cet effet, certaines œuvres sculpturales et installatives contemporaines uniquement composées de lumière et de vapeur semblent, par leurs moyens propres, bel et bien reprendre, tout en les mettant à l’épreuve, quelques caractéristiques du médium cinématographique. Basé sur ce constat, le présent mémoire vise à analyser, sur le plan esthétique, cette filiation potentielle entre le média-cinéma et ces œuvres au caractère immatériel. Pour ce faire, notre propos sera divisé en trois chapitres s’intéressant respectivement : 1) à l’éclatement médiatique du cinéma et à sa requalification vue par les théories intermédiales, 2) au processus d’évidement du cinéma – à la perte de ses images et de ses matériaux – dans les pratiques en arts visuels depuis une cinquantaine d’années, et 3) au corpus de l’artiste danois Olafur Eliasson, et plus spécialement à son œuvre Din Blinde Passager (2010), qui est intimement liée à notre problématique. Notre réflexion sera finalement, au long de ce parcours, principalement guidée par les approches esthétiques et philosophiques de Georges Didi-Huberman et de Jacques Rançière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grâce aux nanotechnologies, l’être humain peut maîtriser la matière à l’échelle du nanomètre — soit au niveau des atomes et des molécules. Les matériaux obtenus suite à ces manipulations présentent des propriétés nouvelles qui les rendent très intéressants pour nombre d’applications techniques, et ce dans tous les domaines technoscientifiques. Ainsi, les nanotechnologies sont souvent considérées comme les prémisses d’une profonde révolution technologique et sociale. Toutefois, si les nanotechnologies intéressent investisseurs, gouvernement, entreprises et universités, elles soulèvent aussi des questions éthiques, notamment au sujet de leur toxicité, de leurs retombées et de la modification de l’être humain. À ces questions s’ajoutent plusieurs interrogations sur la gouvernance des nanotechnologies : comment, en effet, encadrer en amont le développement de celles-ci pour éviter d’éventuelles conséquences néfastes en aval? Parmi ces interrogations, le rôle des médias dans les relations entre les développeurs de nanotechnologies et le public est souvent mentionné. Certains voient dans les médias un acteur auquel les chercheurs pourraient recourir pour établir un dialogue avec le public afin d’assurer un développement harmonieux des nanotechnologies. Si cette recommandation semble très pertinente, il n’existe, à notre connaissance, aucune étude empirique pour en vérifier la faisabilité auprès des acteurs concernés (chercheurs, médias, etc.). Dans le cadre de cette thèse, nous avons donc voulu examiner et analyser les perceptions des chercheurs et des journalistes québécois envers des initiatives médiatiques pour baliser le développement des nanotechnologies. Pour ce faire, nous avons procédé à une étude qualitative auprès de vingt (20) chercheurs en nanobiotechnologies/nanomédecine et dix (10) journalistes spécialisés en vulgarisation scientifique. L’analyse des entretiens avec les répondants a révélé que si les acteurs rencontrés sont favorables envers de telles initiatives, il existe plusieurs contraintes pouvant gêner une telle entreprise. Suite à l’examen de ces contraintes, nous avons suggéré des initiatives concrètes que les chercheurs québécois pourraient mettre en place pour mieux baliser le développement des nanotechnologies à l’aide d’un dialogue avec le public. Ces suggestions consistent notamment à créer des médias privés pour les chercheurs, à recourir aux médias indépendants et à investir le web. De telles initiatives, cependant, ne peuvent s’obtenir qu’au prix d’un remaniement des priorités des chercheurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le site de la carrière du mont Royal (BjFj-97), découvert en 1993 par Yvon Codère et inventorié en 1997 par l’équipe d’Ethnoscop Inc., constitue une énigme archéologique intéressante pour quiconque s’intéresse à la préhistoire de l’île de Montréal et de sa région adjacente. Lors des activités archéologiques de 1997, quelques idées furent émises quant à son affiliation chronologique et sa nature, suggérant une occupation remontant à l’Archaïque terminal (4000 à 3000 AA) orientée vers l’extraction et la transformation de la cornéenne, une pierre métamorphique résultant de la transformation du substrat rocheux en place suite à des intrusions magmatiques lors du Crétacé qui ont créé les Montérégiennes. Le matériel, comprenant plus de 10 000 déchets de taille et un peu plus de 70 artéfacts divers, ne fît pas l’objet d’analyses poussées hormis la datation approximative du site par un examen sommaire des pointes de projectile. Ce mémoire reprend les données de 1997 et apporte une perspective nouvelle au site en décrivant morphologiquement et technologiquement le débitage de la pierre de façon à comprendre la chaîne opératoire de la cornéenne, une matière peu étudiée, mais fort commune au Québec méridional, appréhender les possibilités de la matière et aborder les questions de datation. L’ensemble du matériel lithique fît l’objet d’une analyse lithique poussée axée sur le débitage et les produits finis et propose la prépondérance de la taille bifaciale, ponctuée par un débitage sur éclat conséquent. L’ensemble des étapes de la chaîne opératoire est présent sur le site de la carrière du mont Royal. La cornéenne est une matière difficile à tailler en raison de son imprévisibilité, liée à la structure même de la matière, menant à un fort taux d’échecs lors de l’élaboration des outils. La datation de l’occupation principale du site pointe vers l’Archaïque terminal, mais le caractère équivoque des diverses classes d’objets rend difficile sa définition absolue, faute d’objets parfaitement diagnostiques. Le site BjFj-97 ressemble grandement à un site homologue en Nouvelle-Angleterre où la cornéenne fût travaillée suivant le même schéma opératoire, suggérant un apparentement culturel possible. La cornéenne abonde et domine dans les assemblages archéologiques de la région montréalaise, substituant ainsi des matières de meilleure qualité absentes régionalement. Leurs correspondances chronologiques transcendent celles établies lors de l’analyse du matériel de la carrière et montrent un étalement chronologiquement plus étendu, de l’Archaïque laurentien au Sylvicole supérieur. La cornéenne se retrouve habituellement sous forme d’outils bifaciaux fonctionnels (bifaces, couteaux et pointes de projectile) de piètre facture et d’outils sur éclats (grattoirs et racloirs) rudimentaires, suggérant une signification strictement utilitaire, le propre des matières de basse qualité. Les modes d’extraction de la cornéenne restent inconnus sur le mont Royal. Le mont Royal est plus qu’un vulgaire point défensif, il constitue la base de la subsistance des populations préhistoriques de jadis où se trouvent les matériaux nécessaires à la taille d’outils de prédation liés à un mode de vie mobile où domine la chasse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise à définir une nouvelle méthode d’enseignement pour les systèmes tutoriels intelligents dans le but d’améliorer l’acquisition des connaissances. L’apprentissage est un phénomène complexe faisant intervenir des mécanismes émotionnels et cognitifs de nature consciente et inconsciente. Nous nous intéressons à mieux comprendre les mécanismes inconscients du raisonnement lors de l’acquisition des connaissances. L’importance de ces processus inconscients pour le raisonnement est bien documentée en neurosciences, mais demeure encore largement inexplorée dans notre domaine de recherche. Dans cette thèse, nous proposons la mise en place d’une nouvelle approche pédagogique dans le domaine de l’éducation implémentant une taxonomie neuroscientifique de la perception humaine. Nous montrons que cette nouvelle approche agit sur le raisonnement et, à tour de rôle, améliore l’apprentissage général et l’induction de la connaissance dans un environnement de résolution de problème. Dans une première partie, nous présentons l’implémentation de notre nouvelle méthode dans un système tutoriel visant à améliorer le raisonnement pour un meilleur apprentissage. De plus, compte tenu de l’importance des mécanismes émotionnels dans l’apprentissage, nous avons également procédé dans cette partie à la mesure des émotions par des capteurs physiologiques. L’efficacité de notre méthode pour l’apprentissage et son impact positif observé sur les émotions a été validée sur trente et un participants. Dans une seconde partie, nous allons plus loin dans notre recherche en adaptant notre méthode visant à améliorer le raisonnement pour une meilleure induction de la connaissance. L’induction est un type de raisonnement qui permet de construire des règles générales à partir d’exemples spécifiques ou de faits particuliers. Afin de mieux comprendre l’impact de notre méthode sur les processus cognitifs impliqués dans ce type de raisonnement, nous avons eu recours à des capteurs cérébraux pour mesurer l’activité du cerveau des utilisateurs. La validation de notre approche réalisée sur quarante-trois volontaires montre l’efficacité de notre méthode pour l’induction de la connaissance et la viabilité de mesurer le raisonnement par des mesures cérébrales suite à l’application appropriée d’algorithmes de traitement de signal. Suite à ces deux parties, nous clorons la thèse par une discussion applicative en décrivant la mise en place d’un nouveau système tutoriel intelligent intégrant les résultats de nos travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles de réflexion complexes, avec leurs nombreux paramètres dont certains restent non intuitifs, sont difficiles à contrôler pour obtenir une apparence désirée. De plus, même si un artiste peut plus aisément comprendre la forme de la micro-géométrie d'une surface, sa modélisation en 3D et sa simulation en 4D demeurent extrêmement fastidieuses et coûteuses en mémoire. Nous proposons une solution intermédiaire, où l'artiste représente en 2D une coupe dans un matériau, en dessinant une micro-géométrie de surface en multi-couches. Une simulation efficace par lancer de rayons en seulement 2D capture les distributions de lumière affectées par les micro-géométries. La déviation hors-plan est calculée automatiquement de façon probabiliste en fonction de la normale au point d'intersection et de la direction du rayon incident. Il en résulte des BRDFs isotropes complètes et complexes, simulées à des vitesses interactives, et permettant ainsi une édition interactive de l'apparence de réflectances riches et variées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous investiguons dans ce travail la création d'échantillons permettant l'étude du comportement des polaritons excitoniques dans les matériaux semi-conducteurs organiques. Le couplage fort entre les états excités d'électrons et des photons impose la création de nouveaux états propres dans le milieu. Ces nouveaux états, les polaritons, ont un comportement bosonique et sont donc capables de se condenser dans un état fortement dégénéré. Une occupation massive de l'état fondamental permet l'étude de comportements explicables uniquement par la mécanique quantique. La démonstration, au niveau macroscopique, d'effets quantiques promet d'éclairer notre compréhension de la matière condensée. De plus, la forte localisation des excitons dans les milieux organiques permet la condensation des polaritons excitoniques organiques à des températures beaucoup plus hautes que dans les semi-conducteurs inorganiques. À terme, les échantillons proposés dans ce travail pourraient donc servir à observer une phase cohérente macroscopique à des températures facilement atteignables en laboratoire. Les cavités proposées sont des résonateurs Fabry-Perot ultraminces dans lesquels est inséré un cristal unique d'anthracène. Des miroirs diélectriques sont fabriqués par une compagnie externe. Une couche d'or de 60 nanomètres est ensuite déposée sur leur surface. Les miroirs sont ensuite mis en contact, or contre or, et compressés par 2,6 tonnes de pression. Cette pression soude la cavité et laisse des espaces vides entre les lignes d'or. Une molécule organique, l'anthracène, est ensuite insérée par capillarité dans la cavité et y est cristallisée par la suite. Dans leur état actuel, les cavités présentent des défauts majeurs quant à la planarité des miroirs et à l'uniformité des cristaux. Un protocole détaillé est présenté et commenté dans ce travail. Nous y proposons aussi quelques pistes pour régler les problèmes courants de l'appareil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.