99 resultados para Alignement de modèles 3D


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire reconstitue l’histoire des théories, modèles et hypothèses qui ont été formulés, principalement en archéologie, afin d’expliquer la naissance de l’agriculture qui correspond, du point de vue chronologique, à la transition (ou révolution) néolithique. Ces schèmes explicatifs sont décrits chronologiquement depuis la naissance de l’archéologie préhistorique, dans la première moitié du XIXe siècle, jusqu’à maintenant. Ils sont classifiés en fonction des principales écoles qui ont joué un rôle prédominant en archéologie préhistorique depuis son origine, soit : l’évolutionnisme multilinéaire, l’école culturelle-historique, le processualisme, le néodarwinisme et le postprocessualisme. Les théories spécifiques (dites de « niveau mitoyen » ou « régionales ») qui ont été avancées par ces écoles sont présentées dans leur ordre chronologique, soit (principalement) : les théories de la dessiccation ou de l’oasis, des flancs de colline, de la périphérie, du stress démographique, du festin compétitif, de la révolution des symboles, etc. Ce mémoire pose enfin les jalons d’une théorie multifactorielle qui intègre ou synthétise les principaux facteurs qui ont pu influer sur la naissance de l’agriculture et sur la transition néolithique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Parmi les blessures sportives reliées au genou, 20 % impliquent le ligament croisé antérieur (LCA). Le LCA étant le principal stabilisateur du genou, une lésion à cette structure engendre une importante instabilité articulaire influençant considérablement la fonction du genou. L’évaluation clinique actuelle des patients ayant une atteinte au LCA présente malheureusement des limitations importantes à la fois dans l’investigation de l’impact de la blessure et dans le processus diagnostic. Une évaluation biomécanique tridimensionnelle (3D) du genou pourrait s’avérer une avenue innovante afin de pallier à ces limitations. L’objectif général de la thèse est de démontrer la valeur ajoutée du domaine biomécanique dans (1) l’investigation de l’impact de la blessure sur la fonction articulaire du genou et dans (2) l’aide au diagnostic. Pour répondre aux objectifs de recherche un groupe de 29 patients ayant une rupture du LCA (ACLD) et un groupe contrôle de 15 participants sains ont pris part à une évaluation biomécanique 3D du genou lors de tâches de marche sur tapis roulant. L’évaluation des patrons biomécaniques 3D du genou a permis de démontrer que les patients ACLD adoptent un mécanisme compensatoire que nous avons intitulé pivot-shift avoidance gait. Cette adaptation biomécanique a pour objectif d’éviter de positionner le genou dans une condition susceptible de provoquer une instabilité antérolatérale du genou lors de la marche. Par la suite, une méthode de classification a été développée afin d’associer de manière automatique et objective des patrons biomécaniques 3D du genou soit au groupe ACLD ou au groupe contrôle. Pour cela, des paramètres ont été extraits des patrons biomécaniques en utilisant une décomposition en ondelettes et ont ensuite été classifiés par la méthode du plus proche voisin. Notre méthode de classification a obtenu un excellent niveau précision, de sensibilité et de spécificité atteignant respectivement 88%, 90% et 87%. Cette méthode a donc le potentiel de servir d’outil d’aide à la décision clinique. La présente thèse a démontré l’apport considérable d’une évaluation biomécanique 3D du genou dans la prise en charge orthopédique de patients présentant une rupture du LCA; plus spécifiquement dans l’investigation de l’impact de la blessure et dans l’aide au diagnostic.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les cardiomyopathies sont une atteinte du myocarde qui se présente sous différentes formes telles que l’hypertrophie ou la dilatation des chambres cardiaques. Ces maladies du muscle cardiaque peuvent affecter la contraction cardiaque et dégénèrer en insuffisance cardiaque. Aussi, l’hypertrophie et l’insuffisance cardiaques sont associées à une augmentation de la morbidité et de la mortalité cardiovasculaires principalement due au remodelage électrique et à la survenue d’arythmies. De plus, le retard de repolarisation, associé à une diminution des courants K+, est un des troubles cardiaques les plus couramment observés lors de ces pathologies cardiaques. L’angiotensine II (Ang II) et la norépinéphrine, principaux effecteurs du système rénine-angiotensine et du système nerveux sympathique, peuvent tous deux agir directement sur le cœur en liant les récepteurs de type 1 de l’Ang II (AT1) et les récepteurs adrénergiques. L’Ang II et la norépinéphrine sont associées au développement des cardiomyopathies, au remodelage cardiaque et à une prolongation de la durée du potentiel d'action cardiaque. Deux modèles de souris trangéniques surexprimant spécifiquement au niveau cardiaque les récepteurs AT1 (la souris AT1R) ou les récepteurs α1B-adrénergiques (la souris α1B-AR) ont été créés afin d’étudier les effets de ces stimuli sur le cœur. Ces deux modèles de souris développent du remodelage cardiaque, soit de l’hypertrophie chez les souris AT1R (cardiomyopathie hypertrophique) ou une dilatation des chambres cardiaques chez les souris α1B-AR (cardiomyopathie dilatée). Au stade avancé de la maladie, les deux modèles de souris transgéniques sont insuffisants cardiaques. Des données préliminaires ont aussi montré que les souris AT1R et les souris α1B-AR ont une incidence accrue d’arythmies ainsi qu’une prolongation de la durée du potentiel d’action. De plus, ces deux modèles de souris meurent subitement et prématurément, ce qui laissait croire qu’en conditions pathologiques, l’activation des récepteurs AT1 ou des récepteurs α1B-adrénergiques pouvait affecter la repolarisation et causer l’apparition d’arythmies graves. Ainsi, l’objectif de ce projet était de caractériser la repolarisation ventriculaire des souris AT1R et α1B-AR afin de déterminer si la suractivation chronique des récepteurs de l’Ang II ou des récepteurs 1B-adrénergiques pouvait affecter directement les paramètres électrophysiologiques et induire des arythmies. Les résultats obtenus ont révélé que les souris AT1R et les souris α1B-AR présentent un retard de repolarisation (prolongation de l’intervalle QTc (dans l’électrocardiogramme) et de la durée du potentiel d’action) causé par une diminution des courants K+ (responsables de la repolarisation). Aussi, l’incidence d’arythmies est plus importante dans les deux groupes de souris transgéniques comparativement à leur contrôle respectif. Finalement, nous avons vu que les troubles de repolarisation se produisent également dans les groupes de souris transgéniques plus jeunes, avant l’apparition de l’hypertrophie ou du remodelage cardiaque. Ces résultats suggèrent qu’en conditions pathologiques, l’activation chronique des récepteurs de l’Ang II ou des récepteurs α1B-adrénergiques peut favoriser le développement d’arythmies en retardant la repolarisation et cela, indépendamment de changements hémodynamiques ou du remodelage cardiaque. Les résultats de ces études pourront servir à comprendre les mécanismes responsables du développement d’arythmies cardiaques lors du remodelage et de l’insuffisance cardiaques et pourraient aider à optimiser le choix des traitements chez ces patients atteints ou à risque de développer de l’hypertrophie ou du remodelage cardiaque.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse en cotutelle avec Université de Nantes - Pays de La Loire - France (2005-2010)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les toxines de l’anthrax font partie de la famille des toxines A-B dans laquelle la moitié B se fixe à la membrane de la cellule permettant par la suite la translocation de la moitié A. Dans le cas de l’anthrax, la moitié B est représentée par le Protective Antigen (PA) et la moitié A par les deux protéines Edema Factor (EF) et Lethal Factor (LF). Après le recrutement par les récepteurs cellulaires (CMG2 et TEM8), PA s’organise en heptamère. Il peut fixer jusqu'à 3 ligands (EF et LF) avant d'être endocyté. Les modèles actuels de PA suggèrent que la baisse de pH à l’intérieur des endosomes permet un changement de conformation de la forme pré-pore vers la forme pore et que les ligands EF et LF passeraient au travers le pore pour entrer dans le cytoplasme. Cependant, le diamètre du pore est environ dix fois inférieur à celui des ligands (10 Å contre 100 Å). Un processus de folding/unfolding a été proposé mais demeure controversé. Afin d'identifier le processus de passage des facteurs EF et LF dans le cytoplasme, nous avons déterminé par cryo-microscopie électronique combinée avec l’analyse d’image les structures tridimensionnelles des complexes formés par PA et LF aux étapes prépore et pore. Par la suite, une étude complémentaire par dynamique moléculaire nous a permis de modéliser à haute résolution les différentes interactions qui ont lieu au sein du complexe. La structure 3D du complexe prépore combiné à 3 LF a été déterminée à une résolution de 14 Å. Nous avons aussi calculé une structure préliminaire du complexe pore également combiné à 3 LF Celles-ci n’ont jamais été résolues auparavant et leur connaissance permet d’envisager l’étude en profondeur du mécanisme infectieux de l’Anthrax in vivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durant une infection pulmonaire, les porcs sont souvent infectés par plus d’un microorganisme. Actinobacillus pleuropneumoniae et le virus du syndrome reproducteur et respiratoire porcin (VSRRP) sont des pathogènes qui peuvent infecter de manière simultanée les porcs. L’objectif du présent projet est d’étudier l’interaction entre ces pathogènes. Les deux lignées cellulaires permissives au VSRRP utilisées sont les cellules « St-Jude porcine lung » (SJPL) et MARC-145. Les cellules ont été pré-infectées avec le VSRRP, puis infectées avec A. pleuropneumoniae. Un dosage de la lactate déshydrogénase a montré qu’une co-infection VSRRP-A. pleuropneumoniae comparée à une infection simple augmente significativement la cytotoxicité. Dans les mêmes conditions expérimentales, une pré-infection virale ne semble pas affecter l’adhérence d’A. pleuropneumoniae aux cellules. À l’aide de tests ELISA, il a été possible de démontrer la production d’IL-8 et d’INF-γ lorsqu’il y a infection des cellules. Pour ce qui est du TNF-α, d’IL-6 et d’IL-10, ces cytokines ne sont pas détectées en présence des pathogènes étudiés. Des expériences de pré-infection bactérienne suivie d’infection virale ont également été réalisées. Il a été démontré que la pré-infection avec A. pleuropneumoniae diminuait la réplication du VSRRP chez la lignée cellulaire SJPL, mais cela n’est pas observé avec la lignée cellulaire MARC-145. Les résultats préliminaires ont démontré que cette diminution de la réplication serait causée par une molécule de faible poids moléculaire sécrétée dans le surnageant bactérien et celle-ci serait résistante à la chaleur. Les lignées cellulaires SJPL et MARC-145 représentent de bons modèles pour l’étude des infections mixtes des voies respiratoires du porc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audede la phase initiale de développement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.