947 resultados para Techniques d’animation 3D et synthèse d’images
Resumo:
L’estradiol (E2) est une hormone femelle qui joue un rôle essentiel, à la fois dans la régulation et dans la détermination de certaines conditions physiologiques in vivo, telle que la différenciation et la prolifération cellulaire. Lorsque l’E2 est donné en supplément, par exemple dans le cas de thérapie hormonale, deux effets sont observés, un effet génomique et un effet non-génomique, de par son interaction avec les récepteurs à œstrogène du noyau ou de la membrane cellulaire, respectivement. L’effet non-génomique est plus difficile à étudier biologiquement parce que l’effet se produit sur une échelle de temps extrêmement courte et à cause de la nature hydrophobe de l’E2 qui réduit sa biodisponibilité et donc son accessibilité aux cellules cibles. C’est pourquoi il est nécessaire de développer des systèmes d’administration de l’E2 qui permettent de n’étudier que l’effet non-génomique de l’œstrogène. Une des stratégies employée consiste à greffer l’E2 à des macromolécules hydrophiles, comme de l’albumine de sérum bovin (BSA) ou des dendrimères de type poly(amido)amine, permettant de maintenir l’interaction de l’E2 avec les récepteurs d’œstrogène de la membrane cellulaire et d’éviter la pénétration de l’E2 dans le noyau des cellules. Toutefois, ces systèmes macromolécules-E2 sont critiquables car ils sont peu stables et l’E2 peut se retrouver sous forme libre, ce qui affecte sa localisation cellulaire. L’objectif de cette thèse est donc de développer de nouvelles plateformes fonctionnalisées avec de l’E2 en utilisant les approches de synthèses ascendantes et descendantes. Le but de ces plateformes est de permettre d’étudier le mécanisme de l’effet non-génomique de l’E2, ainsi que d’explorer des applications potentielles dans le domaine biomédical. L’approche ascendante est basée sur un ligand d’E2 activé, l’acide 17,α-éthinylestradiol-benzoïque, attaché de façon covalente à un polymère de chitosan avec des substitutions de phosphorylcholine (CH-PC-E2). L’estradiol est sous forme de pro-drogue attachée au polymère qui s’auto-assembler pour former un film. L’effet biologique de la composition chimique du film de chitosan-phosphorylcholine a été étudié sur des cellules endothéliales. Les films de compositions chimiques différentes ont préalablement été caractérisés de façon physicochimique. La topographie de la surface, la charge de surface, ainsi que la rhéologie des différents films contenant 15, 25, ou 40% molaires de phosphorylcholine, ont été étudiés par microscopie à force atomique (AFM), potentiel zêta, résonance plasmonique de surface et par microbalance à cristal de quartz avec dissipation (QCM-D). Les résultats de QCM-D ont montré que plus la part molaire en phosphorylcholine est grande moins il y a de fibrinogène qui s’adsorbe sur le film de CH-PC. Des cellules humaines de veine ombilicale (HUVECs) cultivées sur des films de CH-PC25 et de CH-PC40 forment des amas cellulaire appelés sphéroïdes au bout de 4 jours, alors que ce n’est pas le cas lorsque ces cellules sont cultivées sur des films de CH-PC15. L’attachement de l’estradiol au polymère a été caractérisé par plusieurs techniques, telles que la résonance magnétique nucléaire de proton (1H NMR), la spectroscopie infrarouge avec transformée de Fourier à réfraction totale atténuée (FTIR-ATR) et la spectroscopie UV-visible. La nature hydrogel des films (sa capacité à retenir l’eau) ainsi que l’interaction des films avec des récepteurs à E2, ont été étudiés par la QCM-D. Des études d’imagerie cellulaires utilisant du diacétate de diaminofluoresceine-FM ont révélé que les films hydrogels de CH-PC-E2 stimulent la production d’oxyde nitrique par les cellules endothéliales, qui joue un rôle protecteur pour le système cardiovasculaire. L’ensemble de ces études met en valeur les rôles différents et les applications potentielles qu’ont les films de type CH-PC-E2 et CH-PC dans le cadre de la médecine cardiovasculaire régénérative. L’approche descendante est basée sur l’attachement de façon covalente d’E2 sur des ilots d’or de 2 μm disposés en rangées et espacés par 12 μm sur un substrat en verre. Les ilots ont été préparés par photolithographie. La surface du verre a quant à elle été modifiée à l’aide d’un tripeptide cyclique, le cRGD, favorisant l’adhésion cellulaire. L’attachement d’E2 sur les surfaces d’or a été suivi et confirmé par les techniques de SPR et de QCM-D. Des études d’ELISA ont montré une augmentation significative du niveau de phosphorylation de la kinase ERK (marqueur important de l’effet non-génomique) après 1 heure d’exposition des cellules endothéliales aux motifs alternant l’E2 et le cRGD. Par contre lorsque des cellules cancéreuses sont déposées sur les surfaces présentant des motifs d’E2, ces cellules ne croissent pas, ce qui suggère que l’E2 n’exerce pas d’effet génomique. Les résultats de l’approche descendante montrent le potentiel des surfaces présentant des motifs d’E2 pour l’étude des effets non-génomiques de l’E2 dans un modèle in vitro.
Resumo:
Depuis l'année 1960, jusqu'au début des années '90, une institution financière, dite coopérative, s'est imposée sur le marché au Québec, accumulant durant cette période près de un milliard et demi de dollars (1 500 000 000,00 $) d'actifs. Presque jusqu'à sa "mort" coopérative, elle a connu des taux de croissance atteignant soixante pourcent (60%) par année. Beaucoup de personnes ont perdu des sommes importantes dans cette galère. L'image des coopératives en a pris pour son rhume et n'eût été du Mouvement Desjardins, nous doutons fort que la coopération aujourd'hui encore bénéficierait des mêmes appuis! Cette institution financière se nomme : le mouvement des caisses d'entraide économique. Pour éviter une situation semblable dans l'avenir, nous croyons pertinent de faire un retour dans le passé et d'analyser les comportements que ces caisses privilégiaient. À la lecture de ce travail, certains seront surpris de connaître les méthodes utilisées par elles et, à notre avis, le peu de dimension coopérative qu'on apportait avec les membres. Leur "faillite technique" en '81 a obligé le Gouvernement du Québec à réagir en conséquence. C'est alors que fut créé au Ministère des Institutions Financières un service d'inspection opérant avec des règles et des suivis relativement élaborés. On se rappelle qu'à cette époque aussi plusieurs banques à charte canadiennes ont connu des problèmes financiers majeurs, nécessitant l'intervention de l'État fédéral. Il a donc fallu des situations critiques avant qu'on apporte les correctifs requis, et cela même si le gouvernement de l'époque savait par un rapport secret depuis 1978, l'existence d'un problème potentiel! En 1979, alors que nous étions à l'emploi du Mouvement Desjardins, nous nous sommes intéressés à leurs techniques de ventes et à leur fonctionnement parce que certains dirigeants, gestionnaires et recruteurs des Caisses d'Entraide Économique laissaient courir le bruit que leur réseau était regroupé avec le Mouvement Desjardins, et aussi parce que leur agressivité causait des saignées de fonds très importantes dans les caisses populaires. On profitait ainsi de la grande crédibilité et confiance accordées à Desjardins pour accroître les ventes de leurs plans d'épargne. En collaboration avec certaines fédérations, nous avons compilé plusieurs informations pour fins d'analyse et de compréhension de leur système. Peu de temps après le début de ce travail, des problèmes majeurs au niveau de la liquidité, de la sécurité des fonds et de privilèges accordés à certains de leurs membres ont été soulevés au réseau TVA. Dès lors, étant donné la précarité de leur système financier, les membres n'avaient plus accès à leurs épargnes. La confiance en cette institution financière fut détruite presque sur le coup. […]
Resumo:
The sedimentary architecture of basins and passive margins is determined by a complex interaction of parameters, including subsidence, eustasy, and sediment supply. A quantification of the post-rift (20 Ma-0 Ma) vertical movements of the Gulf of Lion (West Mediterranean) is proposed here based on the stratigraphic study of sedimentary paleomarkers using a large 3D grid of reflection seismic data, correlations with existing drillings, and refraction data. Post-rift subsidence was measured by the direct use of sedimentary geometries analysed in 3D and validated by numerical stratigraphic modelling. Three domains of subsidence were found: on the continental shelf and slope, subsidence corresponds to a seaward tilting with different amplitudes, whereas the deep basin subsides purely vertically. We show that these domains fit with the deeper crustal domains highlighted by previous geophysical data, and that post-break-up subsidence follows the initial hinge lines of the rifting phase. Subsidence rates are quantified on each domain for each stratigraphic interval. At a constant distance from the rotational hinge line, the Plio-Quaternary subsidence rate is constant on the shelf overall. Conversely, Miocene subsidence rates are very different on the eastern and western shelves. Stratigraphic simulations focused on the Messinian salinity crisis (MSC) were also performed. Their results are discussed together with our post-rift subsidence estimates in order to provide ideas and hypotheses for future detailed quantifications of Miocene subsidence, including isostatic readjustments linked to the MSC.
Resumo:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
Resumo:
Résumé : Cette juxtaposition de matériaux solides -blocs, pierres ou briques,...- liés ou non entre eux que nous appelons maçonnerie ne se comporte pas très bien vis-à-vis des forces latérales, surtout si elle n’a pas été réalisée suivant les normes parasismiques ou de façon adéquate. Cette vulnérabilité (glissement, cisaillement, déchirure en flexion, ou tout autre) vient souvent du fait même de ce processus d’empilement, des problèmes d’interaction avec le reste de la structure et aussi à cause des caractéristiques mécaniques peu fiables de certains éléments utilisés. Malgré cette défaillance structurale, la maçonnerie est encore utilisée aujourd’hui grâce à son côté traditionnel, sa facilité de mise en œuvre et son coût d’utilisation peu élevé. Depuis quelques années, la maçonnerie s’est enrichie de documents qui ont été publiés par divers chercheurs dans le but d’une meilleure compréhension des caractéristiques mécaniques des éléments et aussi, et surtout, des mécanismes de rupture des murs de maçonnerie pour une meilleure réponse face aux sollicitations sismiques. Beaucoup de programmes expérimentaux ont alors été effectués et tant d’autres sont encore nécessaires. Et c’est dans ce contexte que cette recherche a été conduite. Elle présentera, entre autres, le comportement sous charges latérales d’un mur en maçonnerie armée entièrement rempli de coulis. Ce projet de recherche fait partie d’un programme plus large visant à une meilleure connaissance du comportement sismique de la maçonnerie pour une amélioration des techniques de construction et de réparation des ouvrages en maçonnerie.
Resumo:
L’objectif de l’essai est d’identifier la stratégie optimale de cotation énergétique des habitations au Québec. À partir des expériences internationales, l’essai évalue, à l’aide d’une analyse multicritère, s’il est plus optimal pour le Québec (scénario A) de continuer à coter la performance énergétique des habitations existantes dans le programme Rénoclimat actuellement en vigueur (hors transactions immobilières) ou (scénario B) d’implanter un système de cotation énergétique pour les habitations lors des transactions immobilières en mode volontaire ou (scénario C) de l’implanter en mode réglementaire. Pour réduire la consommation énergétique et les émissions de gaz à effet de serre des bâtiments, de plus en plus de pays adoptent des législations en matière de cotation énergétique lors des transactions immobilières. Or, au Québec, il existe seulement des programmes de cotation énergétique des habitations existantes hors transactions immobilières dont la participation se fait sur une base volontaire. De plus, des exigences minimales de performance énergétique réglementaires pour les habitations neuves sont en vigueur depuis 2012, mais peu de mécanismes de renforcement sont utilisés pour en assurer le respect. Globalement, selon l’analyse multicritère, dans le cas où un soutien politique est offert et où les ressources financières, techniques, humaines, informatiques et législatives sont disponibles, et ce, tout au long du développement du projet, mais aussi lors de la phase d’opération, le scénario C permet de rencontrer un maximum de bénéfices. Sinon, pour éviter d’investir des ressources humaines et financières supplémentaires, de modifier la législation et de gérer une mise en œuvre complexe, il est possible de continuer à opérer le scénario A. Par contre, ce scénario ne permet pas de développer le plein potentiel de la cotation énergétique. Pour optimiser ce scénario, il est suggéré de renforcir certains éléments du programme. Enfin, il est déconseillé d’implanter le scénario B, à moins qu’il soit temporaire et accompagné d’une annonce dès le début de l’arrivée du système de cotation énergétique en mode réglementaire. En effet, l’analyse multicritère a permis de faire ressortir que les très rares et faibles impacts positifs du scénario B ne font pas le poids face aux ressources requises pour le mettre en œuvre. Dans le cas où l’implantation du scénario C est envisagée, il importe de rappeler que pour profiter des bénéfices estimés, des ressources importantes doivent être investies afin de respecter les nombreux facteurs clés de réussite. Le potentiel du scénario C peut être déployé seulement si ces conditions sont réunies pour s’assurer de la fiabilité du système et, par conséquent, pour assurer l’acceptabilité du public.
Resumo:
Cette étude s’intéresse à la façon dont l’enveloppe du bâtiment s’est développée au Québec depuis l’industrialisation des procédés de construction, soit vers le milieu du XIXe siècle, jusqu’à nos jours. L’étude cherche à recenser l’ensemble des critères, de nature technique, social, historique, économique ou autre, qui influencent nos façons de penser, de construire et d’entretenir l’enveloppe, et ultimement nos approches d’intervention. Ce travail comporte trois volets principaux. La première partie vise à définir le contexte de la conservation en lien avec les enjeux liés à l’enveloppe du bâtiment. Une recherche documentaire a été pas la suite réalisée autant dans des ouvrages à propension théorique que dans d’autres plus techniques, pour comprendre comment est traitée l’enveloppe, ici et ailleurs. Enfin une synthèse de l’ensemble des études devait permettre de dégager la façon dont l’enveloppe du bâtiment est comprise, diagnostiquée et traitée dans le cadre de la réhabilitation des édifices. Les résultats de ce mémoire confirment que plusieurs facteurs influencent la conception et la réalisation de l’enveloppe. Ils confirment surtout que ces facteurs sont peu tenus en compte dans la cadre actuel de la conservation. Il est souhaitable que la réflexion entamée dans ce projet de recherche puisse se poursuivre, en vue de développer un outil d’accompagnement pour les professionnels spécialisés dans ce domaine. Mots-clés : Enveloppe, identité, histoire, matériau, système, assemblage, façade, performance, conservation, réhabilitation. Envelope, enclosure, identity, history, component, system, assembly, facade, performance, conservation, refurbishment, rehabilitation.
Resumo:
Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.
Resumo:
Les matériaux conjugués ont fait l’objet de beaucoup de recherches durant les dernières années. Les nouveaux matériaux présentent des propriétés intéressantes que ce soit au niveau optique, électrique, mécanique ou même les trois en même temps. La synthèse reste la difficulté principale dans la fabrication de dispositifs électroniques. Les méthodes utilisées pour y parvenir sont l’électropolymérisation, le couplage de Suzuki ou de Wittig. Ces techniques comportent encore de nombreuses contraintes et s’avèrent difficilement réalisables à grande échelle. Les thiophènes, les pyrroles et les furanes ont démontré une bonne conductibilité et une bande de conduction basse due à une conjugaison accrue. L’objectif ici est de synthétiser des oligomères principalement composés de thiophènes dans le but d’en caractériser les propriétés spectroscopiques, électrochimiques et de conduction. La synthèse est souvent l’étape délicate de la fabrication de matériaux conjugués. Nous présentons ici une méthode de synthèse simple par modules avec des unités hétérocycliques. Les modules complémentaires sont attachés par condensation entre un aldéhyde et une amine menant à la formation d’un lien robuste, l’azomethine. Les résultats des propriétés photophysiques et électrochimiques de ces matériaux conjugués seront présentés. En ayant recours à différents groupes électrodonneurs et électroaccepteurs, en variant le degré de conjugaison ou en utilisant différents hétérocycles, les propriétés spectroscopiques, électrochimiques et de bande de conduction peuvent être adaptées à volonté, ce qui en fait des matériaux aux propriétés modelables. Ces nouvelles molécules seront analysées pour en déceler les propriétés recherchées dans la fabrication d’OLED. Nous explorerons les domaines de l’oxidation electrochimique réversible et de la polymérisation menant à la fabrication de quelques prototypes simples.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
Resumo:
Le présent mémoire a pour sujet le développement d’une méthode rapide et efficace vers la production d’allènes hautement substitués à partir de dérivés cyclopropaniques électrophiles énantioenrichis. L’avancement de méthodes synthétiques intéressantes pour la production asymétrique de ces dérivés de cyclopropane-1,1-diesters sera également présenté. Dans un premier temps, les différentes méthodes de synthèses des cyclopropanes activés seront abordées, ainsi que leur utilisation dans la préparation de molécules plus complexes. Par la suite, les techniques précédentes de préparation asymétrique des allènes seront introduites, démontrant ainsi la difficulté de leur accessibilité. Le développement d’une méthode fiable pour la synthèse de cyclopropane-1,1-diesters utilisant les ylures d’iodonium sera présenté. Finalement, l’accessibilité à plusieurs types d’allènes hautement substitués par l’utilisation de cuprates sera détaillée. Dans une seconde partie, il sera davantage question de l’accessibilité des cyclopropane-1,1-diesters énantioenrichis. Ces derniers sont d’un intérêt particulier, car ils constituent le point de départ de notre méthodologie précédente. Le développement d’une méthode pouvant être utilisée à grande échelle et à faible coût a donc été explorée. Les deux derniers chapitres présenteront donc les tentatives de générer ces cyclopropanes activés par résolution cinétique ou encore par l’hydrogénation asymétrique des cyclopropènes correspondants.
Resumo:
Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.