991 resultados para Chimie des surfaces et des interfaces


Relevância:

100.00% 100.00%

Publicador:

Resumo:

[« L'être et l'écran » de Stéphane Vial] ne se limite pas à revendiquer le droit des philosophes, un droit désormais reconnu, à s'occuper de web, d'applications, d’algorithmes et d'interfaces : il va bien au-delà de cette constatation pour encadrer l'ensemble des instruments techniques qui engendrent le web dans la pertinence d'une analyse philosophique, voire phénoménologique, qui les prend en compte en tant qu'instruments « phénoménotechniques », instruments qui « font le monde et nous le donne » et déterminent « la qualité de notre expérience d'exister. [...]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

International audience

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire traite de la chimie des complexes pinceurs de nickel (II) cationiques ayant un ligand de type POCOP. Elle se divise en deux parties. La première traite de la synthèse, de la caractérisation et de la réactivité des complexes cationiques pinceurs de Ni(II) de type POCOP (POCOP = 1,3-bis(phosphinitobenzene), où C fait partie d’un cycle benzénique et est lié au métal, et P est un ligand phosphoré aussi lié au métal). Ces complexes ont un ligand acétonitrile coordonné au centre métallique et sont du type [(R-POCOPR’)Ni(NCMe)][OSO2CF3], où R est un substituant du cycle benzénique et R’ est un substituant sur le ligand phosphoré (R’ = iPr: R = H (1), p-Me(2), p-OMe(3), p-CO2Me(4), p-Br(5), m,m-tBu2(6), m-OMe(7), m-CO2Me(8); R’ = t-Bu : R = H (9), p-CO2Me(10)). Les complexes cationiques sont préparés en faisant réagir le dérivé Ni(II) neutre correspondant R-(POCOPR’)Ni-Br avec Ag(OSO2CF3¬) dans l’acétonitrile à température ambiante. L’impact des groupements R et R’ du ligand POCOP sur la structure et sur les propriétées électroniques du complexe a été étudié par spectroscopies RMN, UV-VIS et IR, analyse électrochimique, et diffraction des rayons X. Les valeurs de fréquence du lien C≡N (ν(C≡N)) augmentent avec le caractère électroattracteur du complexe, dans l’ordre 7 < 3 ~ 2 ~ 6 < 1 < 5 ~ 8 < 4 et 9 < 10. Ces résultats sont en accord avec le fait qu’une augmentation du caractère électrophile du centre métallique devrait résulter en une augmentation de la donation σ MeCN→Ni. De plus, les complexes cationiques montrent tous un potentiel d’oxydation Ni(II)/Ni(III) plus élevé que leurs analogues neutres Ni-Br. Ensuite, une étude d’équilibre entre un complexe neutre (R-POCOPR’)NiBr et un complexe cationique [(R-POCOPR’)Ni(NCMe)][OSO2CF3] démontre l’échange facile des ligands MeCN et Br. La deuxième partie de ce mémoire consiste en deux chapitres. Le premier (Chapitre 3) est une étude structurelle permettant une meilleure compréhension du mécanisme d’hydroamination des oléfines activées promue par les complexes présentés au chapitre 1, suivi de tentatives de synthèse de nouveaux composés POCOP cationiques comportant un ligand amine et nitrile, et de déplacement du groupement amine par un groupement nitrile. Le deuxième chapitre (4) décrit la réactivité et la cinétique de la réaction d’hydroamination et d’hydroalkoxylation d’oléfines activées, qui permet ainsi de mieux comprendre l’impact des différentes variables du système (groupements R et R’, température, substrats, solvent, etc.) sur la réactivité catalytique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire traite de la chimie des complexes pinceurs de nickel (II) cationiques ayant un ligand de type POCOP. Elle se divise en deux parties. La première traite de la synthèse, de la caractérisation et de la réactivité des complexes cationiques pinceurs de Ni(II) de type POCOP (POCOP = 1,3-bis(phosphinitobenzene), où C fait partie d’un cycle benzénique et est lié au métal, et P est un ligand phosphoré aussi lié au métal). Ces complexes ont un ligand acétonitrile coordonné au centre métallique et sont du type [(R-POCOPR’)Ni(NCMe)][OSO2CF3], où R est un substituant du cycle benzénique et R’ est un substituant sur le ligand phosphoré (R’ = iPr: R = H (1), p-Me(2), p-OMe(3), p-CO2Me(4), p-Br(5), m,m-tBu2(6), m-OMe(7), m-CO2Me(8); R’ = t-Bu : R = H (9), p-CO2Me(10)). Les complexes cationiques sont préparés en faisant réagir le dérivé Ni(II) neutre correspondant R-(POCOPR’)Ni-Br avec Ag(OSO2CF3¬) dans l’acétonitrile à température ambiante. L’impact des groupements R et R’ du ligand POCOP sur la structure et sur les propriétées électroniques du complexe a été étudié par spectroscopies RMN, UV-VIS et IR, analyse électrochimique, et diffraction des rayons X. Les valeurs de fréquence du lien C≡N (ν(C≡N)) augmentent avec le caractère électroattracteur du complexe, dans l’ordre 7 < 3 ~ 2 ~ 6 < 1 < 5 ~ 8 < 4 et 9 < 10. Ces résultats sont en accord avec le fait qu’une augmentation du caractère électrophile du centre métallique devrait résulter en une augmentation de la donation σ MeCN→Ni. De plus, les complexes cationiques montrent tous un potentiel d’oxydation Ni(II)/Ni(III) plus élevé que leurs analogues neutres Ni-Br. Ensuite, une étude d’équilibre entre un complexe neutre (R-POCOPR’)NiBr et un complexe cationique [(R-POCOPR’)Ni(NCMe)][OSO2CF3] démontre l’échange facile des ligands MeCN et Br. La deuxième partie de ce mémoire consiste en deux chapitres. Le premier (Chapitre 3) est une étude structurelle permettant une meilleure compréhension du mécanisme d’hydroamination des oléfines activées promue par les complexes présentés au chapitre 1, suivi de tentatives de synthèse de nouveaux composés POCOP cationiques comportant un ligand amine et nitrile, et de déplacement du groupement amine par un groupement nitrile. Le deuxième chapitre (4) décrit la réactivité et la cinétique de la réaction d’hydroamination et d’hydroalkoxylation d’oléfines activées, qui permet ainsi de mieux comprendre l’impact des différentes variables du système (groupements R et R’, température, substrats, solvent, etc.) sur la réactivité catalytique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ. La prise en compte des troubles de la communication dans l’utilisation des systèmes de recherche d’information tels qu’on peut en trouver sur le Web est généralement réalisée par des interfaces utilisant des modalités n’impliquant pas la lecture et l’écriture. Peu d’applications existent pour aider l’utilisateur en difficulté dans la modalité textuelle. Nous proposons la prise en compte de la conscience phonologique pour assister l’utilisateur en difficulté d’écriture de requêtes (dysorthographie) ou de lecture de documents (dyslexie). En premier lieu un système de réécriture et d’interprétation des requêtes entrées au clavier par l’utilisateur est proposé : en s’appuyant sur les causes de la dysorthographie et sur les exemples à notre disposition, il est apparu qu’un système combinant une approche éditoriale (type correcteur orthographique) et une approche orale (système de transcription automatique) était plus approprié. En second lieu une méthode d’apprentissage automatique utilise des critères spécifiques , tels que la cohésion grapho-phonémique, pour estimer la lisibilité d’une phrase, puis d’un texte. ABSTRACT. Most applications intend to help disabled users in the information retrieval process by proposing non-textual modalities. This paper introduces specific parameters linked to phonological awareness in the textual modality. This will enhance the ability of systems to deal with orthographic issues and with the adaptation of results to the reader when for example the reader is dyslexic. We propose a phonology based sentence level rewriting system that combines spelling correction, speech synthesis and automatic speech recognition. This has been evaluated on a corpus of questions we get from dyslexic children. We propose a specific sentence readability measure that involves phonetic parameters such as grapho-phonemic cohesion. This has been learned on a corpus of reading time of sentences read by dyslexic children.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présence importante de plusieurs réseaux sans-fils de différentes portées a encouragée le développement d’une nouvelle génération d’équipements portables sans-fils avec plusieurs interfaces radio. Ainsi, les utilisateurs peuvent bénéficier d’une large possibilité de connectivité aux réseaux sans-fils (e.g. Wi-Fi [1], WiMAX [2], 3G [3]) disponibles autour. Cependant, la batterie d’un nœud mobile à plusieurs interfaces sera rapidement épuisée et le temps d’utilisation de l’équipement sera réduit aussi. Pour prolonger l’utilisation du mobile les standards, des réseaux sans-fils, on définie (individuellement) plusieurs états (émission, réception, sleep, idle, etc.); quand une interface radio n’est pas en mode émission/réception il est en mode sleep/idle où la consommation est très faible, comparée aux modes émission/réception. Pourtant, en cas d’équipement portable à multi-interfaces radio, l’énergie totale consommée par les interfaces en mode idle est très importante. Autrement, un équipement portable équipé de plusieurs interfaces radio augmente sa capacité de connectivité mais réduit sa longévité d’utilisation. Pour surpasser cet inconvénient on propose une plate-forme, qu'on appelle IMIP (Integrated Management of Interface Power), basée sur l’extension du standard MIH (Media Independent Handover) IEEE 802.21 [4]. IMIP permet une meilleure gestion d’énergie des interfaces radio, d’un équipement mobile à multi-radio, lorsque celles-ci entrent en mode idle. Les expérimentations que nous avons exécutées montrent que l’utilisation de IMIP permet d'économiser jusqu'a 80% de l'énergie consommée en comparaison avec les standards existants. En effet, IMIP permet de prolonger la durée d'utilisation d'équipements à plusieurs interfaces grâce à sa gestion efficace de l'énergie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude porte sur la dimension intersubjective de la souffrance qui affecte le rapport du souffrant à son corps, au temps et à l’espace vécus de même que son identité narrative et sa mémoire narrative. Mon argument principal est que la voix narrative constitue le rapport intersubjectif dans les récits de maladie que les proches écrivent sur leurs partenaires souffrant de cancer de cerveau ou de la maladie d’Alzheimer. Ma discussion est basée sur l’éthique, la phénoménologie, les théories de l’incorporation, les études des récits de vie, la sociologie et l’anthropologie médicales et la narratologie. L’objet de mon étude est l’expérience incorporée de la souffrance dans les récits de maladie et je me concentre sur la souffrance comme perte de la mémoire et du soi narratif. J’analyse le journal How Linda Died de Frank Davey et les mémoires de John Bayley, Iris: A Memoir of Iris Murdoch et Iris and Her Friends: A Memoir of Memory and Desire. J’explore comment les récits de maladie constituent le rapport éthique à l’Autre souffrant de la rupture de la mémoire. La discussion de la voix est située dans le contexte des récits de vie et se propose de dépasser les limites des approches sociologiques et anthropologiques de la voix dans les récits de maladie. Dans ce sens, dans un premier temps je porte mon attention sur des études narratologiques de la voix en indiquant leurs limites. Ma propre définition de la voix narrative est basée sur l’éthique dans la perspective d’Emmanuel Levinas et de Paul Ricœur, sur l’interprétation du temps, de la mémoire et de l’oubli chez St-Augustin et la discussion levinasienne de la constitution intersubjective du temps. J’avance l’idée que la “spontanéité bienveillante” (Ricœur, Soi-même comme un autre 222) articule la voix narrative et l’attention envers l’Autre souffrant qui ne peut plus se rappeler, ni raconter sa mémoire. En reformulant la définition augustinienne du temps qui met en corrélation les modes temporels avec la voix qui récite, j’avance l’idée que la voix est distendue entre la voix présente de la voix présente, la voix présente de la voix passée, la voix présente de la voix future. Je montre comment la voix du soignant est inscrite par et s’inscrit dans les interstices d’une voix interrompue, souffrante. Je définis les récits de vies comme des interfaces textuelles entre le soi et l’Autre, entre la voix du soi et la voix du souffrant, comme un mode de restaurer l’intégrité narrative de l’Autre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire décrit le développement d’une nouvelle méthodologie d’expansion de cycle irréversible à partir de N-alkyl-3,4-déhydroprolinols pour former des N-alkyl tétrahydropyridines 3-substituées en passant par un intermédiaire aziridinium bicyclique. Cette méthode permet l’introduction d’un vaste éventail de substituants à la position 3 et tolère bien la présence de groupements aux positions 2 et 6, donnant accès à des pipéridines mono-, di- ou trisubstituées avec un excellent diastéréocontrôle. De plus, il est démontré que l’information stéréogénique du 3,4-déhydroprolinol de départ est totalement transférée vers le produit tétrahydropyridine. Additionnellement, une méthodologie fut dévelopée pour la préparation des produits de départ 3,4-déhydroprolinols en forme énantiopure, avec ou sans substituants aux positions 2 et 5, avec un très bon stéréocontrôle. Le premier chapitre présente un résumé de la littérature sur le sujet, incluant un bref survol des méthodes existantes pour la synthèse de pipéridines 3-substituées, ainsi qu’une vue d’ensemble de la chimie des aziridiniums. L’hypothèse originale ainsi que le raisonnement pour l’entreprise de ce projet y sont également inclus. Le second chapitre traite de la synthèse des N-alkyl-3,4-déhydroprolinols utilisés comme produits de départ pour l’expansion de cycle vers les tétrahydropyridines 3-substituées, incluant deux routes synthétiques différentes pour leur formation. Le premier chemin synthétique utilise la L-trans-4-hydroxyproline comme produit de départ, tandis que le deuxième est basé sur une modification de la réaction de Petasis-Mannich suivie par une métathèse de fermeture de cycle, facilitant l’accès aux précurseurs pour l’expansion de cycle. Le troisième chapitre présente une preuve de concept de la viabilité du projet ainsi que l’optimisation des conditions réactionnelles pour l’expansion de cycle. De plus, il y est démontré que l’information stéréogénique des produits de départs est transférée vers les produits. iv Au quatrième chapitre, l’étendue des composés pouvant être synthétisés par cette méthodologie est présentée, ainsi qu’une hypothèse mécanistique expliquant les stéréochimies relatives observées. Une synthèse énantiosélective efficace et divergente de tétrahydropyridines 2,3-disubstituées est également documentée, où les deux substituants furent introduits à partir d’un intermédiaire commun en 3 étapes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’une des particularités fondamentales caractérisant les cellules végétales des cellules animales est la présence de la paroi cellulaire entourant le protoplaste. La paroi cellulaire joue un rôle primordial dans (1) la protection du protoplaste, (2) est impliquée dans les mécanismes de filtration et (3) est le lieu de maintes réactions biochimiques nécessaires à la régulation du métabolisme et des propriétés mécaniques de la cellule. Les propriétés locales d’élasticité, d’extensibilité, de plasticité et de dureté des composants pariétaux déterminent la géométrie et la forme des cellules lors des processus de différentiation et de morphogenèse. Le but de ma thèse est de comprendre les rôles que jouent les différents composants pariétaux dans le modelage de la géométrie et le contrôle de la croissance des cellules végétales. Pour atteindre cet objectif, le modèle cellulaire sur lequel je me suis basé est le tube pollinique ou gamétophyte mâle. Le tube pollinique est une protubérance cellulaire qui se forme à partir du grain de pollen à la suite de son contact avec le stigmate. Sa fonction est la livraison des cellules spermatiques à l’ovaire pour effectuer la double fécondation. Le tube pollinique est une cellule à croissance apicale, caractérisée par la simple composition de sa paroi et par sa vitesse de croissance qui est la plus rapide du règne végétal. Ces propriétés uniques font du tube pollinique le modèle idéal pour l’étude des effets à courts termes du stress sur la croissance et le métabolisme cellulaire ainsi que sur les propriétés mécaniques de la paroi. La paroi du tube pollinique est composée de trois composantes polysaccharidiques : pectines, cellulose et callose et d’une multitude de protéines. Pour comprendre les effets que jouent ces différents composants dans la régulation de la croissance du tube pollinique, j’ai étudié les effets de mutations, de traitements enzymatiques, de l’hyper-gravité et de la gravité omni-directionnelle sur la paroi du tube pollinique. En utilisant des méthodes de modélisation mathématiques combinées à de la biologie moléculaire et de la microscopie à fluorescence et électronique à haute résolution, j’ai montré que (1) la régulation de la chimie des pectines est primordiale pour le contrôle du taux de croissance et de la forme du tube et que (2) la cellulose détermine le diamètre du tube pollinique en partie sub-apicale. De plus, j’ai examiné le rôle d’un groupe d’enzymes digestives de pectines exprimées durant le développement du tube pollinique : les pectate lyases. J’ai montré que ces enzymes sont requises lors de l’initiation de la germination du pollen. J’ai notamment directement prouvé que les pectate lyases sont sécrétées par le tube pollinique dans le but de faciliter sa pénétration au travers du style.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À l’ère du web 2.0, l’usage des sites web se multiplie et génère de nouveaux enjeux. La satisfaction en rapport à l’interactivité, facteur d’efficacité des sites, détermine la popularité, et donc la visibilité de ceux-ci sur la Toile. Par conséquent, dans cette étude, nous considérons que les utilisateurs ont un rôle à jouer lors du processus de conception de ces derniers. Certes, autant en théorie que dans la pratique, les concepteurs semblent bel et bien tenir compte des utilisateurs; toutefois, ils ne les intègrent pas comme participants actifs dans leurs démarches. Cette étude vise au moyen d’une recherche documentaire et d’observations sur le terrain à comprendre les principales catégories et morphologies des sites web ainsi que les usages qui en découlent. Une analyse des diverses démarches de conception et des perceptions et attentes des internautes est réalisée sur la base de ces résultats. Pour répondre à ces objectifs, cette analyse cible deux catégories de sites réalisés par des professionnels et par des amateurs. Celle-ci nous permet de démontrer que les résultats de chacune de ces démarches, exprimés à travers les interfaces graphiques des sites, diffèrent au niveau de la qualité perceptible. Cette étude souligne également l’importance d’un traitement efficace de la communication graphique des éléments des sites web, afin de structurer la lecture et transmettre au final un message clair et compréhensible aux internautes. Dans le but consolider nos propositions, nous faisons référence à deux théories de communication graphique, la Gestalt et la sémiotique, l’une s’intéressant à la perception visuelle, l’autre à l’interprétation des signes. Celles-ci se sont révélées pertinentes pour analyser la qualité et l’efficacité des éléments de contenus. Notre étude révèle que les participants ne sont pas satisfaits des deux sites testés car l’utilisabilité du site conçu par des professionnels est trop complexe et l’interface du site conçu par un amateur manque de professionnalisme et de cohérence. Ces résultats soulignent la pertinence d’une approche centrée sur l’utilisateur pour la conception de sites web, car elle permet d’identifier et de résoudre des erreurs de conception. Nos résultats permettent également de souligner que les professionnels ayant un savoir technique et théorique se démarquent des amateurs au niveau des intervenants, des outils et des limites. Des pistes de solution, via des critères de design centré sur l’utilisateur, sont proposées à la fin de cette étude dans le but d’optimiser la qualité et l’efficacité des interfaces graphiques web.