959 resultados para Réseaux de Petri colorés
Resumo:
Les microARN (miARN) sont de petits ARN non-codants qui répriment la traduction de leurs gènes cibles par hybridation à leur ARN messager (ARNm). L'identification de cibles biologiquement actives de miARN est cruciale afin de mieux comprendre leurs rôles. Ce problème est cependant difficile parce que leurs sites ne sont définis que par sept nucléotides. Dans cette thèse je montre qu'il est possible de modéliser certains aspects des miARN afin d'identifier leurs cibles biologiquement actives à travers deux modélisations d'un aspect des miARN. La première modélisation s'intéresse aux aspects de la régulation des miARN par l'identification de boucles de régulation entre des miARN et des facteurs de transcription (FT). Cette modélisation a permis, notamment, d'identifier plus de 700 boucles de régulation miARN/FT, conservées entre l'humain et la souris. Les résultats de cette modélisation ont permis, en particulier, d'identifier deux boucles d'auto-régulation entre LMO2 et les miARN miR-223 et miR-363. Des expériences de transplantation de cellules souches hématopoïétiques et de progéniteurs hématopoïétiques ont ensuite permis d'assigner à ces deux miARN un rôle dans la détermination du destin cellulaire hématopoïétique. La deuxième modélisation s'intéresse directement aux interactions des miARN avec les ARNm afin de déterminer les cibles des miARN. Ces travaux ont permis la mise au point d'une méthode simple de prédiction de cibles de miARN dont les performances sont meilleures que les outils courant. Cette modélisation a aussi permis de mettre en lumière certaines conséquences insoupçonnées de l'effet des miARN, telle que la spécificité des cibles de miARN au contexte cellulaire et l'effet de saturation de certains ARNm par les miARN. Cette méthode peut également être utilisée pour identifier des ARNm dont la surexpression fait augmenter un autre ARNm par l'entremise de miARN partagés et dont les effets sur les ARNm non ciblés seraient minimaux.
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.
Resumo:
Cette thèse comporte trois essais sur les interactions sociales en sciences économiques. Ces essais s’intéressent à la fois au côté théeorique qu’empirique des interactions sociales. Le premier essai (chapitre 2) se concentre sur l’étude (théorique et empirique) de la formation de réseaux sociaux au sein de petites économies lorsque les individus ont des préférences homophilique et une contrainte de temps. Le deuxième essai (chapitre 3) se concentre sur l’étude (principalement empirique) de la formation de réseau sociaux au sein de larges économies où les comportement d’individus très distants sont aproximativement indépendants. Le dernier essai (chapitre 4) est une étude empirique des effets de pairs en éducation au sein des écoles secondaires du Québec. La méthode structurelle utilisée permet l’identification et l’estimation de l’effet de pairs endogène et des effets de pairs exogènes, tout en contrôlant pour la présence de chocs communs.
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.
Resumo:
Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.
Resumo:
Réalisé au sein de l'IRCAM, en cotutelle avec Philippe Leroux. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal.
Resumo:
Depuis plus de cinquante ans, les puissances occidentales ont créé toutes sortes de réseaux militaires internationaux, afin de renforcer leurs liens et harmoniser leurs techniques, leurs équipements et leurs façons de faire. Jusqu’à ce jour, ces regroupements sont demeurés largement ignorés de la discipline des relations internationales. Or, la mondialisation des échanges et l’essor des technologies de l’information ont ouvert les processus politiques à de nouveaux acteurs, y compris en matière de sécurité, jetant un éclairage nouveau sur le rôle, la mission et les responsabilités que les États délèguent à ces réseaux. En menant une analyse approfondie d’un réseau militaire, le Multinational Interoperability Council, cette recherche a pour objectifs de définir les réseaux militaires internationaux en tant que catégorie d’analyse des relations internationales, de documenter empiriquement leur fonctionnement et de mieux comprendre leur rôle dans le champ de la sécurité internationale. Pour ce faire, la démarche propose de recourir à l’appareil conceptuel de l’institutionnalisme relationnel, de la théorie des champs et du tournant pratiques en relations internationales. Cette combinaison permet d’aborder les dimensions institutionnelle, cognitive et pratique de l’action collective au sein du réseau étudié. L’analyse nous apprend que, malgré une influence limitée, le MIC produit une identité, des capacités, des préférences et des effets qui lui sont propres. Les acteurs du MIC ont eux-mêmes généré certaines conditions de son institutionnalisation, et sont parvenus à faire du réseau, d’abord conçu comme une structure d’échanges d’informations, un acteur intentionnel du champ de la sécurité internationale. Le MIC ne peut agir de façon autonome, sans contrôle des États. Cependant, les relations établies entre les militaires qui y participent leur offrent des capacités – le capital social, politique et d’expertise – dont ils ne disposeraient pas autrement, et qu’ils peuvent mobiliser dans leurs interactions avec les autres acteurs du champ.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
L’expansion de l’organisation de la production des biens et services sous forme de réseau, découlant de la recherche de flexibilité face à une concurrence économique accrue, soulève des enjeux importants pour les relations industrielles. Notre thèse s’intéresse au processus de précarisation des emplois dans les segments externalisés des réseaux de production. Elle se base sur trois études de cas portant sur les réseaux de services publics et privés d’aide à domicile au Québec. Les études en droit critique ont montré que le droit du travail, fondé sur le modèle de l’entreprise intégrée et de la relation d’emploi bipartite, ne parvient pas à identifier comme employeurs certaines organisations dont l’action a pourtant un effet déterminant sur les conditions de travail dans les réseaux. Notre thèse visait donc à mettre en lumière la réalité empirique des relations de pouvoir qui traversent les réseaux et leurs effets et ce à partir d’un modèle analytique transdisciplinaire intégrant les dimensions juridiques et sociologiques. Les résultats nous amènent d’abord à constater que l’employeur juridique des travailleuses employées par les prestataires privés intégrés aux réseaux – une majorité de femmes – est le plus souvent une agence de location de personnel, une entreprise d’économie sociale ou même l’usager-ère des services d’aide à domicile. Cet employeur est rarement identifié aux organismes publics, donc sous l’égide de l’État, qui exercent un pouvoir prépondérant dans ces réseaux. Le décalage entre la régulation juridique du travail et la réalité empirique du pouvoir intra-réseau entraîne une précarisation de la protection sociale et des conditions de travail de ces travailleuses. Ainsi, la faible protection de leurs droits de représentation et de négociation collectives facilite l’imposition de la « disponibilité permanente juste-à-temps », combinant les logiques du lean et du travail domestique, ainsi qu’une déqualification sexuée et racialisée de leurs emplois par rapport à la situation dans le secteur public. Notre étude montre néanmoins que certaines pratiques innovatrices d’action collective réticulaire ont pu influencer la dynamique de pouvoir, en particulier celles portées par des associations locales de personnes handicapées recourant aux services et par un syndicat de travailleuses d’agence.
Resumo:
Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.
Resumo:
Les réseaux organiques covalents (COFs) sont des réseaux bidimensionnels et tridimensionnels assemblés seulement par des atomes légers, c’est-à-dire de la première et deuxième rangée du tableau périodique. Ceux-ci ont montré des propriétés de porosité pouvant être exploitées dans le stockage, dans la catalyse et dans la séparation moléculaire. La plupart de ces matériaux ont été obtenus par une réaction finale de condensation, ce qui nuit à leurs cristallisations, donc à l’homogénéité et à la caractérisation détaillée de ces matériaux. Les p-xylylènes de Thiele et Tschitschibabin sont des molécules qui ont suscité l’intérêt pour leurs structures et leurs propriétés magnétiques. Subséquemment, Wittig a démontré que le remplacement des fragments diphénylméthylène par des fragments fluorénylidène sur le p-xylylène de Thiele donne des molécules pouvant s’oligomériser pour former un tétramère. Dans notre étude, nous avons examiné l’assemblage de dérivés fluorénylidène dans le but d’obtenir un COF. Tout d’abord, un dérivé linéaire similaire à ce que Wittig a obtenu a été synthétisé afin de vérifier l’assemblage à partir d’un cœur spirobifluorényle. Ces molécules se sont assemblées en tétramère, comme prévu, et en hexamère. Ces deux résultats ont pu être rationalisés par une étude à l’état solide par diffraction des rayons-X. L’empilement tridimensionnel a également été étudié pour ces deux molécules. Subséquemment, des dérivés tétraédriques ont été synthétisés afin d’étudier leurs assemblages. Un premier dérivé est resté sous sa forme quinoïdale et ne s’est pas assemblé, alors qu’un second dérivé a mené à un dimère partiellement assemblé. La structure de ce dernier suggère la formation d’un polymère linéaire pour ce composé dans le cas où il aurait été possible de l’assembler complètement.