321 resultados para pour-on
Resumo:
Le mécanisme biologique responsable pour l’augmentation de l’expression de la protéine nestin dans les cellules souches neurales (CSN) du cœur après un infarctus du myocarde (IM) demeure inconnu. Des études antérieures ont démontré que le traitement au dexamethasone, un glucocorticoïde aux propriétés anti-inflammatoires, abolit la régulation positive de nestin après un IM. Ceci suggère un lien avec la réponse inflammatoire. Nous avons vérifié dans cette étude l’hypothèse que la cytokine inflammatoire interleukin-1beta (IL-1beta) peut modifier le phénotype de cellules souches neurales. Le deuxième objectif de l’étude fut d’établir l’impact, suivant un IM, de l’inhibition de la signalisation de IL-1beta sur la fonction et la guérison cardiaque. Suite à une ligature complète de l’artère coronaire du rat mâle, le dysfonctionnement contractile du ventricule gauche fut associé à une régulation positive de la protéine nestin dans le myocarde non-infarci. Le traitement avec Xoma 052 (1 mg/kg), un anticorps anti-IL-1beta, 24h, 7 et 14 jours après un évènement ischémique, eu aucun effet sur la taille de l’infarctus ou la contractilité du ventricule gauche. De plus, le traitement avec Xoma 052 après un IM n’a pu supprimer l’augmentation de l’expression de nestin et Bcl-2 malgré une réduction modeste du niveau de la protéine Bax. Pour déterminer directement le rôle de la réponse inflammatoire en l’absence d’ischémie, nous avons injecté des rats mâles avec du LPS (10mg/kg, 18hrs). Dans le coeur du rat-LPS, nous avons noté une augmentation significative du niveau d’ARNm de IL-1beta et de l’expression de la protéine nestin. Le prétraitement avec 10mg/kg de Xoma 052 a aboli l’augmentation de l’expression de nestin dans le coeur des rats-LPS. Ces observations indiquent que les cellules souches neurales pourraient représenter une cible potentielle de l’IL-1beta.
Resumo:
"Suite à plus de deux années de recherches, le projet de l’American Bar Association (ABA) concernant la juridiction du cyberespace, « Achieving Legal and Business Order in Cyberspace: A Report on Global Jurisdiction Issues Created by the Internet », a été publié dans l’édition du mois d’août 2000 de la revue juridique The Business Lawyer. Ce rapport poursuivait deux objectifs distincts : Tout d’abord, effectuer une analyse globale des complexités potentielles entourant les conflits juridictionnels découlant du commerce en ligne. Ensuite, élaborer une liste exhaustive des solutions pouvant être utilisées pour résoudre de tels conflits. Le présent article se veut un résumé concis et accessible des trois grandes sections du « Cyberspace Jurisdiction Report » : (1) les solutions proposées aux problèmes juridictionnels découlant des conflits résultant du commerce électronique ; (2) afin d’appuyer les solutions proposées : l’utilisation d’exemples d’occasions où la technologie a déjà, par le passé, causé la métamorphose de certains paradigmes juridictionnels; et (3) afin d’appuyer les solutions proposées : l’utilisation d’un contexte doctrinal."
Resumo:
Le réseau Internet s’avère être un outil important pour les juristes. Il rend possible la constitution d’une base de données juridiques, la création de revues de droit, la mise sur pied de forums de discussion sur les questions de droit, la diffusion d’ouvrages, etc. Le réseau Internet facilite les recherches en droit, car grâce aux bases des données, les juristes peuvent facilement accéder notamment aux textes légaux et réglementaires, à la jurisprudence et aux textes de doctrine. Cependant, Internet peut également servir à résoudre les conflits qui surviennent dans les rapports entre les internautes ou entre les internautes et les opérateurs du réseau Internet. La cyberjustice existe déjà, à petite échelle. L’on peut se permettre de mentionner le Centre de médiation et d’arbitrage de l’OMPI, le Virtual Magistrate, l’Online Ombuds Office, le CyberTribunal et le Règlement Uniforme de l’ICANN. S’il faut saluer les efforts qui ont abouti à l’existence de ces instances de cyberjustice, il convient pourtant de reconnaître leurs limites. En effet, ces diverses formes de cyberjustice ont un caractère privé et demeurent incapables d’assurer la répression des infractions. Ensuite, elles ne tiennent pas compte du déséquilibre des rapports entre télétravailleurs et employeurs, puisqu’elles reconnaissent à ces deux groupes des droits équivalents quant au choix de la juridiction et des règles applicables. Enfin, en l’état actuel de la cyberjustice, le sens de la justice est sacrifié à la célérité. Certains droits reconnus aux parties — celui de jouir d’un double degré de juridiction en particulier — sont ignorés. Ces faits montrent bien la nécessité de concevoir des modèles d’institutions plus appropriés en vue de l’instauration d’un certain ordre dans le réseau Internet. C’est dans cette optique que la présente étude offre quelques modèles de juridictions virtuelles, dont une juridiction virtuelle répressive.
Resumo:
1er Prix du concours d'initiation à la recherche organisé par le Regroupement Droit et Changements. La Loi sur les Indiens institutionnalise toujours de nombreuses facettes de ce qu’est être « Indien » pour beaucoup d’individus au Canada et un changement de perspective doit être opéré. Cet essai puise dans la pensée du philosophe Theodor Adorno pour réfléchir aux tentatives de reconnaissance juridique par le Canada des individus et sociétés autochtones en vertu de l’article 35 de la Constitution. L’auteur présente la théorie de la dialectique négative d’Adorno de 1966 sur le rapport à l’altérité, à partir de l’analyse de la professeure Drucilla Cornell, afin d’identifier ce que sa pensée prescrit pour établir des rapports non-oppressants entre Autochtones et non-Autochtones et leurs gouvernements aujourd’hui. La dialectique négative est particulièrement appropriée à la tentative de reconnaissance juridique de l’existence des sociétés autochtones par le Canada, du fait de leur statut marginalisé et de leurs revendications à la spécificité. Après avoir établi un tel cadre, l’auteur souligne que des précédentes tentatives de reconnaissances se sont soldées par des échecs en raison des désaccords au niveau des valeurs impliquées et des concepts utilisés auxquels elles ont donné lieu. Le processus de signature des traités numérotés de 1871-1921 est employé comme illustration en raison de son résultat souvent décrit aujourd’hui comme coercitif et injuste en dépit du discours de négociation sur un pied d’égalité l’ayant accompagné. Les critiques contemporaines de la politique en vigueur de mise en œuvre de l’autonomie gouvernementale autochtone par des accords négociés sont également présentées, afin d’illustrer que des désaccords quant à la manière dont l’État canadien entend reconnaître les peuples autochtones persistent à ce jour. L’auteur ajoute que, du point de vue de la dialectique négative, de tels désaccords doivent nécessairement être résolus pour que des rapports moins oppressifs puissent être établis. L’auteur conclut que la dialectique négative impose à la fois de se considérer soi-même (« je est un autre ») et de considérer l’autre comme au-delà des limites de sa propre pensée. La Cour suprême a déjà reconnu que la seule perspective de la common law n’est pas suffisante pour parvenir à une réconciliation des souverainetés des Autochtones et de la Couronne en vertu de la Constitution. Le concept de common law de fiduciaire présente un véhicule juridique intéressant pour une reconfiguration plus profonde par le gouvernement canadien de son rapport avec les peuples autochtones, priorisant processus plutôt que résultats et relations plutôt que certitude. Il doit toutefois être gardé à l’esprit que la reconnaissance de ces peuples par l’État canadien par le prisme de la pensée d’Adorno présente non seulement le défi d’inclure de nouvelles perspectives, mais également de remettre en cause les prémisses fondamentales à partir desquelles on considère la communauté canadienne en général.
Resumo:
L’Europe est à l’heure actuelle en pleine mutation. D’une part, elle s’est élargie en acceptant de nouveaux États passant ainsi de quinze à vingt-cinq membres. D’autre part, elle s’est dotée d’un traité constitutionnel appelé Projet de traité établissant une Constitution pour l'Europe. Celui-ci a été approuvé en juin 2004. Il sera au cœur de notre recherche. Doter l’Union européenne d’un nouvel acte conduit incontestablement à se poser une multitude de questions concernant l’acte lui-même mais également ses conséquences. Que faut-il entendre par « traité établissant une Constitution pour l’Europe » ? Quels seront les effets d’un tel acte au regard du droit communautaire existant et des législations nationales ? Cette recherche répondra à ces questions et offrira un éclairage particulier du traité. Elle sera plus particulièrement axée sur la Cour de justice qui assure le respect du droit dans l’interprétation et l’application de la Constitution (article 28 du projet). Comment les juges devront-ils se comporter par rapport au traité ? Leur action sera-t-elle légitime ? Le débat sera ouvert sur l’interprétation que les juges feront de cette nouvelle norme.
Resumo:
L’auteur fonde son argument sur l’importance déterminante des conséquences économiques de la numérisation sur l’évolution des droits d’auteur afférant à la musique. La musique numérisée correspondant à un bien public, les prix de sa négociation tendent vers 0, et seules les contraintes légales telles que les droits d’auteur ou les ententes sur les prix, qui sont généralement proscrites par les lois sur la concurrence, peuvent sauver l’entrant intrépide ou l’opérateur mis sur le sable. Alors que les propriétaires de droits d’auteur maximisent leurs profits en prônant l’extension de leur champ d’application et en poursuivant leur application par les tribunaux, leur valeur sociale est mesurée en termes d’efficacité pour la promotion de l’innovation. L’industrie de la musique a projeté le champ d’application des droits d’auteur si grossièrement loin au–delà des limites de la raison par rapport à la musique numérisée que leur position légale sera attaquée inlassablement sur tous les fronts, que ce soit par une banalisation des infractions, ou par la résistance devant les tribunaux ou par des campagnes visant une réforme législative.
Resumo:
Cet article présente le chapitre 11 de l’ALÉNA à titre de question d’actualité non seulement juridique mais également sociale et politique. Après avoir retracé son origine historique et expliqué la controverse qui y est relative ainsi que ses implications, l’auteur analyse l’impact du chapitre en posant trois questions: le chapitre 11 de l’ALÉNA a-t-il l’effet recherché ? A-t-il des effets secondaires ? Quelle est leur importance relative ? Afin de combler une lacune dans la doctrine existante, une analyse globale des poursuites et des jugements déjà rendus est effectuée, tableaux de travail à l’appui, État par État. Ceci permet de constater notamment que les États-Unis n’ont jamais été condamnés à payer des dommages-intérêts en vertu de ce chapitre alors que les entreprises américaines ont raflé la quasi-totalité des dommages-intérêts payés par le Canada et le Mexique. Les entreprises canadiennes n’ont jamais obtenu de dommages-intérêts en vertu de ce chapitre. On constate aussi que le Canada est actuellement l’État poursuivi pour le montant le plus élevé en vertu de ce chapitre et que les poursuites intentées contre le Canada se sont multipliées par quatre, ce qui n’augure pas bien de l’avenir.
Resumo:
"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."
Resumo:
"Selon la théorie officielle de l’interprétation des lois, le législateur est l’émetteur d’un message, le texte de loi son support et l’interprète son récepteur. Le contenu du message transmis, c’est-à-dire le sens de la loi, est entièrement déterminé avant même que l’interprète n’en prenne connaissance; il repose dans le texte, en attente d’être découvert. Le rôle du juge se résume donc à lire le texte et à l’appliquer, certains diront presque mécaniquement, aux faits qui lui sont soumis. En fait, sa mission consiste à rechercher l’intention souveraine du législateur et à lui donner effet. Il est de plus en plus reconnu que la doctrine officielle de l’interprétation des lois dresse de la fonction juridictionnelle un portrait à la fois réducteur et trompeur. À tout le moins, on admet généralement que l’interprétation de la loi est une activité qui implique que le juge fasse des choix en fonction de ses propres valeurs et croyances. Mise de l’avant par Friedrich Müller, la théorie structurante du droit va plus loin en posant le juriste comme le véritable créateur de la norme juridique. Plus conforme à la réalité, ce modèle reconnaît au juge une liberté accrue, mais le contraint à faire preuve d’une plus grande transparence et à assumer la responsabilité de ses choix. Le présent texte a pour objet de démontrer les avantages de remplacer la conception traditionnelle de l’interprétation des lois par une conception structurante du droit. "
Resumo:
L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà, sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.
Resumo:
"En mai 2004, l’Union européenne connaissait un élargissement sans précédent, passant soudainement de 15 à 24 pays membres. Cet élargissement s’est opéré dans un contexte mondial marqué par une sécurisation accrue des migrations ; une tendance à laquelle l’Union Européenne ne saurait échapper. Cet élargissement constitue, aujourd’hui encore, un défi fondamental pour l’UE qui d’un côté craint pour sa sécurité en multipliant les politiques restrictives à l’endroit des migrations et qui, de l’autre, se doit d’intégrer ces dix nouveaux membres, pour la plupart issus de l’ancien bloc soviétique et n’ayant par conséquent que très peu d’expériences et de moyens en matière de contrôle migratoire ; ce domaine ayant été pendant plus de 60 ans l’apanage du pouvoir central de Moscou. Le défi à relever est d’autant plus grand si l’on considère le fait que ces nouveaux membres se situent géographiquement aux frontières centrales et orientales de l’Europe et en constituent ainsi l’une des plus importantes portes d’entrées. En imposant à ces nouveaux membres la reprise intégrale de l’acquis communautaire, sans tenir compte des spécificités géographiques, historiques, économiques et politiques de ces pays, l’Union européenne risque de payer le prix d’une politique hypocrite et aveugle et de favoriser la multiplication d’effets pervers, pouvant aller jusqu’à compromettre, à terme, la stabilité de la région."
Resumo:
Un papier bioactif est obtenu par la modification d’un papier en y immobilisant une ou plusieurs biomolécules. La recherche et le développement de papiers bioactifs est en plein essor car le papier est un substrat peu dispendieux qui est déjà d’usage très répandu à travers le monde. Bien que les papiers bioactifs n’aient pas connus de succès commercial depuis la mise en marche de bandelettes mesurant le taux de glucose dans les années cinquante, de nombreux groupes de recherche travaillent à immobiliser des biomolécules sur le papier pour obtenir un papier bioactif qui est abordable et possède une bonne durée de vie. Contrairement à la glucose oxidase, l’enzyme utilisée sur ces bandelettes, la majorité des biomolécules sont très fragiles et perdent leur activité très rapidement lorsqu’immobilisées sur des papiers. Le développement de nouveaux papiers bioactifs pouvant détecter des substances d’intérêt ou même désactiver des pathogènes dépend donc de découverte de nouvelles techniques d’immobilisation des biomolécules permettant de maintenir leur activité tout en étant applicable dans la chaîne de production actuelle des papiers fins. Le but de cette thèse est de développer une technique d’immobilisation efficace et versatile, permettant de protéger l’activité de biomolécules incorporées sur des papiers. La microencapsulation a été choisie comme technique d’immobilisation car elle permet d’enfermer de grandes quantités de biomolécules à l’intérieur d’une sphère poreuse permettant leur protection. Pour cette étude, le polymère poly(éthylènediimine) a été choisi afin de générer la paroi des microcapsules. Les enzymes laccase et glucose oxidase, dont les propriétés sont bien établies, seront utilisées comme biomolécules test. Dans un premier temps, deux procédures d’encapsulation ont été développées puis étudiées. La méthode par émulsion produit des microcapsules de plus petits diamètres que la méthode par encapsulation utilisant un encapsulateur, bien que cette dernière offre une meilleure efficacité d’encapsulation. Par la suite, l’effet de la procédure d’encapsulation sur l’activité enzymatique et la stabilité thermique des enzymes a été étudié à cause de l’importance du maintien de l’activité sur le développement d’une plateforme d’immobilisation. L’effet de la nature du polymère utilisé pour la fabrication des capsules sur la conformation de l’enzyme a été étudié pour la première fois. Finalement, l’applicabilité des microcapsules de poly(éthylèneimine) dans la confection de papiers bioactifs a été démontré par le biais de trois prototypes. Un papier réagissant au glucose a été obtenu en immobilisant des microcapsules contenant l’enzyme glucose oxidase. Un papier sensible à l’enzyme neuraminidase pour la détection de la vaginose bactérienne avec une plus grande stabilité durant l’entreposage a été fait en encapsulant les réactifs colorimétriques dans des capsules de poly(éthylèneimine). L’utilisation de microcapsules pour l’immobilisation d’anticorps a également été étudiée. Les avancées au niveau de la plateforme d’immobilisation de biomolécules par microencapsulation qui ont été réalisées lors de cette thèse permettront de mieux comprendre l’effet des réactifs impliqués dans la procédure de microencapsulation sur la stabilité, l’activité et la conformation des biomolécules. Les résultats obtenus démontrent que la plateforme d’immobilisation développée peut être appliquée pour la confection de nouveaux papiers bioactifs.
Resumo:
Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.
Resumo:
Ce mémoire porte sur l’efficacité des campagnes sociales sur Internet afin d’encourager les jeunes adultes à voter. La constatation du déclin de la participation électorale des jeunes adultes nous a poussés à vouloir comprendre quels sont les enjeux qui touchent à cette problématique et comment les campagnes sociales incitatives au vote peuvent répondre à un certain besoin. La campagne électorale des élections générales canadiennes du 2 mai 2011, durant laquelle plusieurs outils Internet ont été développés pour inciter la population à voter, le plus connu étant la Boussole électorale, a constitué un contexte clé pour nous permettre d’explorer le sujet. À l’aide des théories sur l’influence des médias et de celles de la persuasion, nous allons mieux comprendre les possibilités qu’offre le Web pour la mobilisation sociale. Deux cueillettes de données ont été faites, soit une première quantitative par questionnaire pour voir le niveau de pénétration de ces outils Internet ainsi que leur appréciation, soit une deuxième qualitative par groupe de discussion afin d’approfondir la problématique de la désaffection politique et d’analyser la pertinence des campagnes sociales incitatives au vote. La mise en commun des résultats nous a permis de comprendre, entre autres, que les campagnes sociales sur Internet peuvent constituer un outil de conscientisation politique dans certaines circonstances et qu’elles peuvent bénéficier des réseaux sociaux comme Facebook et Twitter. Toutefois, le besoin d’éducation civique demeure une solution récurrente lorsqu’on parle d’encourager les jeunes adultes à voter.
Resumo:
La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.