986 resultados para Réseau magnétique
Resumo:
"Sur un ton humoristique, les auteurs avouent être des voleurs… d’idées. À quoi riment les lois sur le droit d’auteur demandent-ils ? À l’origine, ce ne sont pas les droits des créateurs que le souverain ou l’État voulait protéger, mais bien les privilèges des éditeurs. Et d’où vient qu’on ait ainsi accordé à ces derniers le droit exclusif de publier ? C’est que dès l’invention de l’imprimerie, les hommes de pouvoir ont bien vu la menace que représentait pour eux la dissémination des idées : le calcul qu’ils ont fait a profité aux imprimeurs. Le phénomène n’est pas étranger à l’existence des permis de radiodiffusion / télévision existant de nos jours dans nos États démocratiques ; et l’histoire se répète comme on l’observe aujourd’hui quant à la régulation du réseau Internet. Quand les éditeurs se rendirent compte qu’ils ne pouvaient plus avoir la main haute sur tout ce qui se publiait, ils ont pris prétexte du droit des créateurs pour protéger leurs propres intérêts. Ni l’éthique ni l’esthétique ne motivaient les éditeurs , mais bien leurs seuls intérêts commerciaux, légitimes au demeurant. Deux factions s’opposent aujourd’hui quant à la question du droit des auteurs à l’ère numérique. La vieille garde se bat pour préserver à peu de choses près le statu quo tandis que ses vis-à-vis proclament la mort du droit d’auteur tel qu’il a existé. Et quel modèle nouveau préconisent ces derniers ? En fait, ils ne s’opposent pas à toute forme de protection pour ceux qui traditionnellement en ont bénéficié, mais songent à des mécanismes nouveaux …, de sorte que la vieille garde n’a pas à s’en faire outre mesure. Le fond du problème est ailleurs soutiennent MM. Benyekhlef et Tresvant : même si les avocats plaideront que ce ne sont pas les idées, mais bien la forme particulière qu’un créateur a choisie pour les exprimer qu’on protège par les lois sur le droit d’auteur, cela ne change rien. Dès qu’une idée est exprimée et fixée d’une certaine manière, il devient plus difficile de l’exprimer à nouveau puisqu’une partie du champ virtuel qu’elle pouvait occuper est déjà conquise, à bon droit selon le droit actuel. Il faut en conclure que le droit d’auteur nouveau, comme le droit d’auteur traditionnel, est une entrave à la libre circulation des idées."
Resumo:
Cet article est un plaidoyer pour l’intégration de mesures protectrices de la vie privée au cœur même de la technologie. Cette adaptation est un pré-requis indispensable à la confiance du consommateur dans le réseau des réseaux. Sans véhicule Internet fiable et libéré de ses vices cachés, il demeure illusoire d’espérer, à moyen terme, attirer et conserver des clients électroniques.
Resumo:
Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne l’auteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Église, à une souveraineté laïque, celle de l'État, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourd’hui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, l’auteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'État d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à l’aube de l’ère numérique.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà, sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.
Resumo:
La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.
Resumo:
BACKGROUND & AIMS: Manganese (Mn) deposition could be responsible for the T(1)-weighted magnetic resonance signal hyperintensities observed in cirrhotic patients. These experiments were designed to assess the regional specificity of the Mn increases as well as their relationship to portal-systemic shunting or hepatobiliary dysfunction. METHODS: Mn concentrations were measured in (1) brain samples from basal ganglia structures (pallidum, putamen, caudate nucleus) and cerebral cortical structures (frontal, occipital cortex) obtained at autopsy from 12 cirrhotic patients who died in hepatic coma and from 12 matched controls; and from (2) brain samples (caudate/putamen, globus pallidus, frontal cortex) from groups (n = 8) of rats either with end-to-side portacaval anastomosis, with biliary cirrhosis, or with fulminant hepatic failure as well as from sham-operated and normal rats. RESULTS: Mn content was significantly increased in frontal cortex (by 38\%), occipital cortex (by 55\%), pallidum (by 186\%), putamen (by 66\%), and caudate (by 54\%) of cirrhotic patients compared with controls. Brain Mn content did not correlate with patient age, etiology of cirrhosis, or history of chronic hepatic encephalopathy. In cirrhotic and portacaval-shunted rats, Mn content was increased in pallidum (by 27\% and 57\%, respectively) and in caudate/putamen (by 57\% and 67\%, respectively) compared with control groups. Mn concentration in pallidum was significantly higher in portacaval-shunted rats than in cirrhotic rats. No significant changes in brain Mn concentrations were observed in rats with acute liver failure. CONCLUSIONS: These findings suggest that brain Mn deposition results both from portal-systemic shunting and from liver dysfunction.
Resumo:
Amongst the potential neurotoxins implicated in the pathogenesis of hepatic encephalopathy, manganese emerges as a new candidate. In patients with chronic liver diseases, manganese accumulates in blood and brain leading to pallidal signal hyperintensity on T1-weighted Magnetic Resonance (MR) Imaging. Direct measurements in globus pallidus obtained at autopsy from cirrhotic patients who died in hepatic coma reveal 2 to 7-fold increases of manganese concentration. The intensity of pallidal MR images correlates with blood manganese and with the presence of extrapyramidal symptoms occurring in a majority of cirrhotic patients. Liver transplantation results in normalization of pallidal MR signals and disappearance of extrapyramidal symptoms whereas transjugular intrahepatic portosystemic shunting induces an increase in pallidal hyperintensity with a concomitant deterioration of neurological dysfunction. These findings suggest that the toxic effects of manganese contribute to extrapyramidal symptoms in patients with chronic liver disease. The mechanisms of manganese neurotoxicity are still speculative, but there is evidence to suggest that manganese deposition in the pallidum may lead to dopaminergic dysfunction. Future studies should be aimed at evaluating the effects of manganese chelation and/or of treatment of the dopaminergic deficit on neurological symptomatology in these patients.
Resumo:
BACKGROUND/AIMS: It has been proposed that, in acute liver failure, skeletal muscle adapts to become the principle organ responsible for removal of blood-borne ammonia by increasing glutamine synthesis, a reaction that is catalyzed by the cytosolic ATP-dependent enzyme glutamine synthetase. To address this issue, glutamine synthetase expression and activities were measured in skeletal muscle of rats with acute liver failure resulting from hepatic devascularization. METHODS: Glutamine synthetase protein and gene expression were investigated using immunoblotting and semi-quantitative RT-PCR analysis. Glutamine synthetase activity and glutamine de novo synthesis were measured using, respectively, a standard enzymatic assay and [13C]-nuclear magnetic resonance spectroscopy. RESULTS: Glutamine synthetase protein (but not gene) expression and enzyme activities were significantly up-regulated leading to increased de novo synthesis of glutamine and increased skeletal muscle capacity for ammonia removal in acute liver failure. In contrast to skeletal muscle, expression and activities of glutamine synthetase in the brain were significantly decreased. CONCLUSIONS: These findings demonstrate that skeletal muscle adapts, through a rapid induction of glutamine synthetase, to increase its capacity for removal of blood-borne ammonia in acute liver failure. Maintenance of muscle mass together with the development of agents with the capacity to stimulate muscle glutamine synthetase could provide effective ammonia-lowering strategies in this disorder.
Resumo:
Dans les études sur le transport, les modèles de choix de route décrivent la sélection par un utilisateur d’un chemin, depuis son origine jusqu’à sa destination. Plus précisément, il s’agit de trouver dans un réseau composé d’arcs et de sommets la suite d’arcs reliant deux sommets, suivant des critères donnés. Nous considérons dans le présent travail l’application de la programmation dynamique pour représenter le processus de choix, en considérant le choix d’un chemin comme une séquence de choix d’arcs. De plus, nous mettons en œuvre les techniques d’approximation en programmation dynamique afin de représenter la connaissance imparfaite de l’état réseau, en particulier pour les arcs éloignés du point actuel. Plus précisément, à chaque fois qu’un utilisateur atteint une intersection, il considère l’utilité d’un certain nombre d’arcs futurs, puis une estimation est faite pour le restant du chemin jusqu’à la destination. Le modèle de choix de route est implanté dans le cadre d’un modèle de simulation de trafic par événements discrets. Le modèle ainsi construit est testé sur un modèle de réseau routier réel afin d’étudier sa performance.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
L’état d’attention sans réflexion, aussi appelé « mindfulness », a démontré des effets positifs en clinique pour les désordres émotionnels associés à diverses conditions. Le nombre d’études portant sur la caractérisation des substrats neuronaux de cet état attentionnel croît, mais il importe d’investiguer davantage à ce chapitre pour éventuellement améliorer les interventions cliniques. La présente étude compte aider à déterminer, par la magnétoencéphalographie, quelles régions cérébrales sont en corrélation avec le mindfulness chez des experts, i.e. des méditants Zen. Ces derniers cultivent un état dans lequel ils s’abstiennent de rechercher ou de rejeter les phénomènes sensoriels, ce qui en fait d’excellents candidats à la présente étude. Dans un contexte de stimulations visuelles émotionnelles, il fut demandé aux méditants tantôt d’observer les images dans un état de mindfulness (condition expérimentale), tantôt dans un état dit normal (condition contrôle) où aucun effort particulier d’attention n’était requis. Les résultats d’analyse suggèrent que les participants expérimentèrent une intensité émotionnelle moins importante en mindfulness : les cotes subjectives ainsi qu’une réponse magnétique cérébrale reliée aux émotions nommée Potentiel Positif Tardif magnétique (PPTm) suggèrent cela. Cependant, le résultat le plus statistiquement probant dépasse la nature affective des stimuli. Il s’agit d’une diminution temporellement soutenue de l’activité de fréquence gamma au niveau des zones visuelles associatives du lobe temporal droit, sans égard à la nature des images. Également, une suppression de l’activité gamma d’une zone du cortex préfrontal latéral gauche fut observée. Ceci pourrait indiquer une diminution de la conceptualisation des stimuli reliée au langage et aux processus réflectifs du soi.
Resumo:
La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.
Resumo:
Des décennies d’observation ont permis d’obtenir différentes relations liées à l’activité stellaire. Cependant, il est difficile de reproduire numériquement celles-ci à partir de modèles dynamo, puisqu’il n’y a pas de consensus sur le processus réellement présent dans les étoiles. Nous tentons de reproduire certaines de ces relations avec un modèle global 3D hydrodynamique qui nous fournit le profil de rotation différentielle et le tenseur-α utilisés en entrée dans un modèle de dynamo αΩ. Nous reproduisons ainsi efficacement la corrélation positive entre le rapport P_cyc⁄P_rot et P_rot^(-1). Par contre, nous échouons à reproduire les relations liant ω_cyc⁄Ω et l’énergie magnétique au nombre de Rossby. Cela laisse croire que la variation de P_cyc⁄P_rot avec la période de rotation est une caractéristique robuste du modèle αΩ, mais que l’effet-α ne serait pas le processus principal limitant l’amplitude du cycle. Cette saturation découlerait plutôt de la réaction magnétique sur l’écoulement à grande échelle.