943 resultados para Points entiers contenu dans des sphères


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les propriétés intrinsèques, photophysiques, électrochimiques et cristallographiques des molécules fluorescentes 4,4'-bis(2-benzoxazolyle)stilbène (BBS) et 2,5-bis(5-tert-butyl-2-benzoxazolyle)thiophène (BBT) ont été étudiées en solution et dans les polymères semi-cristallins : poly(butylène succinate) (PBS) et polylactide (PLA). Les deux fluorophores sont caractérisés par de hauts rendements quantiques absolus de fluorescence. Toutefois, une désactivation de la fluorescence peut se produire par croisement intersystème vers l'état triplet pour le BBT, et par photoisomérisation trans-cis pour le BBS. La cinétique de ce dernier processus dépend de la concentration, résultant en un pur isomère cis photo-induit à faibles concentrations, qui est accompagné à des concentrations élevées par l'apparition d'un composé acide après photo-clivage suivi d'une oxydation. Cette étude a révélé des changements spectroscopiques prononcés suite à l’augmentation de la concentration des fluorophores, en particulier à l'état solide, spécifiques à l'agrégation des molécules à l'état fondamental pour le BBT et à la formation d’excimères pour le BBS, permettant ainsi de corréler les propriétés fluorescentes avec les caractéristiques du monocristal pour chaque fluorophore. En outre, le passage d’une dispersion moléculaire à une séparation de phases dans le cas du BBS est accompagné d'un changement de couleur du bleu au vert, qui est sensible à la déformation, à la température et au temps, affectant les rendements quantiques absolus de fluorescence et fournissant une large opportunité à la création d'une grande variété de polymères intelligents indicateurs capables d'auto-évaluation. D’autre part, la solubilité élevée du BBT dans les solvants courants, combinée à ses propriétés optoélectroniques élevées, en font un candidat en tant que référence universelle de fluorescence et matériau intelligent à la fois pour les études de polymères et en solution. Similairement aux mélanges comprenant des polymères miscibles, l'orientation du PBS augmente après ajout d'une molécule fluorescente, dont les monomères ont tendance à être orientés dans des films étirés, contrairement aux excimères ou agrégats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'ubiquitination est une modification post-traductionnelle qui joue un rôle central dans divers processus biologiques. Elle peut être contrecarrée par les déubiquitinases (DUBs). "BRCA1-Associated Protein 1" (BAP1) est une déubiquitinase, qui fait partie de complexes multiprotéiques, possèdant une fonction de suppression tumorale ainsi qu'un potentiel anti-métastatique. De plus, BAP1 est phosphorylée suite aux dommages à l’ADN par les kinases ATM/ATR. En nous basant sur ces données, nous avons purifié les protéines associées à BAP1 dans des conditions de stress génotoxique. Bien que la composition du complexe et l’activité DUB semblent inchangées, nous avons pu identifier des changements critiques dans les niveaux et les sites de phosphorylation, confirmant la régulation de BAP1 suite aux dommages à l’ADN. En déplétant BAP1 par ARNi et en utilisant des mutants dominants négatifs, nous avons obtenu des résultats suggèrant que suite au stress génotoxique, cette DUB est requise pour prolonger le point de contrôle en G2/M et ce, en retardant la reprise du cycle cellulaire. D'un autre côté, l'expression de BAP1 dans des cellules cancéreuses qui en sont déficientes restore une ploïdie normale et diminue la fréquence d'aberrations nucléaires, suggérant que cette protéine joue un rôle dans la stabilité génomique. Nos résultats suggèrent fortement que BAP1 joue un rôle dans la réponse des cellules au stress génotoxique et la stabilité génomique. Nos travaux permettront ainsi d’identifier et de caractériser les voies de signalisation cellulaire régulant l’activité et la fonction de BAP1 durant les périodes d’exposition à des agents qui endommagent l’ADN. Les connaissances acquises seront donc d’une valeur tangible pour nôtre compréhension de la mutagenèse induite par des agents carcinogènes, un déterminant clé de la formation des tumeurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans les milieux dits alternatifs ou undergrounden France, affiliés aux formes postmodernes de cultures fan geek et otaku, une pratique a émergé ces dernières années: le rôleplay. Ni tout à fait jeu de rôle, ni tout à fait théâtre, cette modalité d’échange basée sur une mise en scène de soi se pratique en groupe dans des espaces consacrés. Le présent travail est le résultat d’une ethnographie au sein de ces milieux. Il cherche à la fois à rendre compte de cette pratique et à analyser les enjeux qui lui sont liés. C’est une réflexion polyphonique qui lie les questionnements de l’identité, tant individuelle que collective et la performativité à travers, notamment, les travaux de Deleuze, Agamben et Butler. La forme éclatée dans laquelle interviennent différentes voix reprend l’idée de chaos carnavalesque,motif central dans la présente analyse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse étudie la représentation de la machine chez Robida. La partie centrale de notre recherche s’intéresse à révéler ses significations et interroge sa mise en scène littéraire et visuelle dans chacun des romans de la trilogie d’anticipation scientifique la plus connue de l’auteur-illustrateur. La quête se transforme en un voyage continu entre le lisible et le visible, le dit et le non-dit, la description littéraire et l’imagination, la réalité et la fiction. Nous nous intéressons à l’évolution de la vision de Robida : dans Le Vingtième siècle, l’image de la machine bienfaisante, facilitant la vie de l’homme, économisant du temps et de l’argent, et contribuant largement à son bonheur et à son divertissement, à part quelques accidents très limités, se traduit par une complémentarité avantageuse entre le texte d’une part et les vignettes, les tableaux et les hors-textes se trouvant dans le récit, d’autre part. Celle-ci se transforme, dans La Guerre au vingtième siècle, en une inquiétude vis-à-vis de l’instrumentalisation de la machine pour la guerre, qui s’exprime par une projection de la narration vers l’illustration in-texte, et sensibilise le lecteur en montrant le caractère violent et offensif d’appareils uniquement nommés. Celle-ci devient finalement, dans La Vie électrique, synonyme d’un pessimisme total quant à l’implication de la machine dans la société et à la puissance du savoir scientifique dans l’avenir, qui s’affiche dans des hors-textes sombres et maussades. Dans ce cadre, la machine illustrée exige une lecture iconotextuelle, une importance accordée au détail, aux éléments présents ou absents, aux modalités de passage d’un mode de présentation à l’autre, à la place anticipée ou tardive de l’illustration, au rapport entre le texte, le dessin et sa légende, aux mots qui migrent vers le dessin et surtout au reste du décor incomplet. Chez Robida, les louanges qui passent à la critique et l’humour qui se fait cynisme, sont assez représentatifs des espoirs et des craintes suscités par la découverte et la mise en application de l’électricité, par ses vertus, mais aussi par son aspect incontrôlable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ : Avec le dénouement de la Deuxième Guerre mondiale, le problème des réfugiés en Europe devient un enjeu international. Plusieurs millions de personnes, que l’on nomme les Displaced Persons (DP), sont sans refuge et doivent recevoir une aide immédiate pour survivre. Même si la majorité de ces gens retourneront dans leurs pays d’origine, il reste encore des centaines de milliers de réfugiés en 1948. La seule solution concrète pour régler cette problématique est l’émigration des réfugiés dans des pays prêts à les accepter. Les Américains jouent un rôle crucial en acceptant 415 000 DP entre 1948 et 1952 grâce au Displaced Persons Act de 1948 et ses amendements en 1950 et 1951. Après d’âpres discussions entre les restrictionnistes et ceux qui défendent la libéralisation des lois d’immigration, naîtra le Displaced Persons Act (DP Act) signé avec beaucoup de réticence, le 25 juin 1948, par le président Harry S. Truman. Cette loi qui prévoit la venue de 202 000 DP en deux ans, contient des mesures jugées discriminatoires à l'endroit de certaines ethnies. Afin d'améliorer le DP Act, le Congrès effectue des recherches sur la situation des réfugiés toujours dans les camps en 1949 tout en étudiant l’impact de la venue des DP aux États-Unis entre 1948 et 1950. Cette étude est soumise sous forme de rapport, le Displaced Persons and Their Resettlement in the United States, le 20 janvier 1950. Ce mémoire propose une analyse minutieuse du rapport et de son contexte politique afin de démontrer le rôle important de cette étude dans le processus décisionnel du Congrès américain visant à accueillir un plus grand nombre de DP tout en posant les bases pour une politique d’accueil en matière de refugiés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"L’enregistrement de noms de domaine, basé sur la règle du « premier arrivé, premier servi », n’a pas échappé à des personnes peu scrupuleuses qui se sont empressées d’enregistrer comme noms de domaine des marques de commerce, phénomène connu sous le nom de « cybersquattage ». L’U.D.R.P. (Uniform domain name Dispute Resolution Policy) est une procédure internationale qui a été adoptée pour régler les différends relatifs à cette pratique. La procédure de l’U.D.R.P. est conçue pour être rapide, efficace et simple. Même si le fardeau de preuve reposant sur le titulaire de marque de commerce peut sembler lourd, l’analyse de la procédure démontre qu’elle n’offre pas aux détenteurs de noms de domaine un procès juste et équitable, notamment en raison des délais très courts, de l’absence de voies de recours internes en cas de défaut et de l’obligation de saisir les tribunaux de droit commun. La procédure de l’U.D.R.P. ne présente aussi aucun caractère dissuasif envers les titulaires de marques qui tenteraient de s’approprier un nom de domaine enregistré dans des conditions légitimes. Une étude des décisions issues de la Procédure U.D.R.P. révèle qu’il existe un déséquilibre flagrant en faveur des titulaires de marques de commerces; les organismes accrédités se taillant la plus grande part du marché sont ceux dont les décisions sont généralement plus favorables aux titulaires de marques. Une variété d’arguments sont avancés pour expliquer ces résultats mais les études démontrent que la Procédure U.D.R.P. doit faire l’objet de réformes. La réforme devrait comprendre deux volets : premièrement, la modification du mode de désignation des organismes accrédités chargés d’administrer la Procédure U.D.R.P. ainsi que la modification du processus de sélection des commissaires; deuxièmement, une réforme relative aux délais, à la langue des procédures et au phénomène des procédures abusives intentées par des détenteurs de marques de commerce à l?égard d’enregistrements légitimes."

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les matériaux conjugués sont de nos jours très utilisés dans de nombreuses applications ainsi qu’en recherche. L’enchainement des liaisons π-σ-π permet la délocalisation des électrons et d’obtenir différentes propriétés comme la conduction, la fluorescence, la chélation, etc. Ainsi, de nombreux dispositifs utilisent ces caractéristiques en vue d’obtenir de nouveaux matériaux révolutionnaires comme les cellules solaires, les transistors à effet de champs, les dispositifs électrochromiques, etc.. Les dispositifs électrochromiques font partie des dispositifs en vogue. Ils sont capables de changer de couleur selon le potentiel électrique appliqué. Ils se distinguent par la simplicité du mode de conception et ils ne nécessitent pas de fonctionner dans des conditions drastiques comme une atmosphère contrôlée. Ces dispositifs sont actuellement utilisés et commercialisés comme fenêtre intelligente, camouflage, papier électronique et carte de visite personnalisée pour n’en nommer que quelques-uns. Deux propriétés sont essentielles pour que des composés puissent être utilisés dans ces familles de dispositifs : la réversibilité à l’oxydation et la stabilité à l’air et à la lumière. Dans le groupe de recherche du professeur W.G. Skene, l’axe principal de recherche est basé sur la conception de nouveaux matériaux conducteurs comportant des liaisons azométhines. Les principaux matériaux étudiés sont des dérivés de thiophènes et de fluorènes. De précédents résultats ont montré que plusieurs produits issus de la réaction de condensation entre les dérivés du 2,5-diaminothiophène et de thiophènes diformylés menaient à des produits possédant d’excellentes propriétés photophysiques et électrochimiques. C’est en partant de ces résultats encourageants qu’il a été choisi de synthétiser une nouvelle famille de produits avec un nouveau substrat fonctionnalisé. Ce dernier possède d’excellentes propriétés électrochimiques et photophysiques : la triphénylamine. Deux familles de produits ont été synthétisées qui possèdent toutes comme cœur une triphénylamine. Cette dernière a été modifiée de façon à créer une, deux ou trois liaisons azométhines avec différents thiophènes. Deux dérivés du thiophène ont été choisis afin d’étudier l’influence des groupements donneurs et accepteurs sur ces nouveaux types de composés encore jamais étudiés. Les résultats des différentes synthèses et analyses ont été effectués par RMN, spectrométrie de masse, spectrométrie d’absorbance UV-Visible, fluorescence et voltampérométrie cyclique sont rapportées dans le présent recueil.