315 resultados para Ultrapuissance (limite)
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Il n’existe présentement aucun code de la consommation dans la législation de la République Démocratique du Congo. Au vu de ce manque d’intérêt du législateur congolais pour les droits des citoyens consommateurs, il ne faut pas s’étonner du mutisme des deux textes réglementaires y régissant le secteur informatique quant à la protection des consommateurs internautes. Le citoyen congolais désireux de faire respecter les droits que lui a conférés un contrat conclu par voie électronique devra s’astreindre (lui ou son procureur) à colliger un certain nombre de textes éparpillés dans la législation de ce pays. La protection juridique accordée au consommateur congolais traditionnel (acheteur de biens matériels en général) se limite en ce moment à quelques dispositions législatives traitant de la publicité dans le secteur pharmaceutique, de l’affichage des prix, de l’interdiction de refuser de vendre un produit une fois que celui-ci a fait l’objet d’une offre et que les conditions de la vente ont été réunies, et de l’interdiction également de refuser de fournir une prestation de services une fois que celle-ci est devenue exigible. À certains égards, et prises dans leur ensemble, les normes éparses relatives à la consommation que la législation congolaise comporte protègent. mais de façon très partielle, les intérêts des consommateurs. Elles sont tout à fait inadéquates quant à la protection des intérêts des « cyberconsommateurs ». La solution à ce vide législatif consiste évidemment à faire adopter une loi en la matière, mais il s’agit là d’une solution imparfaite à cause de son aspect sectoriel. Une solution définitive, à nos yeux, devrait nécessairement être de nature internationale.
Resumo:
Internet est devenu au fil des années un outil de communication exceptionnel. Or lorsqu’on évoque le cyberespace, on pense généralement à un « no man’s land » juridique, un espace sans lois. Est-ce vraiment le cas? Le pouvoir étatique est-il mis de côté? L’auteur affirme que le droit, loin d’être totalement écarté, doit maintenant composer avec d’autres formes de régulation. En prenant l’exemple d’Internet, l’auteur en vient à présenter l’évolution de la régulation d’un tel système, allant de l’autorégulation à la co-régulation, c’est-à-dire « une coopération entre la société civile et les pouvoirs publics ». Il souligne par ailleurs que, de par l’aspect « international » de l’Internet, les institutions supranationales prennent une importance de plus en plus en grande puisque c’est elles qui viendront compenser la portée limitée de l’intervention des États-nations. On prend l’exemple de l’Union européenne et du développement des « régionalismes ». Mais bien qu’il ne soit plus à même de régir et de réguler à lui seul un système comme Internet, il reste que le droit étatique est essentiel. À travers le développement de concepts, la création de dialogues et de consensus, il est en mesure de défendre des droits que la technologie pourrait venir compromettre en exigeant que le développement technologique se fasse en conformité avec les législations traditionnelles.
Resumo:
L'Italie a été l'avant-dernier pays européen, suivi seulement de la Grèce, à se doter d'une loi sur la protection de la vie privée (loi du 31 décembre 1996). Paradoxalement, c'est en Italie qu'ont été écrites quelques-uns des meilleurs ouvrages sur ce sujet, notamment ceux du professeur Rodotà. En dépit du retard du législateur italien, il doit être précisé que la loi de 1996, faisant suite à la Directive communautaire relative à la protection des données personnelles, introduit un concept moderne de la vie privée, qui ne se limite pas simplement à un « right to be let alone », selon la célèbre conception de la fin du dix-neuvième siècle, mais qui se réfère plutôt à la protection de la personne humaine. Le concept de vie privée, entendu comme l’interdiction d’accéder à des informations personnelles, se transforme en un contrôle des renseignements relatifs à la personne. De cette manière, se développe une idée de la vie privée qui pose comme fondements : le droit de contrôle, de correction et d'annulation d'informations sur la personne. À cet égard, il est important de souligner le double système d’autorisation pour le traitement licite des informations. Le consentement de l'intéressé est requis pour les données personnelles. Pour les données dites « sensibles », en revanche, l'autorisation du Garant sera nécessaire en plus de l'expression du consentement de l’intéressé. En revanche, aucune autorisation n'est requise pour le traitement de données n'ayant qu'un but exclusivement personnel, ainsi que pour les données dites « anonymes », à condition qu'elles ne permettent pas d'identifier le sujet concerné. Le type de responsabilité civile prévu par la loi de 1996 se révèle particulièrement intéressant : l'article 18 prévoit l'application de l'article 2050 du Code civil italien (exercice d'activités dangereuses), alors que l'article 29 prévoit, lui, l'octroi de dommages et intérêts pour les préjudices non patrimoniaux (cette disposition est impérative, conformément à l'article 2059 du Code civil italien). Le présent article se propose d'examiner l'application des normes évoquées ci-dessus à Internet.
Resumo:
La question de la propriété de l’information est reformulée en tenant compte de la problématique de l’espionnage économique, pratique déloyale ayant pour objet prioritaire l’accès à l’information privée d’un concurrent. L’atteinte aux intérêts légitimes d’un concurrent résulte du seul transfert de connaissance et peut donc être théoriquement indépendante d’une éventuelle contrefaçon ou d’un acte de parasitisme. C’est dans la perspective de cet accès illégitime à la seule information d’un concurrent qu’est ici envisagée la propriété de l’information per se. À l’heure actuelle, l’existence d’une telle propriété de l’information n’est pas démontrée en droit, l’information n’étant qu’une « chose » et non un « bien ». Mais, en reconnaissant que l’information peut être volée indépendamment de tout support, le droit pénal semble admettre indirectement cette propriété. De même, une jurisprudence ancienne relative à la concurrence déloyale protège celui qui ne peut se prévaloir d’un droit privatif, ce qui implique une « réservation » juridique de l’information, forme de « quasi-propriété ». Cela tend à démontrer que la propriété de l’information est juridiquement concevable. Cependant, les débats doctrinaux se sont rarement orientés vers la question de la réparation, essentielle en matière d’espionnage économique. Dans cette perspective, la reconnaissance d’une propriété de l’information est en réalité très limitée compte tenu du préjudice pouvant résulter de la perte d’exclusivité de l’information, préjudice pouvant être bien supérieur à la valeur de l’information elle-même. Plutôt que de reconnaître un droit de propriété sur l’information, la solution serait peut-être d’accorder à l’entreprise un droit subjectif à la protection de ses informations confidentielles, droit protégeant civilement contre la seule appréhension illégitime de telles informations.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.
Resumo:
Cette étude propose d’identifier les facteurs affectant la consommation d’aliments traditionnels à travers une perspective écologique, afin de réduire les taux de prévalence élevés de maladies chroniques et ralentir la forte diminution de consommation d’aliments traditionnels chez les Cris du nord québécois. Pour ce faire, une méthode mixte « sequential explanatory », fut utilisée, combinant quatre groupes focus (n=23) et une régression logistique (n=374) à partir de données secondaires issues de trois études transversales. Selon les résultats de la régression logistique: l’âge, chasser, marcher, le niveau d’éducation et la communauté de résidence étaient associées à une consommation d’aliments traditionnelle trois fois/semaine (p<0,05). Subséquemment, des groupes focus vinrent enrichir et contredire ces résultats. Par exemple : les participants étaient en désaccord avec le fait qu’il n’y avait aucune association entre les aliments traditionnels et l’emploi. Ils croyaient que les personnes sans emploi ont plus d’opportunités pour aller chasser mais peu d’argent pour couvrir les dépenses et inversement pour ceux avec emploi. Ce double effet aurait possiblement fait disparaître l’association dans la régression logistique. Suite aux groupes focus, plusieurs facteurs furent identifiés et distribués dans un modèle écologique suggérant que la consommation d’aliments traditionnels est principalement influencée par des facteurs sociaux, communautaires et environnementaux et ne se limite pas aux facteurs individuels. En conclusion, afin de promouvoir l’alimentation traditionnelle, quatre suggestions de priorités d’action sont proposées. L’alimentation traditionnelle doit faire partie des stratégies de santé publique pour réduire les taux de maladies chroniques et améliorer le bien-être des populations autochtones.
Resumo:
Notre laboratoire a récemment découvert un mode d’expression des gènes mitochondriaux inédit chez le protozoaire biflagellé Diplonema papillatum. Outre son ADNmt formé de centaines de chromosomes circulaires, ses gènes sont fragmentés. Le gène cox1 qui code pour la sous unité I de la cytochrome oxydase est formé de neuf modules portés par autant de chromosomes. L’ARNm de cox1 est obtenu par épissage en trans et il est également édité par insertion de six uridines entre deux modules. Notre projet de recherche a porté sur une étude globale des processus post-transcriptionnels du génome mitochondrial de diplonémides. Nous avons caractérisé la fragmentation de cox1 chez trois autres espèces appartenant aux deux genres du groupe de diplonémides à savoir : Diplonema ambulator, Diplonema sp. 2 et Rhynchopus euleeides. Le gène cox1 est fragmenté en neuf modules chez tous ces diplonémides mais les modules sont portés par des chromosomes de taille et de séquences différentes d’une espèce à l’autre. L’étude des différentes espèces a aussi montrée que l’édition par insertion de six uridines entre deux modules de l’ARNm de cox1 est commune aux diplonémides. Ainsi, la fragmentation des gènes et l’édition des ARN sont des caractères communs aux diplonémides. Une analyse des transcrits mitochondriaux de D. papillatum a permis de découvrir quatre autres gènes mitochondriaux édités, dont un code pour un ARN ribosomique. Donc, l'édition ne se limite pas aux ARNm. De plus, nous avons montré qu’il n’y a pas de motifs d’introns de groupe I, de groupe II, de type ARNt ou d’introns impliqués dans le splicéosome et pouvant être à l’origine de l’épissage des modules de cox1. Aucune complémentarité significative de séquence n’existe entre les régions flanquantes de deux modules voisins, ni de résidus conservés au sein d’une espèce ou à travers les espèces. Nous avons donc conclu que l’épissage en trans de cox1 chez les diplonémides fait intervenir un nouveau mécanisme impliquant des facteurs trans plutôt que cis. L’épissage et l’édition de cox1 sont dirigés probablement par des ARN guides, mais il est également possible que les facteurs trans soient des molécules protéiques ou d’ADN. Nous avons élucidé les processus de maturation des transcrits mitochondriaux de D. papillatum. Tous les transcrits subissent trois étapes coordonnées et précises, notamment la maturation des deux extrémités, l’épissage, la polyadénylation du module 3’ et dans certains cas l’édition. La maturation des extrémités 5’ et 3’ se fait parallèlement à l’épissage et donne lieu à trois types d’intermédiaires. Ainsi, un transcrit primaire avec une extrémité libre peut se lier à son voisin. Cet épissage se fait apparemment sans prioriser un certain ordre temporel alors que dans le cas des transcrits édités, l’édition précède l`épissage. Ces études donnant une vue globale de la maturation des transcrits mitochondriaux ouvrent la voie à des analyses fonctionnelles sur l’épissage et l’édition chez D. papillatum. Elles sont le fondement pour finalement élucider les mécanismes moléculaires de ces deux processus post-transcriptionnels de régulation dans ce système intriguant.
Resumo:
Cette recherche vise à mieux comprendre la mobilisation des ressources de pouvoir, par les associations patronales, dans le but d’influencer les politiques publiques, plus précisément dans le secteur de l’aérospatiale. Dans un premier temps, cette recherche tente de répondre à notre première question de recherche qui s’attarde à l’impact de la logique de représentation sur la détermination du champ d’intervention en matière de politiques publiques. Dans un deuxième temps, notre seconde question de recherche tente de cerner comment les associations patronales utilisent leurs ressources de pouvoir dans le but d’influencer les politiques publiques. D’un angle théorique, cette recherche s’inscrit dans le courant des travaux néo-institutionnalistes. Tout d’abord, les associations patronales sont perçues comme étant des «entrepreneurs institutionnels» capables d’influencer leur environnement institutionnel (Campbell, 2004 ; Streeck et Thelen, 2005 ; Crouch, 2005). Plus précisément, nous constatons également que les employeurs et leurs associations sont en mesure de mobiliser plusieurs leviers de pouvoir pour influencer, à leur avantage, les développements politiques et économiques des sociétés capitalistes (Traxler et Huemer, 2007). D’un angle empirique, notre recherche vise trois objectifs : cerner les logiques de représentation des associations patronales; identifier quels types de ressources sont à la disposition des associations patronales; analyser comment s’exerce le lien entre les ressources de pouvoir (internes et externes) et l’influence potentielle sur les politiques publiques (commerciales et du travail). Afin de rencontrer nos objectifs de recherche, nous avons utilisé la technique de l’étude de cas. Cette méthode qualitative est l’un des meilleurs moyens pour analyser un phénomène inconnu car elle fournit des données en profondeur. Cette recherche suit les recommandations de Merriem (1998) qui propose de mener la recherche en trois grandes étapes : la préparation, la collecte des données et l’interprétation. Nous avons recueilli nos données à l’aide d’entrevues semi-dirigées, conduites à l’hiver 2012. Ces entrevues ont été menées auprès de représentants des associations patronales du secteur de l’aérospatiale. Nous avons effectué une analyse qualitative des données en fonction de notre revue de littérature et nos propositions de recherche. Dans cette perspective, nous avons utilisé la technique de l’appariement logique de Yin (1994) qui consistait à comparer nos observations avec nos propositions de recherche. Enfin, il faut mentionner que cette méthode de recherche (étude de cas) comporte une importante limite de recherche : la généralisation. Effectivement, nous pouvons difficilement généraliser les résultats de notre recherche à une autre population, considérant les nombreuses particularités du secteur de l’aérospatiale. Toutefois, cette recherche a tout de même contribué à enrichir les connaissances sur l’acteur patronal organisé au Canada.
Resumo:
Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.
Resumo:
Au niveau méthodologique, ce travail innove en combinant plusieurs moyens d'observation complémentaires sur le processus d'écriture et sur le processus de correction. Les observations qualitatives ainsi recueillies sont retranscrites en les combinant selon l'ordre chronologique d'apparition, puis elles sont traitées et analysées sous le logiciel QDA Miner.
Resumo:
Les supercapacités hybrides se taillent de plus en plus une place dans le secteur des énergies renouvelables. L’oxyde de manganèse possède certaines caractéristiques (faible coût, caractère écologique et une capacitance spécifique supérieure) qui font de ce dernier un matériau très attirant pour l’assemblage de tels dispositifs. Ce mémoire, divisé en trois parties, propose l’utilisation des liquides ioniques protiques comme électrolytes pour l’assemblage de supercapacités hybrides à base d’oxyde de manganèse et carbone. D’abord, le comportement pseudocapacitif des électrodes à base de films minces d’oxyde de manganèse dans les liquides ioniques protiques ainsi que leurs propriétés optiques sont étudiés et évalués. Des valeurs de capacitance spécifique allant jusqu’à 397 F/g ont été trouvées dans cette partie. Ensuite, des mélanges composés par un solvant organique (acétonitrile) et le liquide ionique protique sont présentés comme une manière de contourner la faible conductivité de ce dernier qui limite les valeurs de capacitance spécifique à obtenir. Une amélioration de la capacitance spécifique d’environ 30% est reportée dans ce chapitre. Finalement, l’assemblage d’une supercapacité hybride est présenté comme une stratégie efficace qui permet l’élargissement de la faible fenêtre de potentiel de travail obtenue avec les électrodes à base d’oxyde de manganèse. De cette façon, la faisabilité de tel arrangement est montré ici, obtenant de valeurs de capacitance spécifique (16 F/g) ainsi que de puissance (81 W/kg) et d’énergie spécifique (1,9 Wh/kg) acceptables en utilisant des liquides ioniques protiques comme électrolytes de remplissage.
Resumo:
Les maladies constituent présentement la cause la plus importante de perte économique en aquaculture moderne. Chez certaines espèces, notamment les salmonidés (Oncorhynchus sp. et Salmo sp.), on rapporte des pertes annuelles atteignant cinquante pour cent de la production. À l’heure actuelle, les infections fongiques occupent le second rang derrière les maladies bactériennes en fonction de leur importance économique. Ces poissons sont particulièrement vulnérables à une infection fongique causée par Saprolegnia sp. qui infecte habituellement les oeufs morts. Le saprophyte ubiquitaire se propage ensuite aux oeufs sains et aux individus matures. Malheureusement, le traitement efficace de cette infection, souvent primaire et parfois secondaire, est de plus en plus difficile en raison de nouvelles réglementations restrictives entourant le vert de malachite. Jadis, ce colorant constituait le fongicide le plus efficace dans la lutte contre la saprolégniose, mais son potentiel cancérigène en limite maintenant l’utilisation. Jusqu'à présent, aucun traitement disponible n’est aussi efficace que le vert de malachite pour le contrôle de la saprolégniose. Récemment, nous sommes parvenus à isoler trois bactéries capables d’inhiber la croissance de Saprolegnia sp. in vitro. Ces trois Pseudomonas fluorescens proviennent d’une pisciculture dans laquelle survenaient des cas d’infections à Saprolegnia parasitica. En poussant la caractérisation de l’activité grâce à des analyses de chromatographie liquide haute performance et de spectrométrie de masse, nous avons réussi à isoler et à identifier la molécule responsable. L’acide phénazine-1-carboxylique (PCA), sécrété par deux de nos trois souches, cause l’inhibition de la croissance de Saprolegnia.
Resumo:
Les voies d'administration qui provoquent une entrée rapide de la drogue au cerveau sont connues pour faciliter le développement de la toxicomanie. Les études animales modélisant cet effet ont montré que des rats, qui ont un accès prolongé à des injections intraveineuses rapides de cocaïne (injectée en 5 ou 90 secondes), s'autoadministrent plus de drogue, ont un entraînement opérant plus élevé et sont subséquemment plus motivés à obtenir la cocaïne. La question est maintenant de savoir comment l'autoadministration de cocaïne injectée rapidement promeut une augmentation de la motivation à obtenir de la cocaïne. Cette motivation exagérée pourrait être une conséquence de l'exposition prolongée à de larges quantités de cocaïne et/ou de l'effet persistant d'un entraînement opérant extensif. De plus, on sait qu'augmenter la vitesse d'administration de la cocaïne modifie les circuits de la récompense et de la motivation. Ainsi, ceci pourrait promouvoir la motivation excessive pour la drogue. Nous avons cherché à déterminer l'influence de l'exposition à la drogue et de l'entraînement opérant sur le développement d'une motivation exacerbée pour la drogue. Les rats se sont autoadministrés de la cocaïne injectée en 5 ou 90 secondes (s) durant un accès limité (1h/session) ou prolongé (6h/session) avec un ratio fixe. La motivation pour la cocaïne a par la suite été évaluée à l'aide d'un ratio progressif (PR). Les rats ayant reçu la drogue injectée en 5 s durant l'accès prolongé (par rapport au groupe 90 secondes) ont pris plus de drogue et eu un entraînement opérant plus extensif alors qu'il n'y avait pas de différences dans la consommation et le niveau d'entraînement opérant entre les groupes ayant subit un accès limité uniquement. Les rats ayant consommé la drogue injectée en 5s, indépendamment du temps d'accès, ont toujours exprimé une motivation plus grande pour la drogue en PR. La quantité de cocaïne consommée ou l'ampleur de l'entraînement opérant ont été positivement corrélés avec la consommation de cocaïne en PR dans certains groupes. Par contre, le groupe qui a eu un accès prolongé aux injections rapides a montré une augmentation dans sa motivation à s'autoadministrer de la drogue qui n'était prédite ni par la quantité de cocaïne consommée ni par l'étendue de l'entraînement opérant. Ces résultats suggèrent que des injections rapide de cocaïne pourraient faciliter la toxicomanie en favorisant entre autre des modifications neurobiologiques qui mènent à une motivation pathologique pour la drogue.