1000 resultados para Corrélation électronique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La majorité des individus exposés au virus de l’hépatite C (VHC) développent une infection chronique. Une réponse immunitaire adaptative forte et soutenue est associée avec la guérison spontanée du VHC, mais les mécanismes sous-jacents demeurent mal définis. Le rôle des cellules NK et des cellules dendritiques (DC) dans la guérison spontanée du VHC est encore méconnu. Les cellules NK sont la population effectrice la plus importante de l’immunité innée car elles tuent les cellules infectées et sécrètent diverses cytokines. Les DC reconnaissent des agents infectieux et elles sont les premières à initier et réguler l’immunité adaptative. Les cellules NK et les DC interagissent également entre elles afin de réguler l’immunité innée et adaptative. L’hypothèse du projet de doctorat est que l'activité des cellules NK pendant la phase aiguë de l'infection par le VHC module la fonction des DC afin que ces dernières puissent générer une réponse immunitaire adaptative capable d'éliminer le VHC. Le premier objectif était d’établir une corrélation entre l'activité des cellules NK et l'évolution de l'infection au VHC. Nous avons observé une augmentation de la cytotoxicité, mais une diminution de la sécrétion de cytokines par les cellules NK chez les patients chroniques et qui ont résolu spontanément pendant la phase aiguë en comparaison aux contrôles non infectés, démontrant alors une dissociation entre ces deux fonctions. Nos résultats suggèrent que les cellules NK sont activées pendant la phase aiguë indépendamment de l’évolution de l’infection. Le deuxième objectif était d’établir une corrélation entre le phénotype et la fonction des DC, et l'évolution de l'infection. Nous avons d’abord observé que les DC plasmacytoïdes de tous les patients infectés ont un phénotype plus immature que les contrôles, et que ce phénotype est plus prononcé chez les patients ayant résolu spontanément. De plus, en réponse à des stimulations, nous avons observé que pendant la phase aiguë précoce, les DC myéloïdes (mDC) de tous les patients infectés indépendamment de l’évolution de l’infection produisent davantage de cytokines en comparaison aux contrôles. Cependant, cette hyperréactivité n’est pas soutenue au cours de l’évolution chronique. Le troisième objectif était d’établir une corrélation entre les interactions NK/DC et l’évolution de l’infection. Nous avons étudié la capacité des cellules NK à lyser les DC potentiellement tolérogéniques, ainsi que la capacité des DC matures à activer les cellules NK, et nous avons observé aucune différence entre les patients infectés et les contrôles. Finalement, nous avons démontré pour la première fois la capacité des DC immatures à inhiber la fonction des cellules NK. En conclusion, nous avons démontré que les cellules NK sont activées pendant la phase aiguë de l’infection par le VHC indépendamment de l’évolution de l’infection. De plus, la capacité des cellules NK à éliminer les DC potentiellement tolérogéniques est intacte. Finalement, les mDC sont hyperréactives pendant la phase aiguë de l’infection, mais cette hyperréactivité n’est pas soutenue avec la persistance de l’infection. Cette perte d’hyperréactivité des mDC ne semble pas affecter la capacité des DC à activer les cellules NK, mais elle pourrait jouer un rôle dans l’inefficacité de l’immunité adaptative à éliminer le VHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le supplément d’oxygène et la nutrition parentérale (NP) sont les deux sources majeures de stress oxydant chez le nouveau-né. Lors de la détoxification des oxydants, le potentiel redox du glutathion s’oxyde. Notre hypothèse est que le supplément d’oxygène et la durée de la NP sont associés à un potentiel redox plus oxydé et à une augmentation de la sévérité de la dysplasie bronchopulmonaire (DBP). Patients et Méthodes: Une étude observationnelle prospective incluant des enfants de moins de 29 semaines d’âge gestationnel. Les concentrations sanguines de GSH et GSSG à jour 6-7 et à 36 semaines d’âge corrigé étaient mesurées par électrophorèse capillaire et le potentiel redox était calculé selon l’équation de Nernst. La sévérité de la DBP correspondait à la définition du NICHD. Résultats: Une FiO2≥ 25% au 7ième jour de vie ainsi que plus de 14 jours de NP sont significativement associés à un potentiel redox plus oxydé et à une DBP plus sévère. Ces relations sont indépendantes de l’âge de gestation et de la gravité de la maladie initiale. La corrélation entre le potentiel redox et la sévérité de la DBP n’est pas significative. La durée de la NP était responsable de 15% de la variation du potentiel redox ainsi que de 42% de la variation de la sévérité de la DPB. Conclusion: Ces résultats suggèrent que l’oxygène et la NP induisent un stress oxydant et que les stratégies visant une utilisation plus judicieuse de l’oxygène et de la NP devraient diminuer la sévérité de la DBP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transglutaminase microbienne (Microbial transglutaminase : MTG) est fortement exploitée dans l’industrie textile et alimentaire afin de modifier l’apparence et la texture de divers produits. Elle catalyse la formation de liaisons iso-peptidiques entre des protéines par l’entremise d’une réaction de transfert d’acyle entre le groupement γ-carboxamide d’une glutamine provenant d’un substrat donneur d’acyle, et le groupement ε-amino d’une lysine provenant d’un substrat accepteur d’acyle. La MTG est tolérante à un large éventail de conditions réactionnelles, ce qui rend propice le développement de cette enzyme en tant que biocatalyseur. Ayant pour but le développement de la MTG en tant qu’alternative plus soutenable à la synthèse d’amides, nous avons étudié la réactivité d’une gamme de substrats donneurs et accepteurs non-naturels. Des composés chimiquement diversifiés, de faible masse moléculaire, ont été testés en tant que substrats accepteurs alternatifs. Il fut démontré que la MTG accepte une large gamme de composés à cet effet. Nous avons démontré, pour la première fois, que des acides aminés non-ramifiés et courts, tels la glycine, peuvent servir de substrat accepteur. Les α-acides aminés estérifiés Thr, Ser, Cys et Trp, mais pas Ile, sont également réactifs. En étendant la recherche à des composés non-naturels, il fut observé qu’un cycle aromatique est bénéfique pour la réactivité, bien que les substituants réduisent l’activité. Fait notable, des amines de faible masse moléculaire, portant les groupements de forte densité électronique azidure ou alcyne, sont très réactives. La MTG catalyse donc efficacement la modification de peptides qui pourront ensuite être modifiés ou marqués par la chimie ‘click’. Ainsi, la MTG accepte une variété de substrats accepteurs naturels et non-naturels, élargissant la portée de modification des peptides contenant la glutamine. Afin de sonder le potentiel biocatalytique de la MTG par rapport aux substrats donneurs, des analogues plus petits du peptide modèle Z-Gln-Gly furent testés; aucun n’a réagi. Nous avons toutefois démontré, pour la première fois, la faible réactivité d’esters en tant que substrats donneurs de la MTG. L’éventuelle amélioration de cette réactivité permettrait de faire de la MTG un biocatalyseur plus général pour la synthèse d’amides. Mots clés: Lien amide, biocatalyse, biotransformation, transglutaminase, arrimage moléculaire, criblage de substrats, ingénierie de substrats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature scientifique démontre clairement que la caféine altère la qualité du sommeil, mais des études avancent qu’une tolérance à la caféine peut être développée avec le temps. Par ailleurs, le sommeil change graduellement au cours du vieillissement, et il semble devenir plus sensible aux pressions externes et internes. Nous avons donc choisi de comparer les effets de 200 mg de caféine consommés en soirée, comparativement à un placébo, sur le sommeil de sujets jeunes et d’âge moyen, en fonction de leurs habitudes de consommation de caféine. Le groupe d’âge moyen a manifesté en condition caféine plus d’éveils nocturnes dans le dernier tiers de la nuit que le groupe de jeunes. De plus, la caféine a réduit la durée totale de sommeil et l’efficacité de sommeil de façon plus significative chez les consommateurs légers que chez les consommateurs modérés de caféine. Toutefois, une corrélation a été constatée entre ces derniers résultats et la concentration salivaire de caféine des sujets de chaque groupe, ce qui pourrait expliquer les différences d’effets constatées. D’autre part, la caféine a augmenté la latence au sommeil, le pourcentage de stade 1 et les éveils nocturnes pour tous les groupes, tout en réduisant l’efficacité de sommeil et la durée totale de sommeil. Aucune interaction significative ne fut constatée entre l’âge, les habitudes de consommation et les effets de la caféine sur le sommeil. Nous croyons donc que la caféine, conjointement aux habitudes de consommation chez les consommateurs modérés réguliers, mène à une tolérance partielle aux effets de cette substance, et que le sommeil, particulièrement vers la fin de la nuit, est plus vulnérable aux pressions chez les individus d’âge moyen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail présenté par Christine LeBrun, étudiante à la maîtrise en droit, le 16 décembre 2008, dans le cadre du Cours Droit du commerce électronique - DRT 6930 sous la supervision du professeur Vincent Gautrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Suite à plus de deux années de recherches, le projet de l’American Bar Association (ABA) concernant la juridiction du cyberespace, « Achieving Legal and Business Order in Cyberspace: A Report on Global Jurisdiction Issues Created by the Internet », a été publié dans l’édition du mois d’août 2000 de la revue juridique The Business Lawyer. Ce rapport poursuivait deux objectifs distincts : Tout d’abord, effectuer une analyse globale des complexités potentielles entourant les conflits juridictionnels découlant du commerce en ligne. Ensuite, élaborer une liste exhaustive des solutions pouvant être utilisées pour résoudre de tels conflits. Le présent article se veut un résumé concis et accessible des trois grandes sections du « Cyberspace Jurisdiction Report » : (1) les solutions proposées aux problèmes juridictionnels découlant des conflits résultant du commerce électronique ; (2) afin d’appuyer les solutions proposées : l’utilisation d’exemples d’occasions où la technologie a déjà, par le passé, causé la métamorphose de certains paradigmes juridictionnels; et (3) afin d’appuyer les solutions proposées : l’utilisation d’un contexte doctrinal."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"ECODIR a vu le jour en octobre 2001, à Bruxelles, grâce à la contribution financière entre autres de l’Union européenne. C’est une plate-forme de règlement des litiges de consommation par Internet. Son champ d’action est limité, en raison des termes du contrat de recherche conclu avec la Commission européenne et de certaines contraintes juridiques. Il ne couvre que les conflits mettant en cause au moins un consommateur et relatifs à une transaction effectuée en ligne ; les litiges portant sur des questions complexes (fiscalité, droit de la famille par exemple) sont exclus. ECODIR n’est pas un processus d’arbitrage, mais de médiation : la possibilité d’ester en justice en cas d’échec du processus n’est pas exclue. Les auteurs décrivent les trois phases du processus, puis font le bilan de son fonctionnement. Ils analysent l’incidence des recommandations et des directives de la Commission européenne sur le commerce électronique avant d’examiner enfin la portée des solutions dégagées au terme de toute la procédure."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peut-être mieux connu sous son appellation anglaise d' «online dispute resolution» ou ODR, le règlement en ligne des différends réfère à la migration, vers Internet, des modes alternatifs de résolution des conflits, dont font entre autres partie la négociation, la conciliation, la médiation et l'arbitrage. Cet article présente d'abord brièvement les quatre procédés d'ODR les plus souvent rencontrés en pratique, soit la négociation  automatisée, la négociation en ligne assistée par ordinateur, la médiation en ligne et l'arbitrage en ligne. Il examine ensuite les types de conflits qui trouvent actuellement une solution par l'entremise de l'Internet, conflits qui peuvent naître aussi bien sur la Toile qu'hors ligne. On y aborde, en troisième lieu, les avantages de la résolution en ligne des litiges, lesquels ont trait à la modicité, la rapidité, la souplesse et la convivialité, en insistant sur l'attrait tout particulier que cette nouvelle forme de justice présente pour les conflits résultant de la cyberconsommation. Puis, après un survol des arguments les plus souvent cités à l'encontre du règlement électronique des différends, on fait état du phénomène d'institutionnalisation de la résolution en ligne, qui investit aujourd'hui les cours de justice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article aborde le degré de protection en matière de vie privée accordé au courrier électronique par les tribunaux nord-américains. L’auteur dresse un portrait général de la jurisprudence canadienne et américaine actuellement disponible en la matière, en concentrant ses propos sur l’expectative de vie privée des employés ainsi que sur les droits de l’employeur d’accéder à leurs courriels dans un contexte de relations de travail. Alors que les tribunaux canadiens abordent la problématique en procédant par analogie, c’est-à-dire par comparaison du courriel avec des modes de communication plus traditionnels (i.e. le téléphone et le courrier), les tribunaux américains font une analyse interprétative du 4ème amendement de la constitution des États-Unis et des droits statutaires accordés par l’Electronic Communications Privacy Act de 1986 et le Privacy Protection Act de 1986. L’auteur précise que les dispositions législatives actuelles présentent d’importantes lacunes rendant difficile leur application aux courriels.