729 resultados para Masse
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
Camp met en présence un officier nazi et ses Juifs : une petite fille s’appuyant sur sa vie d’avant afin de survivre dans sa vie d’après, une jeune femme d’une cinglante liberté intérieure et un groupe de prisonniers, la masse grise. Ce récit se déroule en quelques jours dans un camp d’extermination, en Pologne. Il y est question d’un projet insensé, imaginé et mis en œuvre par le Nazi dont le discours s’apparente à de confuses et dérisoires logorrhées. La recherche d’une humanité déniée, à la base du dévoilement de l’individualité des personnages (prisonniers), émane de la grâce, de l’authenticité et de la force vitale de la protagoniste, la petite fille, tendue vers son plan-de-quand-même-vie. Forêt, écrit en parallèle, puis à la fin de Camp, n’est pas sa suite, mais l’est aussi… Court récit poétique, il raconte la traversée d’une forêt par une femme à la recherche de ses édens. Le lieu, interpellé et très souvent conspué pour ce qu’il est devenu, devient un actant. Forêt, se servant de ses restes mythiques, contraint le pas-à-pas de la femme, perdue d’avance. L’essai, Quatre objets de mémoire, porte sur l’appropriation et la transmission de la mémoire de la Shoah, à partir de restes, de détails, de petits riens, perçus ici comme d’imaginables traces. J’interroge les signes singuliers d’improbables objets (feuillets administratifs du Troisième Reich, clichés fragmentaires d’Auschwitz-Birkenau et photographies de ses bois et de ses latrines) afin d’y débusquer de petits morceaux du caché, du secret et de l’innommable de la Solution finale. L’affect ressenti en présence de ces objets, par ce que je nomme, le nécessaire abandon, y est analysé dans le dessein d’en saisir leurs douleurs et de les rendre miennes. L’œuvre de l’artiste de la photo, Marie-Jeanne Musiol, sur Auschwitz-Birkenau, est à la base de ce désir de mémoire pérenne.
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.
Resumo:
La régulation post-transcriptionnelle joue un rôle de premier plan dans le contrôle fin de l’expression génique en permettant une modulation de la synthèse de protéines dans le temps et l’espace, en fonction des besoins de la cellule. Ainsi, des protéines reconnaissant des éléments d’ARN présents sur des transcrits peuvent influencer toutes les étapes de leur existence, soit leur épissage, leur export nucléaire, leur localisation subcellulaire, leur traduction et leur dégradation. Staufen1 (Stau1) est un membre de la famille des protéines liant l’ARN double-brin qui contribue à la régulation post-transcriptionnelle par son implication dans des mécanismes qui vont promouvoir l’épissage alternatif, le transport, la dé-répression de la traduction et l’induction de la dégradation d’ARN messagers (ARNm) spécifiques. L’identité des cibles potentielles de Stau1 est maintenant connue puisqu’une étude à l’échelle du génome a montré que la protéine s’associe à près de 7% du transcriptome des cellules HEK293T. Ces ARNm se classent dans un large éventail de catégories fonctionnelles, mais il est tout de même intéressant de noter qu’une grande proportion d’entre eux code pour des protéines reliées au métabolisme cellulaire et à la régulation de processus cellulaires. En considérant toutes ces informations, nous avons émis l’hypothèse que les différentes activités de Stau1 puissent être modulées afin de contrôler adéquatement l’expression des transcrits liés par la protéine. Dans la mesure où certains ARNm faisant partie des complexes définis par la présence de Stau1 codent pour des régulateurs clés de la prolifération cellulaire, nous avons voulu examiner si l’expression de la protéine varie au cours du cycle de division cellulaire. Nous avons montré que l’abondance de Stau1 est maximale en début de mitose et qu’elle diminue ensuite lorsque les cellules complètent la division cellulaire. Nous avons ensuite découvert que cette baisse d’expression de Stau1 en sortie de mitose dépend du complexe promoteur d’anaphase/cyclosome (APC/C). En soutien à l’idée que Stau1 soit une cible de cette ubiquitine ligase de type E3, nous avons de plus démontré que Stau1 est ubiquitiné et dégradé par le protéasome. Ce contrôle des niveaux de Stau1 semble important puisque la surexpression de la protéine retarde la sortie de mitose et entraîne une diminution importante de la prolifération cellulaire. Par ailleurs, nous avons supposé que les différentes fonctions de Stau1 puissent également être sujettes à une régulation. Compte tenu que les activités de nombreuses protéines liant l’ARN peuvent être contrôlées par des modifications post-traductionnelles telles que la phosphorylation, nous avons voulu tester la possibilité que Stau1 soit phosphorylé. L’immunopurification de Stau1 et son analyse par spectrométrie de masse nous a permis d’identifier trois phosphosites dans la protéine. L’évaluation du rôle de ces événements de phosphorylation à l’aide de mutants phoshomimétiques ou non-phoshorylables a révélé que la modification de Stau1 pourrait compromettre son association à la protéine UPF1. Comme cette interaction est nécessaire pour déstabiliser les transcrits liés par Stau1, nos résultats suggèrent fortement que la fonction de Stau1 dans la dégradation d’ARNm est régulée négativement par sa phosphorylation. Toutes ces données mettent en lumière l’importance des modifications post-traductionnelles telles que l’ubiquitination et la phosphorylation dans la modulation de l’expression et des fonctions de Stau 1. Somme toute, il est vraisemblable que ces mécanismes de contrôle puissent avoir un impact significatif sur le destin des ARNm liés par Stau1, particulièrement dans un contexte de progression dans le cycle cellulaire.
Resumo:
L’obésité est définie comme un surplus de masse adipeuse. Cette condition représente un problème de santé publique devenu pandémique dans les pays industrialisés. Elle prédispose à des maladies potentiellement mortelles comme le diabète de type 2, les maladies cardiovasculaires et la stéatose hépatique non-alcoolique. L’accumulation du tissu adipeux intra-abdominal, formé d’adipocytes, est corrélée avec la résistance à l’insuline. L’augmentation de la masse adipeuse se fait par l’hyperplasie des préadipocytes, la différenciation des préadipocytes en adipocytes et l’hypertrophie des adipocytes. La différenciation des préadipocytes se fait selon l’adipogenèse qui est régulée par une multitude de facteurs, mais qui est inhibée pas les stimuli inflammatoires qui sont aussi responsables de la résistance à l’insuline et de l’apparition des problèmes de santé liés à l’obésité. Nous avons identifié un nouveau système de régulation autocrine/paracrine de l’adipogenèse dans les cellules du tissu adipeux. Le pyroglutamylated RF-amide peptide (QRFP), qui était connu pour son rôle dans la régulation de l’appétit, est un activateur de l’adipogenèse par l’activation de son récepteur, le G protein-coupled receptor 103 (GPR103). Le QRFP est exprimé dans les macrophages et les adipocytes alors que le GPR103 de sous-type b est exprimé dans les adipocytes seulement. Un traitement des adipocytes avec le QRFP augmente le captage des acides gras, l’accumulation de lipides ainsi que l’expression et l’activité de l’enzyme LPL. Le QRFP augmente aussi l’expression des gènes des transporteurs d’acides gras CD36 et FATP1, de l’enzyme activatrice d’acides gras ACSL1 et des facteurs de transcription PPAR-γ et C/EBP-α, qui sont tous impliqués dans l’adipogenèse. En plus de ses effets sur l’adipogenèse, le QRFP possède aussi un effet inhibiteur sur l’activité lipolytique induite par les catécholamines. Nous avons montré que l’expression du QRFP est diminuée dans le tissu adipeux des souris obèses. Selon nos résultats, cette diminution pourrait être expliquée par une augmentation des endotoxines circulantes chez les obèses, appelée endotoxémie métabolique, qui agirait, entre autres, par l’induction des interférons dans les macrophages. Les voies de signalisation de ces effets ont aussi été identifiées. Nous avons montré un autre exemple de stimulus inflammatoire qui régule les signaux adipogènes à la baisse.
Resumo:
La stimulation du récepteur de la rénine/prorénine [(P) RR], un membre récemment découvert du système rénine-angiotensine (SRA), augmente l'activité du SRA et des voies de signalisation angiotensine II-indépendante. Pour étudier l'impact potentiel du (P)RR dans le développement de l`obésité, nous avons émis l'hypothèse que les souris déficientes en (P)RR uniquement dans le tissus adipeux (KO) auront une diminution du poids corporel en ciblant le métabolisme du tissu adipeux, l'activité locomoteur et/ou la prise alimentaire. Ainsi, des souris KO ont été générées en utilisant la technologie Cre/Lox. Le gain de poids et la prise alimentaire ont été évalués hebdomadairement dans les mâles et femelles KO et de type sauvage (WT) pendant 4 semaines alors qu’ils étaient maintenu sur une diète normal. De plus, un groupe de femelles a été placé pour 6 semaines sur une diète riche en gras et en glucides (HF/HC). La composition corporelle et l'activité ambulatoire ont été évaluées par l’EchoMRI et à l’aide de cages Physioscan, respectivement. Les tissus adipeux ont été prélevés et pesés. De plus, les gras péri-gonadaux ont été utilisés pour le microarray. Finalement, le niveaux d'expression d'ARNm du (P)RR ont été évalués. Comme le gène du (P)RR est situé sur le chromosome X, les mâles étaient des KOs complets et les femelles étaient des KOs partielles. Les souris KO avaient un poids corporel significativement plus petit par rapport à WT, les différences étant plus prononcées chez les mâles. De plus, les femelles KOs étaient résistantes à l'obésité lorsqu'elles ont été placées sur la diète HF/HC et donc elles avaient significativement moins de masse grasse par rapport aux WTs. L’analyse histologique des gras péri-gonadaux des KOs nous ont dévoilés qu’il avait une réduction du nombre d'adipocytes mais de plus grande taille. Bien qu'il n'y ait eu aucun changement dans la consommation alimentaire, une augmentation de près de 3 fois de l'activité ambulatoire a été détectée chez les mâles. De plus, nous avons observé que leurs tibias étaient de longueur réduite ce qui suggère fortement l'affection de leur développement. Les gras péri-gonadaux des souris KO avaient une expression réduite de l`ABLIM2 (Actin binding LIM protein family, member 2) qui est associé avec le diabète de type II chez l'humain. Ainsi, les données recueillies suggèrent fortement que le (P)RR est impliquée dans la régulation du poids corporelle.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.
Resumo:
La transglutaminase microbienne (Microbial transglutaminase : MTG) est fortement exploitée dans l’industrie textile et alimentaire afin de modifier l’apparence et la texture de divers produits. Elle catalyse la formation de liaisons iso-peptidiques entre des protéines par l’entremise d’une réaction de transfert d’acyle entre le groupement γ-carboxamide d’une glutamine provenant d’un substrat donneur d’acyle, et le groupement ε-amino d’une lysine provenant d’un substrat accepteur d’acyle. La MTG est tolérante à un large éventail de conditions réactionnelles, ce qui rend propice le développement de cette enzyme en tant que biocatalyseur. Ayant pour but le développement de la MTG en tant qu’alternative plus soutenable à la synthèse d’amides, nous avons étudié la réactivité d’une gamme de substrats donneurs et accepteurs non-naturels. Des composés chimiquement diversifiés, de faible masse moléculaire, ont été testés en tant que substrats accepteurs alternatifs. Il fut démontré que la MTG accepte une large gamme de composés à cet effet. Nous avons démontré, pour la première fois, que des acides aminés non-ramifiés et courts, tels la glycine, peuvent servir de substrat accepteur. Les α-acides aminés estérifiés Thr, Ser, Cys et Trp, mais pas Ile, sont également réactifs. En étendant la recherche à des composés non-naturels, il fut observé qu’un cycle aromatique est bénéfique pour la réactivité, bien que les substituants réduisent l’activité. Fait notable, des amines de faible masse moléculaire, portant les groupements de forte densité électronique azidure ou alcyne, sont très réactives. La MTG catalyse donc efficacement la modification de peptides qui pourront ensuite être modifiés ou marqués par la chimie ‘click’. Ainsi, la MTG accepte une variété de substrats accepteurs naturels et non-naturels, élargissant la portée de modification des peptides contenant la glutamine. Afin de sonder le potentiel biocatalytique de la MTG par rapport aux substrats donneurs, des analogues plus petits du peptide modèle Z-Gln-Gly furent testés; aucun n’a réagi. Nous avons toutefois démontré, pour la première fois, la faible réactivité d’esters en tant que substrats donneurs de la MTG. L’éventuelle amélioration de cette réactivité permettrait de faire de la MTG un biocatalyseur plus général pour la synthèse d’amides. Mots clés: Lien amide, biocatalyse, biotransformation, transglutaminase, arrimage moléculaire, criblage de substrats, ingénierie de substrats.
Resumo:
Partout dans le monde, des tribunaux empruntent l’autoroute de l’information et choisissent le dépôt électronique comme moyen de faire évoluer les systèmes judiciaires. Certains tribunaux canadiens ont rallié le mouvement, mais la plupart se contentent pour l’instant d’observer, risquant de se voir claquer au nez la porte du cybermonde. Les obstacles invoqués sont divers et vont du manque d’argent et de ressources techniques à l’absence d’une masse critique de dépôts justifiant l’investissement initial nécessaire pour faire entrer le tribunal au XXIe siècle. La Cour fédérale, la Cour suprême et quelques partenaires du secteur privé étudient un modèle de nature à éliminer certains de ces obstacles, qui permettrait de numériser l’information qui circule entre les parties à un litige, leurs avocats et les tribunaux, grâce à la technologie sécurisée de l’Internet, fondée sur le Web. Le présent rapport expose la perspective des praticiens et énonce les avantages, les difficultés et les risques associés au modèle.
Resumo:
Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.
Resumo:
Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne l’auteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Église, à une souveraineté laïque, celle de l'État, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourd’hui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, l’auteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'État d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à l’aube de l’ère numérique.
Resumo:
ans ce texte, l’auteur s’emploie à remettre en cause la méthode utilisée par le droit pour évaluer les dommages causés à une personne par les médias de masse lorsqu’il y a diffamation. Il montre que bien que les médias de masse disposent d’une large diffusion, leur influence réelle sur les personnes qui les consomment est loin d’être aussi évidente. Pour Langelier, divers phénomènes doivent être pris en compte pour évaluer les dommages réels causés aux personnes lorsqu’il y a diffamation. Au nombre de ceux-ci, mentionnons l’état des connaissances issues des sciences sociales sur l’influence potentielle des médias en regard de la formation des opinions individuelles, le degré de pénétration du médium en cause, la composition de l’auditoire auquel le médium s’adresse, le contexte social dans lequel le médium intervient, l’usage social des médias dans la société concernée, le degré de crédibilité dont disposent les médias dans cette société, l’importance relative des médias les uns par rapport aux autres et les raisons d’intérêt public justifiant une telle intervention. De l’examen de chacun de ces facteurs dans le contexte de la société canadienne, l’auteur conclut que l’influence des médias sur la formation de l’opinion publique et des opinions individuelles est relativement faible sinon inexistante. En conséquence, il trouve inappropriées l’orientation, le point de vue et la méthode avec lesquels le droit réalise ses déterminations lorsqu’il y a faute en matière de diffamation. Il appelle donc les juristes à rompre avec les présupposés et les mythes et à adopter une approche plus fine et plus réaliste de ces réalités.