187 resultados para Particules lourdes chargées
Resumo:
La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.
Resumo:
La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.
Resumo:
Le virus respiratoire syncytial (RSV) est un virus à ARN de polarité négative. Les études démontrent que toute la population sera infectée par ce virus au moins deux fois avant l’âge de 3 ans. Le RSV peut provoquer plusieurs pathologies respiratoires telles que la bronchiolite aiguë et la pneumonie. Les infections sévères corrèlent avec le développement de l’asthme. Lors d’une infection virale, les particules du RSV sont détectées par le senseur RIG-I qui induit l’activation des facteurs de transcription NF-κB et IRF-3. Respectivement, les facteurs de transcription activeront les réponses inflammatoire et antivirale. Au coeur des pathologies induites par le RSV se trouve une réponse immunitaire mal adaptée. Plus précisément, par l’entremise de NF-κB, le RSV provoque une production exagérée de cytokines et chimiokines qui induisent une réponse inflammatoire démesurée provoquant du dommage tissulaire. Paradoxalement, le RSV est capable d’échapper à la réponse antivirale. Ces deux phénomènes sont contrôlés par l’entremise des protéines non structurales NS1 et NS2. Le mécanisme délimitant le mode d’action de NS1 et NS2 sur la réponse antivirale reste à être déterminé. Avec pour objectif d’élucider comment NS1 et NS2 inhibent la réponse antivirale, nous avons investigué le mécanisme de reconnaissance de l’hôte vis-à-vis de RSV. Nous démontrerons, pour la première fois, que le senseur cytosolique MDA5 est impliqué dans la réponse antivirale contre le RSV. Nous présenterons des résultats préliminaires qui suggèrent que le rôle de MDA5 est non redondant à RIG-I. À l’aide d’ARN interférant dirigé contre RIG-I et de transfection de MDA5, nous démontrerons que MDA5 ne contribue pas à la phosphorylation d’IRF-3, mais plutôt qu’elle régit la stabilité du facteur de transcription. Nous démontrerons aussi que, contrairement à l’hypothèse actuelle sur le fonctionnement de NS1 et NS2, l’inhibition de ces derniers ne provoque pas une augmentation de la cytokine antivirale IFN−β. Cependant, l’expression ectopique de NS1 et NS2 réduit l’activité du promoteur de l’IFN-β et de la protéine cytoplasmic antivirale ISG56 lorsqu’elle est mesurée par essai luciférase.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
"Toute vérité est bonne à dire. Mais dire le droit nécessite sans doute la connaissance par le juge des normes universelles envisagées sous l'angle constitutionnel des droits fondamentaux de l'homme et de la société. Le fondement d'un tel principe trouve sa consécration dans le droit à l'information et à la protection juridique du devoir d'informer par les journalistes. Aujourd'hui, dans tout État de droit moderne et démocratique, la question se trouve nettement posée : comment adapter la fonction de poursuite et du jugement en matière de presse avec les garanties du droit à la liberté d'expression et au droit d'accès aux sources de l'information et par conséquent faciliter l'exercice de la mission du journaliste ? Aussi, comment organiser les relations professionnelles entre le pouvoir judiciaire, protecteur de l'ordre public et le pouvoir de la presse pourvoyeur et source de l'information ? Autant de questions qui se posent en droit algérien et au problème des limites de forme et de fond de ce droit et plus particulièrement en matière des délits de presse. Ainsi, ces aspects ont été mis en évidence dans différents systèmes juridiques, dans plusieurs pays du monde, notamment en droit pénal de la presse français. Cela implique l'intervention de l'État et des autorités publiques pour assurer et protéger le droit à l'information des citoyens qui constitue d'ailleurs le second aspect de la liberté d'information afin d'en assurer l'exercice effectif. Le problème est crucial en droit positif algérien ; il évolue souvent dans un climat de conflit et de tension entre le pouvoir et la presse de telle sorte que l'injure et la diffamation publique se définissent comme des délits de presse aux sanctions assez lourdes. Ces délits relèvent d'un régime pénal particulier dans la mesure où le législateur ne fait aucune distinction entre un article de presse considéré comme diffamatoire ou injurieux et une simple insulte proférée par un individu à l'encontre d'autres personnes. La spécificité de la profession journalistique n'est guère prise en compte. La notion d'exception de vérité fait défaut dans les dispositions ajoutées par le législateur en 2001 et modifiant le Code pénal algérien. De plus, la loi permet aux pouvoirs publics de s'autosaisir et d'engager automatiquement la procédure de poursuite judiciaire tant que le délit n'est pas prescrit. Cela nous interpelle sur le caractère spécial et exceptionnel de la notion de délit de presse et nous oblige à nous interroger sur leurs caractères d'identification en cas de déclenchement de l'action publique contre le journaliste ; et sur l'absence quasi-systématique du droit de réponse, au-delà des sanctions que le juge pourrait être amené à prononcer contre un organe de presse ou un journaliste. Certes, la dépénalisation des délits de presse n'est pas pour demain ; et le chemin est laborieux pour la corporation des journalistes mais personne ne peut nier leurs souhaits d'abolir les sanctions infligées à leur encontre par la proposition d'une application plus douce de la loi pénale aussi bien sur le plan de la procédure que sur le fond. Cela doit s'inscrire dans des nouvelles dispositions pour lesquelles le droit algérien de l'information ne peut pas être évidemment en marge, dans le cadre de la mondialisation de la presse, de l'émergence de la société de l'information et des nouveaux supports de communication."
Resumo:
"Au début du millénaire, le gouvernement mexicain déclarait le pays en état d’alerte hydrique. En valeur absolue, le Mexique ne manque pas d’eau douce ; c’est son inégale répartition sur le territoire, la pollution de la ressource et le mauvais entretien des infrastructures d’assainissement et de distribution qui sont responsables de cette pénurie. Les auteures proposent de comprendre cette situation à travers l’influence que le contexte socio-économique du pays et son niveau de dépendance internationale a eu sur l’élaboration des politiques publiques et l’adoption des modes de gouvernance : traditionnellement considérée comme une chose commune, la gestion de l’eau fut longtemps confiée aux seules instances publiques chargées de veiller à l’intérêt général ; depuis quelques 10 ans, d’autres modes de gouvernance fondés sur la décentralisation administrative, la démocratisation décisionnelle, mais également la privatisation de la ressource, ont été impulsés par les organismes économiques internationaux."
Resumo:
Face à la nouveauté, les outils traditionnels du droit que sont la fiction et la présomption ont été légitimement utilisés par le législateur cherchant à encadrer au mieux les technologies de l’information. Néanmoins, ces outils ne sont pas neutres et il s’agira dans ces quelques lignes d’offrir un regard critique sur certaines tendances législatives lourdes de conséquences, notamment celles de neutralité technologique et d’équivalence fonctionnelle.
Resumo:
L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà, sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
L’infection par le VIH-1 est caractérisée par une activation chronique du système immunitaire et par une réduction graduelle du nombre de lymphocytes TCD4+, qui contribuent à une détérioration lente du système immunitaire menant à la phase SIDA. Paradoxalement, ce sont majoritairement des lymphocytes T CD4+ non infectés qui sont détruits et la cause de ce phénomène reste encore inconnue. Certaines protéines virales, dont la protéine accessoire Vpr, sont soupçonnées de jouer un rôle dans ce processus. Synthétisée tardivement, Vpr est incorporée à l’intérieur des virions, en plus d’être relâchée sous forme soluble dans le milieu extracellulaire. La principale fonction biologique de Vpr est l’induction d’un arrêt de cycle en phase G2/M, via le recrutement du complexe d’ubiquitine E3 ligase CUL4A-DDB1VprBP et l’activation de la voie de dommage à l’ADN contrôlée par la kinase ATR. Une étude démontre que l’activation des voies de dommages à l’ADN conduit à l’expression de ligands du récepteur activateur NKG2D, exprimés par les cellules NK, déclenchant leurs fonctions cytolytiques. Chose intéressante, plusieurs études suggèrent que le VIH-1 régule positivement l’expression des ligands de NKG2D à la surface des lymphocytes T CD4+ infectés. Cependant, le facteur viral impliqué dans ce processus reste encore indéfini. Le but de cette thèse était d’évaluer le rôle de Vpr dans la modulation des fonctions cytolytiques des cellules NK et son implication potentielle dans la destruction des lymphocytes T CD4+. Nos travaux ont permis de démontrer que l’expression de Vpr, seule ou dans le contexte de l’infection, est suffisante afin d’augmenter spécifiquement l’expression du ligand de NKG2D, ULBP2, au niveau de lymphocytes T CD4+ primaires. Conséquemment, Vpr augmente ainsi la susceptibilité de ces cellules à une lyse par des cellules NK autologues. Nous démontrons que cette régulation positive d’ULBP2 repose sur la capacité de Vpr de recruter le complexe d’ubiquitine E3 ligase DDB1-CUL4AVprBP et l’activation de la voie de dommage à l’ADN ATR. Plus important encore, nous apportons des preuves que Vpr augmente également l’expression d’ULBP2 au niveau des cellules non infectées lors d’une infection de lymphocytes TCD4+ par le VIH-1. À cet effet, nous montrons que l’acheminement de Vpr au niveau de lymphocytes T CD4+ non infectés via des particules virales défectives est suffisant afin de réguler positivement ULBP2 et d’augmenter leur lyse par des cellules NK autologues. De plus, nous décrivons pour la première fois que Vpr, sous forme soluble, a la capacité d’induire des dommages à l’ADN et de réguler positivement ULBP2 suite à la transduction de différents types cellulaires, incluant des cellules T. Globalement, nos résultats démontrent que Vpr est un facteur viral clé impliqué dans la régulation positive des ligands de NKG2D induite par le VIH-1. Cette régulation positive d’ULBP2 pourrait alors contribuer à la destruction des lymphocytes T CD4+ infectés et non infectés via l’activation des fonctions cytolytiques des cellules NK. Une meilleure compréhension de la contribution de cette activité de Vpr dans la pathogenèse du VIH-1 a le potentiel de permettre le développement de nouvelles cibles ou stratégies thérapeutiques contre le VIH-1.
Resumo:
La tolérance immunitaire dépend de la distinction entre le soi et le non soi par le système immunitaire. Un bris dans la tolérance immunitaire mène à l'auto-immunité, qui peut provoquer la destruction des organes, des glandes, des articulations ou du système nerveux central. Le diabète auto-immun, également connu sous le nom diabète juvénile et diabète de type 1, résulte d'une attaque auto-immune sur les cellules β pancréatiques sécrétrices d’insuline, localisées au niveau des îlots de Langerhans du pancréas. Bien que le diabète auto-immun soit traitable par une combinaison d’injections quotidiennes d’insuline d’origine exogène, de régime et d'exercices, beaucoup de complications chroniques peuvent se manifester chez les patients, y compris, mais non limitées à, la cécité, les maladies cardiovasculaires, l’insuffisance rénale et l'amputation. En raison des nombreuses complications liées au diabète auto-immun à long terme, la recherche continue afin de mieux comprendre tous les facteurs impliqués dans la progression de la maladie dans le but de développer de nouvelles thérapies qui empêcheront, renverseront et/ou traiteront cette maladie. Un rôle primordial dans la génération et l'entretien de la tolérance immunitaire a été attribué au nombre et à la fonction des sous-populations de cellules régulatrices. Une de ces populations est constituée de cellules T CD4-CD8- (double négatives, DN), qui ont été étudiées chez la souris et l'humain pour leur contribution à la tolérance périphérique, à la prévention des maladies et pour leur potentiel associé à la thérapie cellulaire. En effet, les cellules de T DN sont d'intérêt thérapeutique parce qu'elles montrent un potentiel immunorégulateur antigène-spécifique dans divers cadres expérimentaux, y compris la prévention du diabète auto-immun. D’ailleurs, en utilisant un système transgénique, nous avons démontré que les souris prédisposées au diabète auto-immun présentent peu de cellules T DN, et que ce phénotype contribue à la susceptibilité au diabète auto-immun. En outre, un transfert des cellules T DN est suffisant pour empêcher la progression vers le diabète chez les souris prédisposées au diabète auto-immun. Ces résultats suggèrent que les cellules T DN puissent présenter un intérêt thérapeutique pour les patients diabétiques. Cependant, nous devons d'abord valider ces résultats en utilisant un modèle non-transgénique, qui est plus physiologiquement comparable à l'humain. L'objectif principal de cette thèse est de définir la fonction immunorégulatrice des cellules T DN, ainsi que le potentiel thérapeutique de celles-ci dans la prévention du diabète auto-immun chez un modèle non-transgénique. Dans cette thèse, on démontre que les souris résistantes au diabète auto-immun présentent une proportion et nombre absolu plus élevés de cellules T DN non-transgéniques, lorsque comparées aux souris susceptibles. Cela confirme une association entre le faible nombre de cellules T DN et la susceptibilité à la maladie. On observe que les cellules T DN éliminent les cellules B activées in vitro par une voie dépendante de la voie perforine et granzyme, où la fonction des cellules T DN est équivalente entre les souris résistantes et prédisposées au diabète auto-immun. Ces résultats confirment que l'association au diabète auto-immun est due à une insuffisance en terme du nombre de cellules T DN, plutôt qu’à une déficience fonctionnelle. On démontre que les cellules T DN non-transgéniques éliminent des cellules B chargées avec des antigènes d'îlots, mais pas des cellules B chargées avec un antigène non reconnu, in vitro. Par ailleurs, on établit que le transfert des cellules T DN activées peut empêcher le développement du diabète auto-immun dans un modèle de souris non-transgénique. De plus, nous observons que les cellules T DN migrent aux îlots pancréatiques, et subissent une activation et une prolifération préférentielles au niveau des ganglions pancréatiques. D'ailleurs, le transfert des cellules T DN entraîne une diminution d'auto-anticorps spécifiques de l'insuline et de cellules B de centres germinatifs directement dans les îlots, ce qui corrèle avec les résultats décrits ci-dessus. Les résultats présentés dans cette thèse permettent de démontrer la fonction des cellules T DN in vitro et in vivo, ainsi que leur potentiel lié à la thérapie cellulaire pour le diabète auto-immun.
Resumo:
La phosphorylation des protéines constitue l’une des plus importantes modifications post-traductionnelles (PTMs) et intervient dans de multiples processus physiologiques tels, la croissance, la différenciation cellulaire, l’apoptose, etc. En dépit de son importance, l’analyse des phosphoprotéines demeure une tâche difficile en raison de leur nature dynamique (car la phosphorylation des protéines est un processus réversible) et de leur faible abondance relative. En effet, la détermination des sites de phosphorylation est souvent difficile car les phosphopeptides sont souvent difficiles à détecter par des méthodes d’analyse chromatographique classique et par spectrométrie de masse (MS). De récentes études ont démontré que les nombreuses méthodes d’enrichissement de phosphopeptides existantes ne sont pas complètes, et que le nombre total de phosphopeptides détectés ne chevauchent pas complètement ces méthodes. C’est pour cela qu’il existe une nécessité de combler les lacunes des méthodes d’enrichissement existantes afin d’avoir des analyses phosphoprotéomiques plus complètes. Dans cette étude, nous avons utilisé les liquides ioniques (LI), plus particulièrement les sels d’imidazolium, comme une technique d’enrichissement alternative, dans le but de favoriser une extraction sélective de phosphopeptides présents en solution. Les sels d’imidazolium ont donc été utilisés en raison de leurs propriétés physico-chimiques "facilement" ajustables selon la nature des substituants sur le noyau imidazolium et la nature de l’anion. Les sels de monoimidazolium et de bis-imidazolium possédant respectivement des chaînes linéaires à 4, 12 et 16 atomes de carbone et ayant différents anions ont été synthétisés et utilisés pour effectuer des extractions liquide-liquide et solide-liquide des phosphopeptides en solution. Dans un premier temps, des extractions liquide-liquide ont été réalisées en utilisant un liquide ionique (LI) ayant une chaine linéaire de 4 atomes de carbone. Ces extractions réalisées avec le bis(trifluoromethanesulfonyl) amide de 3-butyl-1-methylimidazolium (BMIM-NTf2) et l’hexafluorophosphate de 3-butyl-1-methylimidazolium (BMIM-PF6) n’ont pas montré une extraction notable du PPS comparativement au PN. Dans un deuxième temps, des extractions solide-liquide ont été réalisées en fonctionnalisant des particules solides avec des sels d’imidazolium possédant des chaines linéaires de 12 ou 16 atomes de carbone. Ces extractions ont été faites en utilisant un phosphopentapeptide Ac-Ile-pTyr-Gly-Glu-Phe-NH2 (PPS) en présence de 2 analogues acides non-phosphorylés. Il a été démontré que les sels d’imidazolium à chaine C12 étaient meilleurs pour extraire le PPS que les deux autres peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) et PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2) L’électrophorèse capillaire (CE) et la chromatographie liquide à haute performance couplée à la spectrométrie de masse (LC-MS) ont été utilisées pour quantifier le mélange des trois peptides avant et après extraction ; dans le but de mesurer la sélectivité et l’efficacité d’extraction de ces peptides par rapport à la composition chimique du liquide ionique utilisé.