997 resultados para Parc Natural de ses Salines d’Eivissa i Formentera
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Le béluga du Saint-Laurent est une espèce menacée au Canada et protégée par la Loi sur les espèces en péril du Canada. La détermination des fonctions biologiques de ses habitats essentiels est nécessaire afin d’assurer le rétablissement de la population. Parcs Canada a entamé en 2009 un suivi des proies du béluga dans deux de ses aires de fréquentation intensive situées dans le Parc marin du Saguenay–Saint-Laurent : l’embouchure de la rivière Saguenay et la baie Sainte-Marguerite. L’étude de l’abondance et de la distribution des proies est réalisée par sondage hydroacoustique le long de transects à l’aide d’un échosondeur multifréquences. Un protocole d’observations systématiques du béluga est mené simultanément aux sondages hydroacoustiques à partir de sites terrestres. Le premier objectif de cette étude est de développer la méthodologie concernant le traitement, la classification et la cartographie des données hydroacoustiques échantillonnées. L’objectif principal consiste à déterminer si l’abondance et la distribution des proies pélagiques ont une influence sur l’utilisation de ces deux habitats par le béluga. La cartographie de la biomasse relative de poissons a été réalisée pour la couche de surface, la couche en profondeur et pour l’ensemble de la colonne d’eau par krigeage ordinaire pour les deux habitats pour les 29 transects. À la baie Sainte-Marguerite, le nombre de bélugas observés augmente avec la biomasse relative des proies en surface et en profondeur. À l’embouchure de la rivière Saguenay, les résultats n’ont pas été concluants. Les résultats suggèrent que l’alimentation pourrait être l’une des fonctions biologiques de la baie Sainte-Marguerite.
Resumo:
Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III
Resumo:
La leucémie lymphoïde représente environ 30% des cas de cancer chez l’enfant. Elle est souvent causée par des réarrangements chromosomiques impliquant des gènes encodant des facteurs de transcription, qui contrôlent des programmes génétiques complexes. Par exemple, LMO2 (LIM-only 2) est un facteur de transcription oncogénique fréquemment exprimé de façon aberrante dans les leucémies lymphoblastiques aigues des cellules T (T-ALL). Dans l’hématopoïèse normale, LMO2 est essentiel à la génération des cellules souches hématopoïétiques à l’origine de toutes les cellules sanguines. D’ailleurs, certaines cellules leucémiques possèdent des propriétés normalement réservées aux cellules souches hématopoïétiques. Ainsi, l’étude de la fonction de LMO2 dans les cellules souches hématopoïétiques peut être pertinente autant dans le contexte hématopoïétique normal que leucémique. Afin de mettre en évidence de nouvelles fonctions moléculaires pour LMO2, j’ai choisi d’identifier les protéines qui s’y associent. En plus de ses partenaires connus, j’ai identifié plusieurs protéines de transcription/remodelage de la chromatine, en accord avec son rôle transcriptionnel. Plusieurs nouvelles fonctions potentielles ont été révélées, indiquant que cette protéine adaptatrice pourrait faire partie de complexes non transcriptionnels, régulant d’autres processus cellulaires. Les oncogènes comme LMO2 pourraient être des régulateurs à large spectre. Particulièrement, j’ai identifié des interactions entre LMO2 et des protéines de réplication de l’ADN. J’ai montré que LMO2 contrôle la réplication de l’ADN dans les cellules hématopoïétiques, et possiblement durant la leucémogenèse, indépendamment de son rôle transcriptionnel. Ensemble, ces études ont donc permis de révéler de nouvelles fonctions pour LMO2, et pourraient servir de paradigme pour d’autres facteurs de transcription oncogéniques, particulièrement aux autres protéines de la famille LMO, qui sont aussi des oncogènes puissants.
Resumo:
Peut-on parfois être blâmé pour ses croyances ? Selon les partisans du déontologisme épistémique, la pratique ordinaire consistant à blâmer et critiquer les gens pour leurs croyances est tout à fait légitime. Toutefois, d’autres philosophes soutiennent que malgré son omniprésence dans la vie de tous les jours, le blâme doxastique n’est jamais approprié. En effet, selon l’argument à partir de l’involontarisme doxastique, nous ne pouvons jamais être blâmés pour nos croyances puisque (1) nous pouvons être blâmés pour une croyance seulement si elle est sous notre contrôle volontaire et (2) nos croyances ne sont jamais sous notre contrôle volontaire. Le but de ce mémoire est de déterminer si les déontologistes peuvent répondre de manière convaincante à cet argument. Autrement dit, pouvons-nous parfois être blâmés pour nos croyances malgré ce qu’en disent les anti-déontologistes, ou faut-il leur donner raison et rejeter la pratique du blâme doxastique ? Pour répondre à cette question, je commence par clarifier l’argument anti-déontologiste en précisant la teneur de sa thèse centrale : l’involontarisme doxastique. Par la suite, je passe en revue différentes stratégies qui ont été proposées par des représentants du déontologisme pour défendre le blâme doxastique contre cet argument. Devant l’échec de ces réponses, je suggère une défense alternative du déontologisme selon laquelle l’involontarisme doxastique n’est pas incompatible avec le blâme doxastique. Si cette réponse est concluante, alors nous n’avons pas à donner raison aux anti-déontologistes : nous pouvons parfois être blâmés pour nos croyances.
Resumo:
Ce manuscrit est une pré-publication d'un article paru dans Journal of Hepatology 2010; 53(5): 805-816.
Resumo:
L’arthrite septique chez les bovins est une affection le plus souvent d’origine bactérienne qui est une cause de boiterie fréquente associée à des pertes économiques importantes. Le traitement, qui doit être initié le plus rapidement possible, s’appuie sur l’utilisation combinée d’anti-inflammatoires non stéroïdiens, d’un ou de plusieurs lavages articulaires ainsi que d’antibiotiques administrés de façon systémique pour un minimum de 3 semaines. Cette durée d’administration constitue une difficulté pour les élevages dits biologiques pour lesquels un cahier des charges strict limite un recours prolongé aux antibiotiques. Ainsi le traitement efficace de diverses conditions infectieuses et celui de l’arthrite septique en particulier dans ces élevages peut être compromis. L’objectif de ce travail est de s’appuyer sur les propriétés antimicrobiennes des solutions de saline hypertonique (SSH) pour limiter l’utilisation des antibiotiques dans les cas d’arthrite septique chez les veaux en intégrant ces solutions pour le lavage des articulations infectées. Notre première étude a consisté à déterminer la sécurité d’emploi de deux concentrations de SSH (une commerciale à 7.2% et une maison à 15%) dans des articulations supposées saines chez le veau. Une synovite sévère associée à des signes cliniques caractéristiques d’atteintes articulaires a été observé lors de l’utilisation de SSH 15%. Son utilisation clinique comme solution de lavage articulaire est par conséquent déconseillée. Concernant la SSH 7.2%, malgré une synovite d’intensité variable, nous n’avons pas noté des signes cliniques caractéristiques d’atteintes articulaires. Son utilisation dans un contexte expérimental d’infection articulaire nous a paru réaliste. Notre seconde étude a permis d’évaluer les effets du lavage articulaire avec de la SSH 7.2% dans un modèle expérimental d’infection à Escherichia coli. Trois groupes de traitement ont été constitués. Dans le premier groupe (traitement standard), un lavage était effectué avec du lactate de Ringer (LRS) et les veaux recevaient une administration biquotidienne de ceftiofur par voie intraveineuse pour 21 jours. Dans le deuxième groupe (LRS), un lavage était effectué avec du LRS et aucun antibiotique n’était administré. Enfin dans le troisième groupe (SSH), un lavage était effectué avec de la SSH 7.2% sans qu’aucun antibiotique ne soit administré. Tous les veaux ont reçu du kétoprofen quotidiennement pendant 3 jours. L’inoculation s’est fait au jour 1 et les traitements ont débuté au jour 2. L’efficacité des traitements a été établie sur des critères cliniques, bactériologiques et cytologiques. Dans le modèle que nous avons utilisé, les trois groupes de traitements ont conduits à une guérison clinique et bactériologique satisfaisante (absence de boiterie, de douleur et de croissance bactérienne dans le liquide articulaire en fin d’étude). La guérison cytologique n’a quant à elle pas été jugée satisfaisante avec des moyennes de comptage et de pourcentage en neutrophiles tout groupe confondu bien supérieures aux valeurs normales (11.39x109/l de neutrophiles représentant 74.73% des leucocytes en fin d’étude). Le traitement avec la SSH 7.2% s’est révélé être significativement plus traumatique et pas plus efficace dans l’élimination de l’infection comparativement au traitement LRS. D’autre part, le lavage articulaire au LRS s’est révélé être aussi efficace et sécuritaire que le traitement standard de l’arthrite septique qui incluait 21 jours de ceftiofur administré par voie intraveineuse. Ainsi, bien que le lavage avec de la SSH 7.2% n’est pas démontré de résultats satisfaisants qui permettrait de limiter le recours aux antibiotiques dans les filières biologiques, l’association d’un lavage au LRS avec le ketoprofen s’est révélée être une alternative possible. De nouvelles études sont requises pour confirmer ses résultats et pour déterminer le rôle respectif du lavage articulaire et du ketoprofen dans la guérison lors d’arthrite septique.
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.
Resumo:
D'après des études récentes, le lien qui unit les propriétés objectives de la peine (c.-à-d. la sévérité, la certitude et la célérité de la peine) et les propriétés telles que perçues par les délinquants potentiels serait faible, voire inexistant. Par conséquent, les politiques publiques s'appuyant sur le paradigme dissuasif seraient inefficaces pour réduire la criminalité. Toutefois, ces études s'appuient sur un modèle conceptuel limité qui sous-entend que la peine produirait uniquement de la dissuasion. Cette étude vise donc à tester un modèle élargi de prévention générale qui intègre à la fois les notions de dissuasion et de validation normative. D'après ce modèle, l'effet préventif de la peine pourrait s'effectuer à travers les valeurs et les croyances des délinquants potentiels, et ce sans nécessairement modifier leurs perceptions de la peine. Afin de vérifier l'utilité d'un tel modèle, des données ont été colligées à l'aide d'un sondage sur les habitudes de conduite de 448 jeunes conducteurs québécois. Les résultats indiquent que les mécanismes dissuasifs, tels que la certitude perçue d'arrestation et la sévérité perçue des peines, n'ont pas d'effet significatif sur l'intention délictuelle des automobilistes. Toutefois, les valeurs et les croyances de l'automobiliste jouent un rôle essentiel dans la décision d'adopter un comportement routier respectueux des lois. Les automobilistes percevant les problématiques de sécurité routière (c.-à-d. alcool au volant ou vitesse) comme graves auraient moins d'intentions délinquantes. Ces valeurs et ces croyances seraient modulées à la fois par les expériences d'impunité et par le niveau d'exposition aux différentes activités policières sur les routes. Ces résultats suggèrent que l'application des lois peut produire un effet préventif sans nécessairement que des mécanismes dissuasifs en soient responsables.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Cette thèse traite de la résistance du VIH-1 aux antirétroviraux, en particulier de l'activité antivirale de plusieurs inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) ainsi que des inhibiteurs de protéase (IP). Nous avons exploré l’émergence et la spécificité des voies de mutations qui confèrent la résistance contre plusieurs nouveaux INNTI (étravirine (ETR) et rilpivirine (RPV)) (chapitres 2 et 3). En outre, le profil de résistance et le potentiel antirétroviral d'un nouvel IP, PL-100, est présenté dans les chapitres 4 et 5. Pour le premier projet, nous avons utilisé des sous-types B et non-B du VIH-1 pour sélectionner des virus résistants à ETR, et ainsi montré que ETR favorise l’émergence des mutations V90I, K101Q, E138K, V179D/E/F, Y181C, V189I, G190E, H221H/Y et M230L, et ce, en 18 semaines. Fait intéressant, E138K a été la première mutation à émerger dans la plupart des cas. Les clones viraux contenant E138K ont montré un faible niveau de résistance phénotypique à ETR (3,8 fois) et une diminution modeste de la capacité de réplication (2 fois) par rapport au virus de type sauvage. Nous avons également examiné les profils de résistance à ETR et RPV dans les virus contenant des mutations de résistance aux INNTI au début de la sélection. Dans le cas du virus de type sauvage et du virus contenant la mutation unique K103N, les premières mutations à apparaître en présence d’ETR ou de RPV ont été E138K ou E138G suivies d’autres mutations de résistance aux INNTI. À l’inverse, dans les mêmes conditions, le virus avec la mutation Y181C a évolué pour produire les mutations V179I/F ou A62V/A, mais pas E138K/G. L'ajout de mutations à la position 138 en présence de Y181C n'augmente pas les niveaux de résistance à ETR ou RPV. Nous avons également observé que la combinaison de Y181C et E138K peut conduire à un virus moins adapté par rapport au virus contenant uniquement Y181C. Sur la base de ces résultats, nous suggérons que les mutations Y181C et E138K peuvent être antagonistes. L’analyse de la résistance au PL-100 des virus de sous-type C et CRF01_AE dans les cellules en culture est décrite dans le chapitre 4. Le PL-100 sélectionne pour des mutations de résistance utilisant deux voies distinctes, l'une avec les mutations V82A et L90M et l'autre avec T80I, suivi de l’addition des mutations M46I/L, I54M, K55R, L76F, P81S et I85V. Une accumulation d'au moins trois mutations dans le rabat protéique et dans le site actif est requise dans chaque cas pour qu’un haut niveau de résistance soit atteint, ce qui démontre que le PL-100 dispose d'une barrière génétique élevée contre le développement de la résistance. Dans le chapitre 5, nous avons évalué le potentiel du PL-100 en tant qu’inhibiteur de protéase de deuxième génération. Les virus résistants au PL-100 émergent en 8-48 semaines alors qu’aucune mutation n’apparaît avec le darunavir (DRV) sur une période de 40 semaines. La modélisation moléculaire montre que la haute barrière génétique du DRV est due à de multiples interactions avec la protéase dont des liaison hydrogènes entre les groupes di-tétrahydrofuranne (THF) et les atomes d'oxygène des acides aminés A28, D29 et D30, tandis que la liaison de PL-100 est principalement basée sur des interactions polaires et hydrophobes délocalisées à travers ses groupes diphényle. Nos données suggèrent que les contacts de liaison hydrogène et le groupe di-THF dans le DRV, ainsi que le caractère hydrophobe du PL-100, contribuent à la liaison à la protéase ainsi qu’à la haute barrière génétique contre la résistance et que la refonte de la structure de PL-100 pour inclure un groupe di-THF pourrait améliorer l’activité antivirale et le profil de résistance.
Resumo:
Le but de ce mémoire est d’expliciter en détail et de voir la portée d'un passage bien précis du traité des Topiques, ouvrage où Aristote tente d'élaborer une méthode qui permettra de raisonner de manière dialectique. Dans le deuxième chapitre du premier livre (I, 2), il énonce de manière succincte trois utilités que le traité en question peut procurer à celui qui possède et maîtrise adéquatement cette méthode. En premier lieu, la dialectique servirait de gymnastique intellectuelle pour former l'esprit et lui donner plus de souplesse dans ses raisonnements. Dans un second temps, elle serait utile dans les rencontres de tous les jours avec autrui parce qu’elle permettrait de discuter et d'argumenter sur un sujet donné avec le premier venu. Enfin, il semble également que la dialectique soit utile pour les «connaissances de caractère philosophique», en ce sens qu'elle permettrait de développer les apories et ultimement, d'établir les principes ou les notions premières de chaque science. Dans ce travail, je me propose donc d’examiner chacune de ces prétendues utilités afin de voir comment, et dans quelle mesure, nous pouvons réellement affirmer que la dialectique s’avère profitable pour chacun des services énumérés en Topiques I, 2.
Resumo:
L’augmentation des interactions entre humains et animaux sauvages en lisière des habitats naturels pourrait faciliter la transmission d’agents pathogènes entre les humains et les différentes espèces animales d’un écosystème et ainsi favoriser l’émergence de maladies. Nous avons effectué une étude transversale portant sur l’infection par Giardia et Cryptosporidium chez les humains, les animaux domestiques, les rongeurs et les lémuriens au sein de l’écosystème de Ranomafana, Madagascar. Des échantillons de fèces ont étés collectés de manière non invasive chez des personnes volontaires, des mammifères domestiques et des rongeurs introduits habitant trois villages situés en lisière du Parc National de Ranomafana (PNR) ainsi que quatre espèces de lémuriens (Propithecus edwardsii, Prolemur simus, Eulemur rubriventer et Microcebus rufus) du PNR. Des analyses coproscopiques par la technique d’immunofluorescence directe ont été réalisées afin de détecter la présence de Cryptosporidium et Giardia. Leur prévalence a été estimée et certaines variables reliées à l’infection par les parasites ont été identifiées. Cryptosporidium et Giardia ont été détectés avec une prévalence estimée à 22,9 % et 13,6 % respectivement chez les humains. La prévalence de ces deux parasites variait de 0 % à 60 % chez les animaux domestiques et les rongeurs au sein des villages. L’espèce hôte, l’âge ainsi que la co-infection par un autre protozoaire sont les seules variables associées à l’infection par Cryptosporidium et Giardia dans cet écosystème tandis qu’aucune association avec une coinfection par un ordre de nématode n’a été détecté. De plus, Cryptosporidium a été détecté chez 10,5 % des lémuriens du PNR. Cette étude documente pour la première fois la présence de Cryptosporidium chez deux espèces de lémuriens du PNR. Par contre, Giardia n’a pas été détecté dans les échantillons issus de lémuriens du PNR.
Resumo:
La faune et la flore de l’île de La Réunion atteignent un niveau d’endémisme très élevé avec le tiers de sa surface encore recouverte par des forêts naturelles. Ces conditions exceptionnelles ont favorisé, en 2007, la création du Parc National de La Réunion qui couvre 40 % du territoire. Parmi les différentes atteintes à l’environnement dans les aires du Parc national, le braconnage est devenu, au cours des deux dernières décennies, un phénomène très préoccupant pour les différents acteurs locaux et régionaux qui s’occupent de la gestion de ce problème. Plusieurs espèces braconnées sont actuellement menacées et les dégâts occasionnés par les braconniers sont visibles dans le paysage réunionnais. Ce projet de recherche vise à répondre à la question de recherche suivante : De quelle façon se manifeste le braconnage (les motivations, la fréquence, les techniques, les lieux) dans le Parc national de La Réunion et comment les différents acteurs réagissent-ils face à la pratique du braconnage? La méthodologie de cette recherche repose sur une démarche combinant l’approche exploratoire et l’étude de cas. Les données qualitatives et quantitatives que nous avons utilisées pour cette étude ont été collectées par une recherche bibliographique, une collection de données statistiques, et par des entrevues (exploratoires, semi-dirigées, individuelles non-structurées) réalisées sur le terrain. Les résultats obtenus nous ont permis de constater que le braconnage à La Réunion est un phénomène ancré dans la culture locale et une conséquence directe du contexte économique actuel. Notre recherche a relevé deux catégories de braconniers : les braconniers occasionnels (touristes et braconniers du dimanche) et les braconniers professionnels. Le braconnage de type occasionnel est très largement répandu dans la population, car il s’inscrit dans une continuité des traditions. Le braconnage de type professionnel où le braconnier prélève de façon systématique dans la nature à des fins monétaires, est pratiqué par peu de gens, mais il occasionne de lourdes pertes contrairement au braconnage de type occasionnel. Les différentes méthodes mises en place par les divers acteurs impliqués dans la gestion du braconnage ont été répertoriées et examinées. Tandis que le poinçonnage des plants de vanille et le marquage des tangues sont efficaces, la délation des braconniers et les visites éducatives restent des pistes à explorer, et les conférences rééducatives des braconniers ainsi que la vente de permis de chasse au tangue ont démontré une faible efficacité. Des recommandations pour améliorer la dynamique entre les acteurs impliqués dans la gestion du braconnage ont été données par plusieurs de ces acteurs interrogés au cours de cette recherche.
Resumo:
Le système ubiquitine-protéasome est le principal mécanisme par lequel les protéines intracellulaires sont dégradées. Le protéasome dit constitutif (PC) est donc essentiel à l’homéostasie mais aussi à la régulation de la majorité des processus cellulaires importants. La découverte d’un deuxième type de protéasome, appelé immunoprotéasome (IP), soulève toutefois de nouvelles questions. Pourquoi existe-t-il plus d’un type de protéasome ? L’IP a-t-il des rôles redondants ou complémentaires avec le PC ? L’IP étant présent principalement dans les cellules immunitaires ou stimulées par des cytokines, plusieurs groupes ont tenté de définir son rôle dans la réponse immunitaire. Or, l’implication de son homologue constitutif dans un éventail de processus non spécifiquement immunitaires nous laisse croire que l’IP pourrait lui aussi avoir un impact beaucoup plus large. L’objectif de cette thèse était donc de caractériser certains rôles cellulaires de l’IP dans les cellules dendritiques. Nous avons d’abord étudié l’impact global de l’IP sur la présentation antigénique de classe I. Ce faisant, nous avons pu déterminer ses deux contributions principales, soit l’augmentation drastique du nombre et de la diversité des peptides présentés sur les complexes majeurs d’histocompatibilité de classe I. Les différences de clivage entre le PC et l’IP pourraient expliquer en partie cette diversité du répertoire peptidique, notamment par l’affinité apparente de l’IP pour les régions protéiques non structurées. Dans un deuxième temps, nous avons dévoilé un nouveau rôle de l’IP sur un processus dépassant le cadre immunitaire : la transcription. Nous avons découvert que l’IP modifie l’abondance des ARNm en agissant principalement au niveau de leur synthèse. L’impact de l’IP sur le transcriptome est majeur et serait dû en partie à une dégradation différente de facteurs de transcription des familles IRF, STAT et NF-kB. Les cellules dendritiques IP-déficientes activent moins efficacement les lymphocytes T CD8+ et nous croyons que cette défaillance est causée (du moins en partie) par la perturbation transcriptomique provoquée par l’absence d’IP. Il importe donc de comprendre les différents rôles moléculaires de l’IP afin de mieux définir sa contribution globale au fonctionnement de la cellule et comprendre l’avantage évolutif, au niveau de l’organisme, procuré par une telle plasticité du système ubiquitine-protéasome.