196 resultados para Échappatoire de la détection
Resumo:
L'hépatite C pose un problème de santé publique majeur, dans la mesure où le risque de développer une infection chronique est relativement élevé (40 à 60%) et où la résistance au traitement de choix - l’interféron alpha pégylé et la ribavirine - touche près de la moitié des patients. Cette persistence virale repose avant tout sur de puissantes stratégies d’évasion du système immunitaire inné de l’hôte par le virus. Dans ce projet, nous nous sommes intéressés à la caractérisation de la réponse antivirale dans des hépatocytes primaires humains normaux et chroniquement infectés avec le VHC, un domaine encore largement inconnu dû à la difficulté d’obtenir ce type de matériel primaire. Nous avons étudié la fonctionnalité de deux voies majeures de détection des pathogènes viraux suite à l’exposition d’hépatocytes primaires humains à de l’ARNdb intracellulaire, via le récepteur et adaptateur RIG-I/MDA5-CARDIF, et extracellulaire via TLR3-TRIF, mimant ainsi les étapes précoces de la détection d’un virus par la cellule hôte. Nous avons établi par RT-PCR quantitatif et analyse transcriptomique par microarray, que ces deux voies de stimulation sont fonctionnelles dans des hépatocytes primaires normaux et que leur activation entraîne à la fois l’expression de gènes antiviraux communs (ISG56, ISG15, CXCL10, …) mais aussi spécifiques avec les gènes IL28A, IL28B et IL29 qui sont une signature de l’activation de la voie de détection de l’ARNdb intracellulaire. La protéine virale NS3/4A joue un rôle majeur à la fois dans le clivage de la polyprotéine virale initiale, mais aussi en interférant avec les cascades de signalisation engagées suite à la détection par la cellule hôte de l’ARN du VHC. Plus particulièrement, nous avons démontré que l’expression ectopique de NS3/4A dans des hépatocytes primaires humains normaux entraîne une diminution significative de l’induction des gènes antiviraux dûe au clivage de CARDIF au cours de l’activation de la voie de signalisation médiée par RIG-I. Nous avons également démontré que l’expression de la NS3/4A entraîne des modifications de l’expression de gènes-clé impliqués dans la régulation de l’apoptose et du programme de mort cellulaire, en particulier lorsque la voie TLR3 est induite. L’ensemble de ces effets sont abolis en présence de BILN2061, inhibiteur spécifique de NS3/4A. Malgré les stratégies de subversion de l’immunité innée par le VHC, nous avons démontré l’induction significative de plusieurs ISGs et chemokines dans des hepatocytes primaires provenant de patients chroniquement infectés avec le VHC, sans toutefois détecter d’interférons de type I, III ou certains gènes antiviraux précoces comme CCL5. Ces observations, concomitantes avec une diminution de l’expression de CARDIF et une correlation inverse entre les niveaux d’ARNm des ISGs et l’ARN viral révèlent une réponse antivirale partielle dûe à des mécanismes interférents sous-jacents. Cette réponse antivirale détectable mais inefficace est à mettre en lien avec l’échec du traitement classique PEG-IFN-ribavirine chez la moitié des patients traités, mais aussi en lien avec l’inflammation chronique et les dommages hépatiques qui mènent ultimement au développement d’une fibrose puis d’une cirrhose chez une grande proportion de patients chroniquement infectés.
Resumo:
La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
L’évolution des protéines est un domaine important de la recherche en bioinformatique et catalyse l'intérêt de trouver des outils d'alignement qui peuvent être utilisés de manière fiable et modéliser avec précision l'évolution d'une famille de protéines. TM-Align (Zhang and Skolnick, 2005) est considéré comme l'outil idéal pour une telle tâche, en termes de rapidité et de précision. Par conséquent, dans cette étude, TM-Align a été utilisé comme point de référence pour faciliter la détection des autres outils d'alignement qui sont en mesure de préciser l'évolution des protéines. En parallèle, nous avons élargi l'actuel outil d'exploration de structures secondaires de protéines, Helix Explorer (Marrakchi, 2006), afin qu'il puisse également être utilisé comme un outil pour la modélisation de l'évolution des protéines.
Resumo:
Cette étude vise à comparer l’histoire évolutive des parasitoïdes du genre Horismenus (Hymenoptera: Eulophidae) à celle de leurs hôtes bruches (Coleoptera: Bruchidae) et plante hôte (Phaseolus vulgaris L.) cultivée dans le contexte d’agriculture traditionnelle, au sein de son centre de domestication Mésoaméricain. Nous avons analysé la structure génétique de 23 populations de quatre espèces de parasitoïdes au Mexique, en utilisant un fragment du gène mitochondrial COI afin de les comparer aux structures précédemment publiées des hôtes bruches et du haricot commun. Nous avons prédit que les structures génétiques des populations d’hôtes (bruches et plante) et de parasitoïdes seraient similaires puisque également influencées par la migration entremise par l’humain (HMM) étant donnée que les parasitoïdes se développent telles que les bruches à l’intérieur des haricots. Compte tenu des stratégies de manipulation reproductive utilisées par l’alpha-protéobactérie endosymbionte Wolbachia spp. pour assurer sa transmission, la structure génétique des populations de parasitoïdes inférée à partir du génome mitochondrial devrait être altérée conséquemment à la transmission conjointe des mitochondries et des bactéries lors de la propagation de l’infection dans les populations de parasitoïdes. Les populations du parasitoïde H. missouriensis sont infectées par Wolbachia spp. Tel que prédit, ces populations ne sont pas différenciées (FST = 0,06), ce qui nous empêche d’inférer sur une histoire évolutive parallèle. Contrairement aux bruches, Acanthoscelides obtectus et A. ovelatus, la HMM n'est pas un processus contemporain qui influence la structure génétique des populations du parasitoïde H. depressus, étant donné la forte différenciation (FST = 0,34) qui existe entre ses populations. La structure génétique observée chez H. depressus est similaire à celle de sa plante hôte (i.e. dispersion aléatoire historique à partir d'un pool génique ancestral très diversifié) et est probablement le résultat d’un flux génique important en provenance des populations de parasitoïdes associées aux haricots spontanées à proximité des champs cultivés. L’étude de l’histoire évolutive intégrant plusieurs niveaux trophiques s’est avérée fructueuse dans la détection des différentes réponses évolutives entre les membres du module trophique face aux interactions humaines et parasitaires, et montre la pertinence d’analyser les systèmes écologiques dans leur ensemble.
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
Le long bio-polymère d'ADN est condensé à l’intérieur du noyau des cellules eukaryotes à l'aide de petites protéines appelées histones. En plus de leurs fonctions condensatrices,ces histones sont également la cible de nombreuses modifications post-traductionnelles(MPT), particulièrement au niveau de leur section N-terminale. Ces modifications réversibles font partie d’un code d’histones épi-génétique transmissible qui orchestre et module dynamiquement certains événements impliquant la chromatine, tels l’activation et la désactivation de gènes ainsi que la duplication et la réparation d’ADN. Ces modifications sont impliquées subséquemment dans la signalisation et la progression de cancers, tels que la leucémie. En conséquence, l'élucidation des modifications d’histones est importante pour comprendre leurs fonctions biologiques. Une méthodologie analytique a été mise au point en laboratoire pour isoler, détecter, et quantifier les MPT d’histones en utilisant une approche rapide à deux volets à l’aide d’outils bioinformatiques spécialisés. La méthodologie développée en laboratoire a été validée en utilisant des histones de souche sauvage ainsi que deux types d’histones mutants déficients en enzymes acétyltransferase. Des trois sources d’histones utilisées, la seule MPT qui a démontré un changement significatif est l’acétylation de l’histone H3 à lysine 56 (H3K56ac). L’expression et la stoechiométrie de cette MPT, issue de cellules de souche sauvage et de cellules mutantes, ont été déterminées avec précision et comparées. Les fonctions de balayage polyvalentes d'un instrument à trappe ionique quadrupôle linéaire hybride ont été utilisées pour améliorer la détection de protéines intactes. Le mode de balayage « enhanced multiply charged » (EMC) a été modifié pour contenir et détecter les ions de protéines intactes situées dans la trappe ionique linéaire. Ce mode de balayage nommé « targeted EMC » (tEMC) a permis de quadrupler le niveau de sensibilité (signal/interférence), et quintupler la résolution du mode de balayage conventionnel. De plus, la capacité de séparation des charges du tEMC a réduit de façon significative les effets de « space charge » dans la trappe ionique linéaire. La résolution supérieure du mode tEMC a permis de différencier plusieurs isoformes modifiées, particulièrement pour l’histone H3. L’analyse des peptides d’histones trypsiques à l’aide du mode de balayage « MRM » a permis le séquençage et la quantification de MPT avec un haut degré de précision. La seule MPT qui était sous-exprimée entre l’histone de souche sauvage et le mutant DOT1L fut la méthylation de l’histone H3 lysine 79(H3K79me1). Les effets de deux inhibiteurs d’enzymes HDAC (HDACi) sur l’expression de MPT d’histone ont été évalués en utilisant la méthodologie analytique mentionnée. Les histones extraites de cellules normales et cancéreuses ont été exposées à du Vorinostat(SAHA) ou du Entinostat (MS-275) pour une période de 24 à 72 heures. Deux histones furent principalement affectées, soit H3 et H4. Étonnamment, les mêmes effets n'ont pas été détectés lorsque les cellules normales ont été traitées avec le HDACi pour une période de 48 à 72 heures. Une méthode absolue de quantification avec une courbe d’étalonnage a été développée pour le peptide H3K56ac. Contrairement à certaines publications, nos résultats démontrent que cette MPT est présente dans les cellules mammifères avec une stoechiométrie très basse (< 0,1%) et n'est pas surexprimée de façon significative après le traitement au HDACi.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
Le virus du syndrome reproducteur et respiratoire porcin (SRRP) est actuellement l’une des principales menaces pour la santé des troupeaux porcins. Les multiples voies de transmission complexifient l’épidémiologie de l’infection et en font une maladie particulièrement difficile à contrôler. L’objectif général de ce projet de recherche était de déterminer les facteurs associés au statut SRRP des sites de production afin de mieux comprendre l’épidémiologie de cette maladie au sein de deux régions du Québec ayant des densités porcines différentes. Les stratégies d’introduction des cochettes de remplacement ont d’abord été examinées. Des lacunes importantes ont été identifiées représentant un risque potentiel pour l’introduction du virus ou pour la recirculation d’une souche endémique au sein d’un troupeau reproducteur. Ainsi, appliquée à titre de stratégie de contrôle, l’acclimatation s’est révélée particulièrement problématique. Les principes de base étaient peu respectés, pouvant donc avoir un impact négatif considérable sur la circulation virale au sein du troupeau et potentiellement sur le voisinage immédiat. La fréquence de plusieurs mesures de biosécurité externe a ensuite été évaluée, permettant d’identifier certains problèmes dont ceux touchant principalement les mesures d’hygiène relatives au protocole d’entrée. Des différences de fréquence entre les régions et les types de production ont également été notées, ce qui peut orienter les interventions de rehaussement. Une classification multivariée a permis de grouper les sites en différents patrons de biosécurité pour constituer par le fait même un index de biosécurité. Cette étape a permis d’évaluer l’association entre certaines caractéristiques de l’élevage et le niveau de biosécurité indiqué par l’index. La distribution géographique des patrons au sein des deux régions, couplée à la détection d’agrégats spatiaux de sites ayant un patron similaire, a également permis de cibler davantage les interventions en fonction de la localisation des sites. Suite à l’investigation du statut SRRP des sites, une prévalence apparente très élevée a été obtenue pour les deux régions, complexifiant le contrôle de la maladie. L’étude de facteurs de risque dans la région de densité modérée a mis en évidence quatre facteurs associés au statut SRRP positif des sites, soit un inventaire important, la proximité du site porcin immédiat, l’absence de douche ainsi que le libre accès au site par l’équarrisseur. Une action préventive intégrant des mesures de biosécurité spécifiques peut donc être entreprise directement à la ferme au regard des deux derniers facteurs. Le fait d’utiliser un index de biosécurité plutôt que des mesures de biosécurité spécifiques a également été évalué. Les résultats ne supportent pas l’index global dans l’évaluation de l’association entre la biosécurité et le statut SRRP des sites de production. Finalement, la corrélation entre les distances génétique, euclidienne et temporelle des souches de SRRP, considérant également l’appartenance au même ou à des propriétaires différents, a été évaluée au sein de la région de haute densité. Une corrélation positive entre la distance génétique et euclidienne observée jusqu’à 5 km a souligné l’importance de la propagation régionale impliquant les aérosols, les insectes, d’autres espèces animales ou les objets inanimés. De plus, les souches génétiquement similaires appartenaient davantage à des sites ayant le même propriétaire, ce qui sous-tend des mécanismes de transmission impliquant une source commune d’animaux, d’employés, d’équipement, voire de véhicules.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.