995 resultados para Détection et identification de fautes


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maitrise en criminologie, option intervention

Relevância:

30.00% 30.00%

Publicador:

Resumo:

On December 8, 2008, a male fisher (Martes pennanti) housed in a quarantine enclosure at the St-Félicien Zoo was found dead with multiple skin ulcers on the muzzle and plantar pads. At necropsy, no major findings were found, and a specific cause of death was not determined microscopically. However, at the borders of ulcerated sites, there were increased numbers of koilocytes, with perinuclear vacuolation and nuclear enlargement. A pan-herpesvirus nested polymerase chain reaction (PCR) assay was conducted, and an expected PCR product of 230 nucleotides was obtained within tissues collected from around the skin ulcers. Other tissues, including intestines and pool of lung, liver, and kidney, tested negative. The obtained PCR amplicon was sequenced and was highly related to the partial viral DNA polymerase (DPOL) gene of Mustelid herpesvirus 1. Virus isolation was negative, and no virion was detected by electron microscopy. The pathogenic potential of this novel herpesvirus and its role in the death of the fisher are unknown.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche est issue d'un questionnement personnel au regard d'impressions singulières ressenties lors de certaines interactions professionnelles avec des confrères de commissions scolaires distinctes au niveau de la langue d’enseignement. Elle compare les cultures organisationnelles de deux commissions scolaires différentes par la langue d'enseignement et de travail : une commission scolaire francophone et une commission scolaire anglophone. Ces cultures organisationnelles sont esquissées à partir de propos recueillis auprès de cadres intermédiaires issus de différentes unités administratives de chacune des commissions scolaires. Ce statut d'emploi a été choisi car ces cadres sont au cœur des flux informationnels entre le sommet stratégique et les centres opérationnels. De plus, bien qu’ils interviennent officiellement dans les processus consultatifs et décisionnels de leur commission scolaire, leurs rôles sont peu étudiés par les chercheurs en administration. Cette recherche exploratoire de deux commissions scolaires utilise une approche multiperspective afin d'éclairer les différentes facettes que peut présenter une culture organisationnelle. Trois perspectives sont considérées : la perspective de l'intégration qui explore les caractéristiques culturelles qui favorisent une cohérence des comportements des acteurs aux objectifs organisationnels; la perspective de la différenciation qui tente de discerner l'existence de sous-cultures dans les organisations; la perspective de la fragmentation qui interroge les significations particulières que peuvent attribuer, aux actions et aux décisions des pairs, certains regroupement d'individus. Deux processus d'enquête ont été utilisés dans cette recherche : l'interview semi-directif et la recherche documentaire. Les données recueillies ont été analysées selon le procédé de l'analyse thématique. Ainsi, les propos émis par les cadres intermédiaires ont été transposés en un certain nombre de thèmes en rapport avec l'orientation de recherche. Les résultats révèlent que les cadres intermédiaires sont des acteurs réflexifs dans l'appropriation, la construction et la diffusion de la culture générale de leur commission scolaire, mais également d'une culture identitaire de leur unité administrative. De plus, des différences significatives ont été identifiées, entre autres, sur l'identification des éléments culturels propre à chacun des groupes linguistiques. Alors que les cadres de la commission scolaire francophone décrivent leur culture comme une structure d'encadrement des processus consultatifs, décisionnels et d'accompagnement, les cadres de la commission scolaire anglophone mentionnent surtout des valeurs associées à des postulats de base issus de leur appartenance linguistique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous proposons une approche qui génère des scénarios de visualisation à partir des descriptions de tâches d'analyse de code. La dérivation de scénario est considérée comme un processus d'optimisation. Dans ce contexte, nous évaluons différentes possibilités d'utilisation d'un outil de visualisation donnée pour effectuer la tâche d'analyse, et sélectionnons le scénario qui nécessite le moins d'effort d'analyste. Notre approche a été appliquée avec succès à diverses tâches d'analyse telles que la détection des défauts de conception.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de la recherche est d’étudier les tensions éthiques que peuvent vivre les médecins militaires, qui doivent agir à la fois comme soignants, militaires (même s’ils sont non combattants) et parfois comme acteurs humanitaires. Parmi la littérature sur l’éthique de la médecine militaire, les dilemmes la concernant sont souvent présentés comme le fruit de pressions réelles ou perçues provenant de l’institution militaire, des règles, codes, lois ou de politiques, ceci afin de détourner le médecin de son but premier, soit l’intérêt du patient. Pour mieux comprendre les défis éthiques auxquels sont confrontés les médecins militaires canadiens et comment ceux-ci les traitent, la recherche utilise une approche de bioéthique empirique. À partir d’une analyse de la littérature, nous examinons les dilemmes éthiques des médecins militaires, le concept de profession, ainsi que les codes d’éthique (médicaux et militaires) canadiens. L’expérience éthique est ensuite explorée à partir d’entrevues semi-directives effectuées auprès de quatorze médecins militaires ayant participé à des missions opérationnelles, notamment à Kandahar en Afghanistan, entre 2006 et 2010. Les résultats, tant conceptuels qu’empiriques, nous indiquent que plusieurs nuances s’imposent. Tout d’abord, les médecins militaires canadiens ne vivent pas les dilemmes tels qu’ils sont présentés dans la littérature, ni en nombre ni en fréquence. Ils sont conscients qu’ils doivent à la fois tenir compte de l’intérêt du patient et du bien commun, mais n’en ressentent pas pour autant un sentiment de double loyauté professionnelle. De plus, ils ont l’impression de partager l’objectif de la mission qui est de maintenir la force de combat. Des distinctions s’imposent aussi entre les médecins eux-mêmes, dans la conception qu’ils se font de leur profession, ainsi que dans les contextes (opération ou garnison), selon le type de travail qu’ils exercent (généraliste ou spécialiste). Les principaux défis éthiques rapportés portent sur les inégalités de soins entre les soldats de la coalition et les victimes locales (soldats et civils), ainsi que sur le manque de ressources, engendrant des décisions cliniques éprouvantes. Un résultat étonnant des entrevues est la présence de deux groupes distincts au plan de l’identification professionnelle. Huit médecins militaires se considèrent avant tout comme médecin, alors que les six autres ne sont pas arrivés à accorder une priorité à l’une ou l’autre des professions. Ces deux groupes se différencient également sur d’autres plans, comme le nombre et le type de défis éthiques identifiés, ainsi que les mécanismes de résolution des dilemmes utilisés. Malgré les formations éthiques offertes par l’institution, des lacunes subsistent dans la capacité d’identification des expériences éthiques et des valeurs impliquées, de même que des mécanismes de résolution utilisés. Compte tenu du faible échantillonnage, ces résultats sont difficilement généralisables. Néanmoins, ils peuvent nous inspirer au niveau théorique en faisant ressortir le caractère multidimensionnel de la médecine militaire, ainsi qu’au niveau pratique en nous permettant de suggérer des éléments de formation facilitant la réflexion éthique des médecins militaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En 2015, la récidive tumorale et les métastases du cancer du sein demeurent une cause importante de décès à travers le monde. Toutefois, ces cancers sont souvent hétérogènes car en dépit d’un phénotype similaire, l’évolution clinique et la réponse au traitement peuvent varier considérablement. Il y a donc un intérêt évident à identifier et à caractériser de nouveaux biomarqueurs pour permettre classer les tumeurs mammaires dans des sous-groupes plus homogènes. Notre hypothèse est que chaque cancer mammaire possède des caractéristiques distinctes au plan des altérations du génome et des profils d’expression géniques et que ces changements se traduisent cliniquement par une prédisposition à former des métastases ou à répondre ou non à la chimiothérapie et aux thérapies ciblées. Dans le cadre de nos travaux, nous nous sommes intéressés aux sous-types agressifs de tumeurs mammaires et notamment les cancers de type triple négatif. Nous avons aussi tenté d’identifier des marqueurs capables de distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Pour ce faire, nous avons d’abord utilisé une stratégie in silico à partir de données publiques (micro-puces d’ADN et séquençage de l’ARN). Nous avons ensuite construit sept micro-matrices tissulaires (TMA) provenant de tissus mammaires normaux et tumoraux fixés à la formaline et enrobés en paraffine. Ces outils nous ont permis d’évaluer par immunohistochimie les niveaux d’expression différentielle des marqueurs suivants : ANXA1, MMP-9, DP103 et MCM2. Ceux-ci ont été comparés aux marqueurs usuels du cancer du sein (ER, PR, HER2, CK5/6 et FOXA1) et corrélés aux données cliniques (survie globale et métastase). Nos résultats indiquent que ces nouveaux marqueurs jouent un rôle important dans l’évolution clinique défavorable des tumeurs de haut grade. Dans un premier article nous avons montré que l’expression d’ANXA1 est dérégulée dans les cancers de type triple-négatif et aussi, dans une certaine mesure, dans les tumeurs HER2+. Nous croyons qu’ANXA1 permet de mieux comprendre le processus d’hétérogénéité tumorale et facilite l’identification des tumeurs de haut grade. Nous proposons également qu’ d’ANXA1 stimule la transition épithélio-mésenchymateuse (EMT) et la formation des métastases. Dans un second temps, nous avons montré que les niveaux d’expression de MMP-9 reflètent la différenciation cellulaire et corrèlent avec les sous-types de cancers mammaires ayant un mauvais pronostic. Nous estimons que MMP-9 permet de mieux comprendre et d’identifier les tumeurs mammaires à haut risque. De fait, la surexpression de MMP-9 est associée à une augmentation des métastases, une récidive précoce et une diminution de la survie globale. Dans le cadre d’un troisième article, nous avons montré que la surexpression du marqueur de prolifération MCM2 s’observe dans les cancers triple-négatifs, HER2+ et Luminal B par comparaison aux cancers luminal A (p< 0.0001). Nos résultats suggèrent qu’en utilisant un seuil de 40% de noyaux marqués, nous pourrions distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Cela dit, avant de pouvoir envisager l’utilisation de ce marqueur en clinique, une étude de validation sur une nouvelle cohorte de patientes s’impose. En somme, les résultats de nos travaux suggèrent qu’ANXA1, MMP-9 et MCM2 sont des marqueurs intéressants pour mieux comprendre les mécanismes physiopathologiques impliqués dans la progression tumorale et le développement des métastases. À terme, ces nouveaux marqueurs pourraient être utilisés seuls ou en combinaison avec d’autres gènes candidats pour permettre le développement de trousses « multigènes » ou d’essais protéomiques multiplex pour prédire l’évolution clinique des cancers mammaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Jusqu’à présent, la metformine a principalement été employée comme médicament contrôlant l’hyperglycémie des personnes atteintes de diabète de type II. Des études épidémiologiques ont démontré que les personnes, prenant de la metformine, développent moins de cancers. Par exemple, la prise de metformine réduit respectivement de 78% et de 46% les chances de développer un cancer hépatique ou pancréatique. Récemment, il a été montré que la metformine permet de réduire le développement de tumeur au niveau de la peau, suite à l’exposition à des rayons UVB. Dans cette étude, j’ai démontré que la présence de metformine permet une meilleure survie de la levure Saccharomyces cerevisiae suite à l’exposition à des rayons UVC ou UVA. De plus, j’ai démontré que la présence de metformine augmente le recrutement de l’histone Htz1 à la chromatine. Pour une souche htz1Δ, le niveau de survie suite à l’exposition aux rayons UVA est considérablement diminué. Htz1 permet le recrutement de Rad14 au site de dommages à l’ADN faits par les rayons UV. Htz1 est donc important pour la détection de ces sites. Enfin, le recrutement nucléaire de Rad14 en présence de metformine a considérablement augmenté. En absence de Rad14, le niveau de survie suite à l’exposition aux rayons UVA diminue significativement. Donc, Htz1 et Rad14 sont deux protéines clés dans la protection contre les rayons UV apportés par la metformine. En conclusion, avec les différents résultats de cette étude, il est possible de dire que la metformine permet une forme de protection contre les rayons UVC et UVA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce mémoire, je considère un modèle de sélection standard avec sélection non aléatoire. D’abord, je discute la validité et la ‘‘sharpness ’’ des bornes sur l’intervalle interquantile de la distribution de la variable aléatoire latente non censurée, dérivées par Blundell et al. (2007). Ensuite, je dérive les bornes ‘‘sharp ’’ sur l’intervalle interquantile lorsque la distribution observée domine stochastiquement au premier ordre celle non observée. Enfin, je discute la ‘‘sharpness’’ des bornes sur la variance de la distribution de la variable latente, dérivées par Stoye (2010). Je montre que les bornes sont valides mais pas nécessairement ‘‘sharp’’. Je propose donc des bornes inférieures ‘‘sharp’’ pour la variance et le coefficient de variation de ladite distribution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Early studies of electoral behavior proposed that party identification could be negative as well as positive. Over time, though, the concept became mostly understood as a positive construct. The few studies that took negative identification into account tended to portray it as a marginal factor that went “hand-in-hand” with positive preferences. Recent scholarship in psychology reaffirms, however, that negative evaluations are not simply the bipolar opposite of positive ones. This article considers negative party identification from this standpoint, and evaluates its impact in recent national elections in Australia, Canada, New Zealand, and the United States. Our findings highlight the autonomous power of negative partisanship. They indicate as well that ideology has an influence on both positive and negative partisan identification.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les marchés traditionnels et maintenant les supermarchés approvisionnent les demandes sans cesse en augmentation pour la viande de volaille au Vietnam. Peu d’études ont examiné la présence des E. coli pathogènes extra-intestinaux (ExPEC), une cause commune d’infection urinaire chez les humains, de même que la résistance aux antimicrobiens, la multi-résistance des Escherichia coli dans la viande de volaille au Vietnam. Le but de cette étude était d’évaluer la salubrité de la viande de volaille au Vietnam et de comparer les patrons de résistance aux antimicrobiens entre le Canada et le Vietnam. Des carcasses fraîches et congelées des marchés traditionnels et des supermarchés ont été échantillonnées au Vietnam. Les E. coli obtenus par rinçage des carcasses ont été caractérisé pour les gènes de virulence ExPEC (iucD, cnf, papC, tsh, Kps, afa, sfa) et pour la résistance aux antimicrobiens, phénotypiquement (Sensititre Aris®) et génotypiquement par PCR. Une multi-résistance et une fréquence élevée de résistance aux antimicrobiens d’importance pour les humains ont été détectées dans les isolats ExPEC. Les E. coli producteurs de β-lactamases à spectre élargi et de type AmpC et les gènes de résistance CTX-M et CMY correspondant ont été détectés. Des isolats multi-résistants BLSE putatif ont été identifiés appartenant au phylogroupe F. Les stratégies sur les antimicrobiens employés sur la ferme au Canada et au Vietnam pourraient influencer les profils de résistance des E. coli provenant des carcasses de poulets. En conclusion, la présence des ExPEC, la fréquence élevée de la résistance aux antimicrobiens et la détection des beta-lactamases soulignent la présence de danger pour la santé humaine de la viande de volaille crue ou insuffisamment cuite au Vietnam.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La capacité du système visuel humain à compléter une image partiellement dévoilée et à en dériver une forme globale à partir de ses fragments visibles incomplets est un phénomène qui suscite, jusqu’à nos jours, l’intérêt de nombreux scientifiques œuvrant dans différents milieux de recherche tels que l’informatique, l’ingénierie en intelligence artificielle, la perception et les neurosciences. Dans le cadre de la présente thèse, nous nous sommes intéressés spécifiquement sur les substrats neuronaux associés à ce phénomène de clôture perceptive. La thèse actuelle a donc pour objectif général d’explorer le décours spatio-temporel des corrélats neuronaux associés à la clôture perceptive au cours d’une tâche d’identification d’objets. Dans un premier temps, le premier article visera à caractériser la signature électrophysiologique liée à la clôture perceptive chez des personnes à développement typique dans le but de déterminer si les processus de clôture perceptive reflèteraient l’interaction itérative entre les mécanismes de bas et de haut-niveau et si ceux-ci seraient sollicités à une étape précoce ou tardive lors du traitement visuel de l’information. Dans un deuxième temps, le second article a pour objectif d’explorer le décours spatio-temporel des mécanismes neuronaux sous-tendant la clôture perceptive dans le but de déterminer si les processus de clôture perceptive des personnes présentant un trouble autistique se caractérisent par une signature idiosyncrasique des changements d’amplitude des potentiels évoqués (PÉs). En d’autres termes, nous cherchons à déterminer si la clôture perceptive en autisme est atypique et nécessiterait davantage la contribution des mécanismes de bas-niveau et/ou de haut-niveau. Les résultats du premier article indiquent que le phénomène de clôture perceptive est associé temporellement à l’occurrence de la composante de PÉs N80 et P160 tel que révélé par des différences significatives claires entre des objets et des versions méconnaissables brouillées. Nous proposons enfin que la clôture perceptive s’avère un processus de transition reflétant les interactions proactives entre les mécanismes neuronaux œuvrant à apparier l’input sensoriel fragmenté à une représentation d’objets en mémoire plausible. Les résultats du second article révèlent des effets précoces de fragmentation et d’identification obtenus au niveau de composantes de potentiels évoqués N80 et P160 et ce, en toute absence d’effets au niveau des composantes tardives pour les individus avec autisme de haut niveau et avec syndrome d’Asperger. Pour ces deux groupes du trouble du spectre autistique, les données électrophysiologiques suggèrent qu’il n’y aurait pas de pré-activation graduelle de l’activité des régions corticales, entre autres frontales, aux moments précédant et menant vers l’identification d’objets fragmentés. Pour les participants autistes et avec syndrome d’Asperger, les analyses statistiques démontrent d’ailleurs une plus importante activation au niveau des régions postérieures alors que les individus à développement typique démontrent une activation plus élevée au niveau antérieur. Ces résultats pourraient suggérer que les personnes du spectre autistique se fient davantage aux processus perceptifs de bas-niveau pour parvenir à compléter les images d’objets fragmentés. Ainsi, lorsque confrontés aux images d’objets partiellement visibles pouvant sembler ambiguës, les individus avec autisme pourraient démontrer plus de difficultés à générer de multiples prédictions au sujet de l’identité d’un objet qu’ils perçoivent. Les implications théoriques et cliniques, les limites et perspectives futures de ces résultats sont discutées.