999 resultados para Amplification Techniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il est maintenant admis que la composition de la plaque athérosclérotique est un déterminant majeur de sa vulnérabilité à se rompre. Vu que la composition de la plaque affecte ses propriétés mécaniques, l'évaluation locale des propriétés mécaniques de la plaque d'athérome peut nous informer sur sa vulnérabilité. L'objectif est de comparer les techniques d’élastographie ultrasonores endovasculaire (EVE) et non-invasive (NIVE) en fonction de leur potentiel à identifier les composantes calcifiées et lipidiques de la plaque. Les acquisitions intravasculaire et extravasculaire ont été effectuées sur les artères carotidiennes de neuf porcs hypercholestérolémiques à l’aide d’un cathéter de 20 MHz et d'une sonde linéaire de 7.5 MHz, respectivement. Les valeurs de déformation radiale et axiale, rapportés par EVE et NIVE, ont été corrélées avec le pourcentage des zones histologiques calcifiées et lipidiques pour cinq plaques. Nos résultats démontrent une bonne corrélation positive entre les déformations et les composantes calcifiées (r2 = 0.82, P = 0.034 valeur par EVE et r2 = 0.80, P = 0.041 valeur par NIVE). Une forte corrélation entre les déformations axiales et les contenus lipidiques par NIVE (r2 = 0.92, P-value = 0.010) a été obtenue. En conclusion, NIVE et EVE sont des techniques potentielles pour identifier les composants de la plaque et aider les médecins à diagnostiquer précocement les plaques vulnérables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans son texte, l’auteur tente de répondre à quatre grandes questions : le cadre juridique actuel qui régi la gestion des renseignements personnels dans le réseau de la santé et des services sociaux protège–t–il adéquatement ces données sensibles ? Peut–on tenter d’améliorer cette protection ? Quels facteurs contribuent à l’émergence des nouvelles normes ? Quel rôle les exigences techniques, les intérêts économiques et les considérations politiques jouent–ils dans l’émergence de ces nouvelles normes ? À l’égard de ces interrogations, l’auteur montre que le régime actuel, qui se distingue particulièrement par sa complexité et son opacité, ne protège pas adéquatement les renseignements personnels appelés à circuler dans l’univers numérique en émergence. Il examine donc les facteurs qui contribuent À l’émergence des nouvelles normes alors que les règles juridiques actuelles se trouvent en porte–à–faux par rapport aux développements technologiques. Par la suite, il tente de situer ou de mesurer l’influence des intérêts économiques, des considérations politiques et des impératifs techniques dans l’émergence de ces nouvelles normes. Finalement, il met de l’avant un concept nouveau, celui des aires de partage, qu’il présente comme un moyen de mieux protéger les renseignements personnels et confidentiels dans l’ère de l’information.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ans ce texte, l’auteur examine le régime de responsabilité des prestataires techniques au regard de la Loi pour la confiance dans l’économie numérique. Cette analyse est basée sur le rôle des fournisseurs d’accès et des fournisseurs de services de stockage. Par ailleurs, l’auteur présente les obligations légales d’identification et de coopération avec les services judiciaires mises à la charge des prestataires techniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Les prestataires techniques fournissant des services sur Internet (« FSI ») incluant le simple transporteur de documents technologiques, le prestataire offrant des services d’antémémorisation (ou services de caching) ou l’hébergeur peuvent être responsables face aux tiers ou face à leurs clients, et ce, à plusieurs niveaux. Les FSI peuvent dans certains cas être tenus responsables face aux tiers pour le caractère illicite de l’information qu’ils diffusent. Certaines informations circulant sur Internet peuvent affecter les droits d’auteur de tiers ou être diffamatoires envers certains individus et les FSI peuvent jouer un rôle dans la transmission de ces informations sur Internet. Face à leurs clients, les FSI qui ont accès à leurs renseignements personnels afin entre autres d’être en mesure d’offrir les services demandés peuvent dans certains cas être tenus responsables pour avoir fait une collecte, une utilisation ou une divulgation non autorisée de ces renseignements. Ils peuvent également être tenus responsables d’avoir fait parvenir des courriels publicitaires non sollicités à leurs clients ou pour avoir suspendu le compte d’un client qui envoie du spam dans certaines circonstances. Le présent article traite des questions de responsabilité des prestataires techniques Internet au Québec : envers les tiers en ce qui a trait au caractère illicite des documents transmis ou hébergés; et envers leurs clients relativement à leurs obligations de respect des renseignements personnels de ces clients et à leur responsabilité pour les questions relatives au spam."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans les discussions sur les biotechnologies, l’argument de la dignité humaine conduit souvent à l’impasse. Le philosophe et sociologue allemand, Jürgen Habermas, craint que le débat, qui s’est ouvert récemment autour de la recherche sur les embryons, les diagnostics prénatal et préimplantatoire, et le clonage, se polarise, de nouveau comme c’était déjà le cas, en Allemand et dans les autres pays occidentaux, au sujet de l’avortement. La seule façon de sortir de cette polarisation – et c’est là un des apports importants de Habermas – est de distinguer nettement la dignité humaine, d’une part et d’autre part, la dignité de la vie humaine. D’un point de vue éthique et juridique, l’argument de la dignité humaine ne saurait nécessairement s’étendre au fœtus ou embryon. Car, la dignité humaine est liée à la symétrie qui détermine la relation liant les membres d’une communauté morale. Elle n’est pas un fait naturel, une propriété qu’on a par nature comme l’intelligence ou le fait d’avoir les yeux bleus. Au contraire, la dignité humaine désigne cette «inviolabilité» qui ne peut avoir de sens que dans les relations interpersonnelles de reconnaissance mutuelle et dans un rapport d’égal à égal des personnes entre elles. Néanmoins, le fœtus ou l’embryon peut, d’une certaine manière, échapper à notre contrôle et disposition en référence à la dignité que nous devons à la vie de l’espèce humaine. De ce point de vue, nos conceptions modernes de la vie anté-personnelle et la façon dont nous voulons nous comporter par rapport à cette vie forment, pour ainsi dire, un environnement éthique stabilisant de l’espèce pour la morale rationnelle des sujets de droits moraux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail d'intégration présenté à France Piotte dans le cadre du cours PHT-6113.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse cible l’étude d’une organisation sociotechnique pluraliste, le Réseau de centres d’excellence ArcticNet, établi depuis 2003 au sein de l’Université Laval et financé par le programme fédéral des Réseaux de centres d’excellence (RCE). Ce programme, effectif depuis 1988, est issu d’une initiative du ministère de l’Industrie Canada et des trois Conseils fédéraux de financement de la recherche scientifique (CRSNG, CRSH et IRSC). Par sa dimension interdisciplinaire et interinstitutionnelle, le RCE ArcticNet sollicite la mise en place de divers accommodements sur une thématique environnementale controversée, celle du développement de l’Arctique canadien côtier. Notre approche se concentre sur la description de ces collaborations pluralistes et l’analyse des stratégies de consensus mises en place par une organisation universitaire médiatrice. Si cette étude illustre le cas d’ArcticNet, elle questionne toutefois deux réalités d’ensemble: (1) D’un point de vue théorique, prépondérant dans cette thèse, les enjeux environnementaux et de développement durable s’inscrivent dans les nouvelles réalités de la production des connaissances portées par une coévolution entre science et société, contribuant à l’expansion des domaines de R&D ciblés; et, (2) D’un point de vue empirique illustratif, les éléments de formation et d’évolution d’un réseau sociotechnique intersectoriel et les stratégies des scientifiques dans la recherche et le développement de l’Arctique canadien côtier présentent un profil basé sur l’accommodement des parties prenantes. Cette recherche adhère au postulat épistémologique des théories des organisations sociotechniques pluralistes, plutôt qu’aux modèles théoriques de la société/économie de la connaissance. L’étude regroupe un total de 23 entrevues recueillies en 2008 et en 2010 auprès de l’administration, de membres scientifiques et de partenaires d’ArcticNet, suivant une logique de témoignage. Elle ouvre ainsi une nouvelle réflexion sur leur milieu de pratique de la science, plus particulièrement des sciences de l’environnement, vers lequel la société actuelle oriente la nouvelle production des connaissances, à travers les divers financements de la recherche et du développement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.