1000 resultados para Banque de données médico-administratives
Resumo:
Objectif : Étudier le risque d’hémorragies intracrâniennes et d’infarctus du myocarde chez les patients vivant avec le VIH. Méthode : J’ai réalisé deux études de cohorte au sein de la banque de données de la Régie de l’assurance maladie du Québec. J’ai défini la cohorte des patients VIH-positifs, y ai étudié l’incidence d’hémorragies intracrâniennes et d’infarctus du myocarde, et l’ai comparée à une cohorte VIH-négative de même âge et de même sexe. J’ai étudié l’association entre ces évènements et l’exposition aux antirétroviraux au moyen d’études cas-témoin nichées dans la cohorte des patients VIH-positifs. Résultats : Le VIH est associé à un risque plus élevé d’hémorragies intracrâniennes, particulièrement au stade SIDA. Les patients VIH-positif sont également plus à risque de subir un infarctus du myocarde, et certains antirétroviraux sont associés à un risque plus grand. Conclusion : Les banques de données médico-administratives représentent un moyen valable d’étudier les comorbidités non-infectieuses chez les patients atteints du VIH.
Resumo:
Dans les laboratoires forensiques, les analyses journalières réalisées sur les produits stupéfiants concernent identification, quantification et détermination de la signature chimique. Cette approche implique la création de banques de données compilant les résultats analytiques obtenus. Les banques de données de produits stupéfiants sont approvisionnées continuellement et permettent la recherche rétrospective de liens chimiques entre différentes saisies policières, non suspectés a priori lors de l'enquête policière. Ces renseignements soutiennent l'investigation des forces de police et doivent être combinés aux informations policières traditionnelles. A un niveau international, la stratégie prônée pour l'échange en temps réel d'informations liées aux profils chimiques consiste en la création de banques de données harmonisées et partagées par les laboratoires des pays participants. Pour y parvenir, l'utilisation d'une même méthode analytique est recommandée, celle-ci étant définie par ses technologies d'analyses de séparation et de détection, par l'appareillage sélectionné pour réaliser les analyses (marque et modèle) et par les paramètres analytiques décrivant chacune des technologies d'analyse. Cette approche s'avère contraignante et longue à mettre en place en raison du travail intensif en laboratoire requis pour obtenir des résultats comparables entre différents laboratoires. De plus, elle est problématique sur le long terme pour un laboratoire en raison de l'inertie analytique et de la perte d'informations qui en découlent. En effet, selon cette approche, il n'est pas possible d'implémenter une nouvelle méthode analytique tout en approvisionnant la même banque de données en raison de la nature différente des résultats. Il faut alors créer une nouvelle banque de données approvisionnée par la nouvelle méthode analytique et en conséquence mettre à zéro la mémoire de notre connaissance, établie durant plusieurs années. Dans ce travail de recherche, une méthodologie est ainsi proposée permettant la comparaison de résultats provenant de méthodes analytiques différentes dans l'optique de l'approvisionnement d'une banque de données par ces dernières.
Resumo:
Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.
Resumo:
Les scores de propension (PS) sont fréquemment utilisés dans l’ajustement pour des facteurs confondants liés au biais d’indication. Cependant, ils sont limités par le fait qu’ils permettent uniquement l’ajustement pour des facteurs confondants connus et mesurés. Les scores de propension à hautes dimensions (hdPS), une variante des PS, utilisent un algorithme standardisé afin de sélectionner les covariables pour lesquelles ils vont ajuster. L’utilisation de cet algorithme pourrait permettre l’ajustement de tous les types de facteurs confondants. Cette thèse a pour but d’évaluer la performance de l’hdPS vis-à-vis le biais d’indication dans le contexte d’une étude observationnelle examinant l’effet diabétogénique potentiel des statines. Dans un premier temps, nous avons examiné si l’exposition aux statines était associée au risque de diabète. Les résultats de ce premier article suggèrent que l’exposition aux statines est associée avec une augmentation du risque de diabète et que cette relation est dose-dépendante et réversible dans le temps. Suite à l’identification de cette association, nous avons examiné dans un deuxième article si l’hdPS permettait un meilleur ajustement pour le biais d’indication que le PS; cette évaluation fut entreprise grâce à deux approches: 1) en fonction des mesures d’association ajustées et 2) en fonction de la capacité du PS et de l’hdPS à sélectionner des sous-cohortes appariées de patients présentant des caractéristiques similaires vis-à-vis 19 caractéristiques lorsqu’ils sont utilisés comme critère d’appariement. Selon les résultats présentés dans le cadre du deuxième article, nous avons démontré que l’évaluation de la performance en fonction de la première approche était non concluante, mais que l’évaluation en fonction de la deuxième approche favorisait l’hdPS dans son ajustement pour le biais d’indication. Le dernier article de cette thèse a cherché à examiner la performance de l’hdPS lorsque des facteurs confondants connus et mesurés sont masqués à l’algorithme de sélection. Les résultats de ce dernier article indiquent que l’hdPS pourrait, au moins partiellement, ajuster pour des facteurs confondants masqués et qu’il pourrait donc potentiellement ajuster pour des facteurs confondants non mesurés. Ensemble ces résultats indiquent que l’hdPS serait supérieur au PS dans l’ajustement pour le biais d’indication et supportent son utilisation lors de futures études observationnelles basées sur des données médico-administratives.
Resumo:
La recherche du premier chapitre de ce mémoire a été menée en collaboration avec les co-chercheurs suivants: Catherine Olivier et Michel Bergeron.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’asthme et la maladie pulmonaire obstructive chronique (MPOC) se classent au premier rang parmi les maladies respiratoires les plus fréquentes au Québec. Une mauvaise maîtrise de l’asthme et de la MPOC entraîne d’importantes répercussions sur la santé et la qualité de vie des patients et sur les coûts associés au système de santé canadien, dues à de fréquentes consultations médicales, des visites à l’urgence, des hospitalisations et des décès précoces. Il est donc très important d’évaluer l’usage optimal des médicaments dans le traitement de ces maladies afin de réduire la morbidité et la mortalité Cette thèse vise à comparer dans un premier temps l’efficacité des médicaments en situation réelle dans le traitement de la MPOC sur le taux d’exacerbations et la mortalité puisque les études observationnelles publiées à ce sujet comportaient des biais majeurs dus à une mauvaise mesure de l’exposition au traitement. Ainsi, dans le cadre de cette thèse, deux banques de données administratives québécoises ont été appariées pour créer une cohorte de 36 492 patients âgés de 50 ans ou plus atteints de MPOC (1995-1999) Dans cette cohorte, la théophylline diminuait davantage les exacerbations que les β2-agonistes à longue durée d’action (BALA, RR = 0,89; IC 95 % : 0,84-0,95), mais elle était moins efficace en situation réelle que les corticostéroïdes inhalés (CSI, RR = 1,07; IC 95 % : 1,04-1,10). Un devis cas-témoins niché dans cette cohorte a permis de vérifier que les CSI seuls ou combinés avec un BALA étaient plus efficients pour réduire la mortalité comparativement aux BALA seuls (RR = 0,69; IC 95 % : 0,53-0,88 et RR = 0,73; IC 95 % : 0,56-0,96, respectivement). L’efficacité des CSI dans le traitement de l’asthme pour réduire les exacerbations et la mortalité n’est plus à prouver, cependant la non-adhésion et la non-persistance aux CSI sont grandement problématiques. À notre connaissance, aucune étude n’a évalué l’impact du type d’assurance médicaments sur l'adhésion et la persistance des Québécois aux CSI en raison de l’absence des personnes qui ont une assurance médicaments privée dans la banque de données des services pharmaceutiques de la Régie de l’assurance maladie du Québec. Afin de combler ce manque, une des parties intégrantes de cette thèse a été de développer le registre reMed. Par la suite, une cohorte d’utilisateurs de CSI âgés de 20 à 64 ans a été sélectionnée à partir de reMed (2008-2010) et ces sujets ont été appariés à des utilisateurs de CSI sélectionnés à partir de la banque de données des services pharmaceutiques de la Régie de l’assurance maladie du Québec (RAMQ). Les résultats de cette dernière étude indiquent que même si l’adhésion était faible dans les deux cohortes, les patients ayant une assurance médicaments privée étaient moins adhérant que les patients couverts par l’assurance médicaments publique de la RAMQ (différence moyenne d’adhésion de -9,7 %; IC 95 % : -13,2 % à -6,5 %). De plus, ces patients couverts par une assurance médicaments privée étaient aussi 52 % plus susceptibles d'arrêter leur traitement de CSI au cours d’une année (HR = 1,52; IC 95 % : 1,16-2,00). En conclusion, selon les travaux de cette thèse, la théophylline peut être considérée comme une thérapie efficace en situation réelle pour prévenir les exacerbations aiguës de la MPOC d’autant plus qu’elle est moins dispendieuse que les traitements en inhalations et que sa formulation orale procurerait, selon la littérature, une meilleure adhésion que les médicaments en inhalation. Quant aux CSI, ils ont un rôle important dans le traitement de l’asthme, mais aussi dans le traitement de la MPOC, puisque selon les résultats de cette thèse, ils procureraient une plus grande diminution du risque d’exacerbations aiguës de la MPOC et de la mortalité par rapport aux autres traitements. Par contre, il a aussi été démontré que l'adhésion et la persistance aux CSI étaient très faibles, particulièrement dans le traitement de l’asthme. Le type d’assurance médicaments serait un facteur déterminant de l’adhésion et de la persistance aux CSI. D’autres études seront nécessaires pour évaluer si les différences d’adhésion et de persistance observées dans cette étude se traduisent par des différences sur l’utilisation et les coûts des soins de santé. De plus, il sera nécessaire d’étudier si les différences observées se limitent aux CSI ou si le type d’assurance médicaments a impact sur la prise d’autres médicaments indiqués dans le traitement des maladies chroniques.
Resumo:
Au cours des dernières années, le développement des connaissances au niveau de l’étiologie de la maladie ainsi que l’arrivée de nouveaux médicaments et de lignes directrices guidant la pratique clinique sont susceptibles d’avoir entraîné une meilleure gestion de la polyarthrite rhumatoïde (PAR) et de l’ostéoporose, une comorbidité fréquente chez ces patients. Dans cette thèse, trois questions de recherche sont étudiées à l’aide des banques de données administratives québécoises (RAMQ, MED-ÉCHO). Une première étude documente l’utilisation des médicaments pour la PAR au Québec. À ce jour, il s’agit de la seule étude canadienne à rapporter les tendances d’utilisation des DMARD (disease-modifying antirheumatic drug) biologiques depuis leur introduction dans la pratique clinique. Au cours de la période à l’étude (2002-2008), l’utilisation de DMARD (synthétiques et biologiques) a augmenté légèrement dans la population atteinte de PAR (1,9%, 95% CI : 1,1 - 2,8). Cependant, malgré la présence de recommandations cliniques soulignant l’importance de commencer un traitement rapidement, et la couverture de ces traitements par le régime général d’assurance médicaments, les résultats démontrent une initiation sous-optimale des DMARD chez les patients nouvellement diagnostiqués (probabilité d’initiation à 12 mois : 38,5%). L’initiation de DMARD était beaucoup plus fréquente lorsqu’un rhumatologue était impliqué dans la provision des soins (OR : 4,31, 95% CI : 3,73 - 4,97). Concernant les DMARD biologiques, le facteur le plus fortement associé avec leur initiation était l’année calendrier. Chez les sujets diagnostiqués en 2002, 1,2 sur 1 000 ont initié un DMARD biologique moins d’un an après leur diagnostic. Pour ceux qui ont été diagnostiqués en 2007, le taux était de 13 sur 1 000. Les résultats démontrent que si la gestion pharmacologique de la PAR s’est améliorée au cours de la période à l’étude, elle demeure tout de même sous-optimale. Assurer un meilleur accès aux rhumatologues pourrait, semble-t-il, être une stratégie efficace pour améliorer la qualité des soins chez les patients atteints de PAR. Dans une deuxième étude, l’association entre l’utilisation des DMARD biologiques et le risque de fractures ostéoporotiques non vertébrales chez des patients PAR âgés de 50 ans et plus a été rapportée. Puisque l’inflammation chronique résultant de la PAR interfère avec le remodelage osseux et que les DMARD biologiques, en plus de leur effet anti-inflammatoire et immunosuppresseur, sont des modulateurs de l’activité cellulaire des ostéoclastes et des ostéoblastes pouvant possiblement mener à la prévention des pertes de densité minérale osseuse (DMO), il était attendu que leur utilisation réduirait le risque de fracture. Une étude de cas-témoin intra-cohorte a été conduite. Bien qu’aucune réduction du risque de fracture suivant l’utilisation de DMARD biologiques n’ait pu être démontrée (OR : 1,03, 95% CI : 0,42 - 2,53), l’étude établit le taux d’incidence de fractures ostéoporotiques non vertébrales dans une population canadienne atteinte de PAR (11/1 000 personnes - années) et souligne le rôle d’importants facteurs de risque. La prévalence élevée de l’ostéoporose dans la population atteinte de PAR justifie que l’on accorde plus d’attention à la prévention des fractures. Finalement, une troisième étude explore l’impact de la dissémination massive, en 2002, des lignes directrices du traitement de l’ostéoporose au Canada sur la gestion pharmacologique de l’ostéoporose et sur les taux d’incidence de fractures ostéoporotiques non vertébrales chez une population de patients PAR âgés de 50 ans et plus entre 1998 et 2008. Étant donné la disponibilité des traitements efficaces pour l’ostéoporose depuis le milieu des années 1990 et l’évolution des lignes directrices de traitement, une réduction du taux de fractures était attendue. Quelques études canadiennes ont démontré une réduction des fractures suivant une utilisation étendue des médicaments contre l’ostéoporose et de l’ostéodensitométrie dans une population générale, mais aucune ne s’est attardée plus particulièrement sur une population adulte atteinte de PAR. Dans cette étude observationnelle utilisant une approche de série chronologique, aucune réduction du taux de fracture après 2002 (période suivant la dissémination des lignes directrices) n’a pu être démontrée. Cependant, l’utilisation des médicaments pour l’ostéoporose, le passage d’ostéodensitométrie, ainsi que la provision de soins pour l’ostéoporose en post-fracture ont augmenté. Cette étude démontre que malgré des années de disponibilité de traitements efficaces et d’investissement dans le développement et la promotion de lignes directrices de traitement, l’effet bénéfique au niveau de la réduction des fractures ne s’est toujours pas concrétisé dans la population atteinte de PAR, au cours de la période à l’étude. Ces travaux sont les premiers à examiner, à l’aide d’une banque de données administratives, des sujets atteints de PAR sur une période s’étalant sur 11 ans, permettant non seulement l’étude des changements de pratique clinique suivant l’apparition de nouveaux traitements ou bien de nouvelles lignes directrices, mais également de leur impact sur la santé. De plus, via l’étude des déterminants de traitement, les résultats offrent des pistes de solution afin de combler l’écart entre la pratique observée et les recommandations cliniques. Enfin, les résultats de ces études bonifient la littérature concernant la qualité des soins pharmacologiques chez les patients PAR et de la prévention des fractures.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.
Resumo:
En parallèle à l'avènement des modèles policiers guidés par le renseignement, les méthodes d'analyse criminelle et de renseignement forensique ont connu des développements importants ces dernières années. Des applications ont été proposées dans divers domaines des sciences forensiques afin d'exploiter et de gérer différents types de traces matérielles de façon systématique et plus performante. A cet égard, le domaine des faux documents d'identité n'a été l'objet que de peu d'attention bien qu'il s'agisse d'une criminalité grave dans laquelle le crime organisé est impliqué.La présente étude cherche à combler cette lacune en proposant une méthode de profilage des fausses pièces d'identité simple et généralisable qui vise à découvrir des liens existants sur la base des caractéristiques matérielles analysables visuellement. Ces caractéristiques sont considérées comme constituant la marque de fabrique particulière du faussaire et elle peuvent ainsi être exploitées pour inférer des liens entre fausses pièces d'identité provenant d'une même source.Un collectif de plus de 200 fausses pièces d'identité composé de trois types de faux documents a été récolté auprès des polices de neuf cantons suisses et a été intégré dans une banque de données ad hoc. Les liens détectés de façon systématique et automatique par cette banque de données ont été exploités et analysés afin de produire des renseignements d'ordre stratégique et opérationnel utiles à la lutte contre la fraude documentaire.Les démarches de profilage et de renseignement mises en place pour les trois types de fausses pièces d'identité étudiées se sont révélées efficaces, un fort pourcentage des documents s'avérant liés (de 30 % à 50 %). La fraude documentaire apparaît comme une criminalité structurée et interrégionale, pour laquelle les liens établis entre fausses pièces d'identité peuvent servir d'aide à l'enquête et de soutien aux décisions stratégiques. Les résultats suggèrent le développement d'approches préventives et répressives pour lutter contre la fraude documentaire.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.