172 resultados para Inférence prédictive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Valeur prédictive des anticorps dirigés contre le cytoplasme des neutrophiles (ANCA) dans les vasculites des vaisseaux de petit calibre But du travail : Les vasculites sont des pathologies le plus souvent sévères et parfois létales ; elles nécessitent une reconnaissance et un traitement précoces. Il est donc utile de pouvoir disposer de marqueurs diagnostiques, et éventuellement de marqueurs qui puissent prédire l'activité de la maladie. Les « antineutrophil cytoplasm antibodies » (ANCA) constituent une famille d'autoanticorps dirigés contre des antigènes du cytoplasme des neutrophiles, cellules clés du processus inflammatoire au cours des vasculites. De nombreuses études ont tenté de préciser l'utilité des ANCA dans le diagnostic et le suivi des vasculites avec des résultats contradictoires. Le but de ce travail a été de passer en revue l'évolution clinique des patients suivis dans notre service pour une vasculite à ANCA et évaluer la valeur prédictive des ANCA comme marqueur de récidive. Méthode: Les dossiers médicaux de 36 patients, suivis à notre consultation ambulatoire d'immunologie et allergie du CHUV pour une vasculite à ANCA entre janvier 1990 et décembre 2001, ont été analysés de manière rétrospective afin d'établir une base de données. Les données démographiques, le type de vasculite (granulomatose de Wegener ou polyangéite microscopique) et ses caractéristiques (organes touchés), les traitements reçus, les dosages des ANCA (par immunofluorescence et par ELISA avec détermination des anti-PR3 et/ou anti-MPO), et l'évolution clinique (récidive/rémission) ont été considérés. La valeur pronostique des ANCA dans notre population a été calculée utilisant les valeurs prédictives positive et négative, la likelihood et les odds ratios. La valeur statistique a été examinée par les tests Chi-square test ou Fisher's exact test (valeur significative définie comme p <0.05) à l'aide du programme GraphPad Instat software version 3, San Diego, CA. Résultats : Vingt-trois patients atteints d'une maladie de Wegener et treize d'une polyangéite microscopique ont été suivis pour une durée médiane de cinq ans (entre 1 mois et 16 ans). La plupart des patients ont été traités avec des corticostéroïdes associés à du cyclophosphamide. Une rémission a été obtenue chez 21 patients (91 %) atteints d'une maladie de Wegener, mais 74% ont présenté par la suite une récidive. Tous les patients atteints d'une polyangéite microscopique sont entrés en rémission et 33% ont par la suite récidivé. Une élévation persistante (définie comme supérieure à 6 mois) des ANCA ne s'est pas révélée associée à un risque statistiquement significatif de récidive (p=0.14). En revanche, une élévation soudaine du taux des ANCA s'est démontrée prédictive d'une récidive (table 3). Conclusion : Durant le suivi de certaines vasculites, comme la granulomatose de Wegener et la polyangéite microscopique une élévation des ANCA doit faire redouter une exacerbation de la maladie et, par conséquent, justifie une surveillance accrue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: Alors qu'un antécédent d' AMS est couramment utilisé pour fournir des conseils et recommander une prophylaxie médicamenteuse pour les expositions ultérieures à la haute altitude, la reproductibilité intra-individuelle de l'AMS au cours d'expositions répétées n'a jamais été examinée dans une étude prospective contrôlée. Méthodes : Chez 27 enfants et 29 adultes non acclimatés, nous avons évalué la présence et la sévérité de l' AMS durant les 48 premières heures après une montée rapide à 3450m, et ceci en deux occasions distantes de 9 à 12 mois. Résultats: 18 adultes (62 %) et 6 enfants (22 %) ont souffert d'AMS durant la première exposition et 14 adultes (48 %) et 4 enfants (15 %) durant la seconde (P=O.Ol, adultes versus enfants). Mais surtout, la reproductibilité intra-individuelle de l'AMS était très différente (P < 0.001) entre les deux groupes; en effet, aucun des 6 enfants ayant souffert d'AMS au cours de la première exposition n'en n'a souffert au cours de la seconde mais 4 enfants sans AMS lors de la première exposition ont été touchés lors de la seconde exposition. Contrairement à cela, 14 des 18 adultes qui ont souffert de 1' AMS lors de la première exposition ont également présenté ce problème au cours de la seconde et aucun nouveau cas ne s'est développé dans ceux qui n'avaient pas souffert de cette affection lors de la première occasion. ConClusion : Si chez 1' adulte, un antécédent d' AMS a une bonne valeur prédictive d'un nouvel épisode durant les expositions futures dans des conditions similaires, il n'en est pas de même chez l'enfant chez lequel il n'a pas de valeur prédictive. Un antécédent d'AMS ne devrait donc pas inciter les praticiens à déconseiller la réexposition ou à prescrire une prophylaxie médicamenteuse chez l'enfant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuroimaging studies analyzing neurophysiological signals are typically based on comparing averages of peri-stimulus epochs across experimental conditions. This approach can however be problematic in the case of high-level cognitive tasks, where response variability across trials is expected to be high and in cases where subjects cannot be considered part of a group. The main goal of this thesis has been to address this issue by developing a novel approach for analyzing electroencephalography (EEG) responses at the single-trial level. This approach takes advantage of the spatial distribution of the electric field on the scalp (topography) and exploits repetitions across trials for quantifying the degree of discrimination between experimental conditions through a classification scheme. In the first part of this thesis, I developed and validated this new method (Tzovara et al., 2012a,b). Its general applicability was demonstrated with three separate datasets, two in the visual modality and one in the auditory. This development allowed then to target two new lines of research, one in basic and one in clinical neuroscience, which represent the second and third part of this thesis respectively. For the second part of this thesis (Tzovara et al., 2012c), I employed the developed method for assessing the timing of exploratory decision-making. Using single-trial topographic EEG activity during presentation of a choice's payoff, I could predict the subjects' subsequent decisions. This prediction was due to a topographic difference which appeared on average at ~516ms after the presentation of payoff and was subject-specific. These results exploit for the first time the temporal correlates of individual subjects' decisions and additionally show that the underlying neural generators start differentiating their responses already ~880ms before the button press. Finally, in the third part of this project, I focused on a clinical study with the goal of assessing the degree of intact neural functions in comatose patients. Auditory EEG responses were assessed through a classical mismatch negativity paradigm, during the very early phase of coma, which is currently under-investigated. By taking advantage of the decoding method developed in the first part of the thesis, I could quantify the degree of auditory discrimination at the single patient level (Tzovara et al., in press). Our results showed for the first time that even patients who do not survive the coma can discriminate sounds at the neural level, during the first hours after coma onset. Importantly, an improvement in auditory discrimination during the first 48hours of coma was predictive of awakening and survival, with 100% positive predictive value. - L'analyse des signaux électrophysiologiques en neuroimagerie se base typiquement sur la comparaison des réponses neurophysiologiques à différentes conditions expérimentales qui sont moyennées après plusieurs répétitions d'une tâche. Pourtant, cette approche peut être problématique dans le cas des fonctions cognitives de haut niveau, où la variabilité des réponses entre les essais peut être très élevéeou dans le cas où des sujets individuels ne peuvent pas être considérés comme partie d'un groupe. Le but principal de cette thèse est d'investiguer cette problématique en développant une nouvelle approche pour l'analyse des réponses d'électroencephalographie (EEG) au niveau de chaque essai. Cette approche se base sur la modélisation de la distribution du champ électrique sur le crâne (topographie) et profite des répétitions parmi les essais afin de quantifier, à l'aide d'un schéma de classification, le degré de discrimination entre des conditions expérimentales. Dans la première partie de cette thèse, j'ai développé et validé cette nouvelle méthode (Tzovara et al., 2012a,b). Son applicabilité générale a été démontrée avec trois ensembles de données, deux dans le domaine visuel et un dans l'auditif. Ce développement a permis de cibler deux nouvelles lignes de recherche, la première dans le domaine des neurosciences cognitives et l'autre dans le domaine des neurosciences cliniques, représentant respectivement la deuxième et troisième partie de ce projet. En particulier, pour la partie cognitive, j'ai appliqué cette méthode pour évaluer l'information temporelle de la prise des décisions (Tzovara et al., 2012c). En se basant sur l'activité topographique de l'EEG au niveau de chaque essai pendant la présentation de la récompense liée à un choix, on a pu prédire les décisions suivantes des sujets (en termes d'exploration/exploitation). Cette prédiction s'appuie sur une différence topographique qui apparaît en moyenne ~516ms après la présentation de la récompense. Ces résultats exploitent pour la première fois, les corrélés temporels des décisions au niveau de chaque sujet séparément et montrent que les générateurs neuronaux de ces décisions commencent à différentier leurs réponses déjà depuis ~880ms avant que les sujets appuient sur le bouton. Finalement, pour la dernière partie de ce projet, je me suis focalisée sur une étude Clinique afin d'évaluer le degré des fonctions neuronales intactes chez les patients comateux. Des réponses EEG auditives ont été examinées avec un paradigme classique de mismatch negativity, pendant la phase précoce du coma qui est actuellement sous-investiguée. En utilisant la méthode de décodage développée dans la première partie de la thèse, j'ai pu quantifier le degré de discrimination auditive au niveau de chaque patient (Tzovara et al., in press). Nos résultats montrent pour la première fois que même des patients comateux qui ne vont pas survivre peuvent discriminer des sons au niveau neuronal, lors de la phase aigue du coma. De plus, une amélioration dans la discrimination auditive pendant les premières 48heures du coma a été observée seulement chez des patients qui se sont réveillés par la suite (100% de valeur prédictive pour un réveil).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : L'histoire familiale reflète non seulement la susceptibilité génétique d'un individu à certaines maladies mais également ses comportements et habitudes, notamment partagées au sein d'une famille. L'hypertension artérielle, le diabète et l'hypercholestérolémie sont des facteurs de risque cardio-vasculaire modifiables hautement prévalent. L'association entre l'histoire familiale d'hypertension artérielle ou de diabète et le risque accru de développer de l'hypertension artérielle ou du diabète, respectivement, a été préalablement établie. Par contre, le lien entre l'histoire familiale de facteurs de risque cardio-vasculaire et les traits continus correspondants n'avaient jamais été mis clairement en évidence. De même, la signification d'une histoire familiale inconnue n'avait jusqu'alors pas été décrite. Ce travail, effectué dans le cadre de l'étude Colaus (Cohorte Lausannoise), une cohorte regroupant un échantillon composé de 6102 participants âgés de 35 à 75 ans sélectionnés au hasard dans la population lausannoise, a permis de décrire en détail la relation entre l'histoire familiale des facteurs de risque cardio-vasculaires et les trait correspondants dans la population étudiée. Les différentes analyses statistiques ont permis de mettre en évidence une relation forte entre l'histoire familiale d'hypertension artérielle, de diabète ainsi que de l'hypercholestérolémie et leurs traits dichotomique et continu correspondants. Les anamnèses des frères et soeurs avaient des valeurs prédictives positives plus élevées que les anamnèses parentales. Ceci signifie que les programmes de dépistage ne prenant en compte que l'histoire familiale des frères et soeurs seraient probablement plus efficaces que ceux qui comportent l'évaluation des anamnèses paternelle et maternelle. Plus de 40% des participants ignoraient l'histoire familiale d'hypertension d'au moins un des membres de leur famille. Ceux-ci avaient des valeurs de tension artérielle systolique plus élevées que ceux dont l'histoire familiale était négative, permettant de souligner la valeur prédictive du fait de ne pas connaître l'histoire familiale d'hypertension artérielle. Ces résultats montrent également que, lors d'analyses de la relation entre l'anamnèse familiale de facteurs de risque cardiovasculaires et leurs traits correspondants, les participants donnant des réponses négatives doivent être distingués de ceux qui ne connaissent pas leur anamnèse familiale. Les résultats de cette étude confirment la place centrale qu'occupe l'anamnèse familiale dans l'évaluation du risque cardio-vasculaire auprès de la population générale. L'importance de cet outil prédictif simple et bon marché ne va cesser d'augmenter avec la disponibilité croissante d'information génétique détaillée pour les maladies cardiovasculaires communes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Les tumeurs de la paroi thoracique sont des pathologies graves dont le traitement principal consiste en une résection chirurgicale. L'enjeu majeur de cette intervention ontologique est de réséquer la totalité de la tumeur, ce qui nécessite une planification préopératoire minutieuse. Classiquement, l'identification et la localisation de la tumeur se fait à l'aide de la tomodensitométrie (computed tomography, CT) ou de l'imagerie par résonnance magnétique (1RM). Actuellement, l'imagerie nucléaire fonctionnelle par tomographie par émission de positons (positron emission tomography, PET) qui peut être couplée au CT (PET/CT) est de plus en plus appliquée aux patients présentant une tumeur maligne. Son efficacité a fréquemment été démontrée. Le but de la présente étude est d'évaluer la valeur du PET dans la planification de la résection des tumeurs de la paroi thoracique. Une analyse rétrospective de dix-huit patients opérés entre 2004 et 2006 a été réalisée; Dans ce groupe de patient, la taille de la tumeur mesurée sur la pièce opératoire réséquée a été comparée à la taille de la tumeur mesurée sur le CT et le PET. Les résultats démontrent que le CT surestimait de manière consistante la taille réelle de la tumeur par rapport au PET (+64% par rapport à +1%, P<0.001). De plus, le PET s'est avéré particulièrement performant pour prédire la taille des tumeurs de plus de 5.5 cm de diamètre par rapport au CT (valeur prédictive positive 80% par rapport à 44% et spécificité 93% par apport à 64%, respectivement). Cette étude démontre que le PET permettrait de mesurer la taille des tumeurs de la paroi thoracique de manière plus précise que le CT. Cette nouvelle modalité diagnostique s'avèrerait donc utile pour planifier les résections chirurgicales de telles tumeurs. A notre connaissance, aucune publication ne décrit la valeur du PET dans ce domaine. Les performances accrues du PET permettraient une meilleure délimitation des tumeurs ce qui améliorerait la précision de la résection chirurgicale. En conclusion, cette étude préliminaire rétrospective démontre la faisabilité du PET pour les tumeurs de la paroi thoracique. Ces résultats devraient être confirmés par une étude prospective incluant un plus grand nombre de patients avec la perspective de juger l'impact clinique réel du PET sur la prise en charge thérapeutique des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail d'un(e) expert(e) en science forensique exige que ce dernier (cette dernière) prenne une série de décisions. Ces décisions sont difficiles parce qu'elles doivent être prises dans l'inévitable présence d'incertitude, dans le contexte unique des circonstances qui entourent la décision, et, parfois, parce qu'elles sont complexes suite à de nombreuse variables aléatoires et dépendantes les unes des autres. Etant donné que ces décisions peuvent aboutir à des conséquences sérieuses dans l'administration de la justice, la prise de décisions en science forensique devrait être soutenue par un cadre robuste qui fait des inférences en présence d'incertitudes et des décisions sur la base de ces inférences. L'objectif de cette thèse est de répondre à ce besoin en présentant un cadre théorique pour faire des choix rationnels dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. L'inférence et la théorie de la décision bayésienne satisfont les conditions nécessaires pour un tel cadre théorique. Pour atteindre son objectif, cette thèse consiste de trois propositions, recommandant l'utilisation (1) de la théorie de la décision, (2) des réseaux bayésiens, et (3) des réseaux bayésiens de décision pour gérer des problèmes d'inférence et de décision forensiques. Les résultats présentent un cadre uniforme et cohérent pour faire des inférences et des décisions en science forensique qui utilise les concepts théoriques ci-dessus. Ils décrivent comment organiser chaque type de problème en le décomposant dans ses différents éléments, et comment trouver le meilleur plan d'action en faisant la distinction entre des problèmes de décision en une étape et des problèmes de décision en deux étapes et en y appliquant le principe de la maximisation de l'utilité espérée. Pour illustrer l'application de ce cadre à des problèmes rencontrés par les experts dans un laboratoire de science forensique, des études de cas théoriques appliquent la théorie de la décision, les réseaux bayésiens et les réseaux bayésiens de décision à une sélection de différents types de problèmes d'inférence et de décision impliquant différentes catégories de traces. Deux études du problème des deux traces illustrent comment la construction de réseaux bayésiens permet de gérer des problèmes d'inférence complexes, et ainsi surmonter l'obstacle de la complexité qui peut être présent dans des problèmes de décision. Trois études-une sur ce qu'il faut conclure d'une recherche dans une banque de données qui fournit exactement une correspondance, une sur quel génotype il faut rechercher dans une banque de données sur la base des observations faites sur des résultats de profilage d'ADN, et une sur s'il faut soumettre une trace digitale à un processus qui compare la trace avec des empreintes de sources potentielles-expliquent l'application de la théorie de la décision et des réseaux bayésiens de décision à chacune de ces décisions. Les résultats des études des cas théoriques soutiennent les trois propositions avancées dans cette thèse. Ainsi, cette thèse présente un cadre uniforme pour organiser et trouver le plan d'action le plus rationnel dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. Le cadre proposé est un outil interactif et exploratoire qui permet de mieux comprendre un problème de décision afin que cette compréhension puisse aboutir à des choix qui sont mieux informés. - Forensic science casework involves making a sériés of choices. The difficulty in making these choices lies in the inévitable presence of uncertainty, the unique context of circumstances surrounding each décision and, in some cases, the complexity due to numerous, interrelated random variables. Given that these décisions can lead to serious conséquences in the admin-istration of justice, forensic décision making should be supported by a robust framework that makes inferences under uncertainty and décisions based on these inferences. The objective of this thesis is to respond to this need by presenting a framework for making rational choices in décision problems encountered by scientists in forensic science laboratories. Bayesian inference and décision theory meets the requirements for such a framework. To attain its objective, this thesis consists of three propositions, advocating the use of (1) décision theory, (2) Bayesian networks, and (3) influence diagrams for handling forensic inference and décision problems. The results present a uniform and coherent framework for making inferences and décisions in forensic science using the above theoretical concepts. They describe how to organize each type of problem by breaking it down into its différent elements, and how to find the most rational course of action by distinguishing between one-stage and two-stage décision problems and applying the principle of expected utility maximization. To illustrate the framework's application to the problems encountered by scientists in forensic science laboratories, theoretical case studies apply décision theory, Bayesian net-works and influence diagrams to a selection of différent types of inference and décision problems dealing with différent catégories of trace evidence. Two studies of the two-trace problem illustrate how the construction of Bayesian networks can handle complex inference problems, and thus overcome the hurdle of complexity that can be present in décision prob-lems. Three studies-one on what to conclude when a database search provides exactly one hit, one on what genotype to search for in a database based on the observations made on DNA typing results, and one on whether to submit a fingermark to the process of comparing it with prints of its potential sources-explain the application of décision theory and influ¬ence diagrams to each of these décisions. The results of the theoretical case studies support the thesis's three propositions. Hence, this thesis présents a uniform framework for organizing and finding the most rational course of action in décision problems encountered by scientists in forensic science laboratories. The proposed framework is an interactive and exploratory tool for better understanding a décision problem so that this understanding may lead to better informed choices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à la découverte du génome, les patients peuvent bénéficier aujourd'hui, d'une approche préventive, prédictive, voire personnalisée de leur prise en charge. Si la médecine personnalisée devient courante, la « généralisation» de l'information génétique nous amènera probablement à établir de nouveaux standards sociaux et éthiques, car si celle-ci permet une plus grande efficacité dans les soins en aidant à la prise de décision, elle apporte une connaissance inédite de l'homme en terme de risque et de susceptibilité face à la maladie, mais aussi des informations propres à l'individu pouvant mener à la discrimination. Sommes- nous prêts à gérer cette information ? Dans ce travail, nous allons nous intéresser au traitement de l'information lors des tests génétiques en recherche. L'hypothèse de travail étant que l'information génétique est une nouvelle donnée biologique individuelle dont il faut tenir compte dans la prise en charge des participants à la recherche. Pour entamer la réflexion, une revue de la littérature a permis de mettre en évidence les spécificités de la recherche en génétique. Dans un deuxième temps, nous avons effectué une analyse comparative des feuilles d'information et des formulaires de consentement destinés aux participants à dix-sept protocoles de recherches impliquant des tests génétiques au CHUV à Lausanne en Suisse. Cette analyse a permis de faire un état des lieux des pratiques actuelles dans la région et elle est le point de départ d'une mise en perspective des enjeux éthiques liés la question. Les résultats montrent des inégalités entre les différentes feuilles d'information et formulaires de consentement de notre échantillon lausannois en ce qui concerne la restitution des résultats, la confidentialité des données ou encore la possibilité de participer à de futures recherches. Nous en concluons qu'il serait intéressant de travailler à une standardisation de ces documents et une éducation plus large à ce sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : L'HSA d'origine anévrismale est une pathologie au pronostic sombre, tout retard diagnostique exposant le patient à un risque élevé de récidives hémorragiques potentiellement fatales. La sensibilité du CT scanner étant jugée insuffisante dans cette indication, la majorité des recommandations actuelles préconisent la réalisation systématique d'une ponction lombaire après toute imagerie cérébrale négative. L'analyse spectrophotométrique du LCR permet en effet de différencier un saignement récent dans l'espace sous-arachnoïdien d'une ponction lombaire traumatique par détection de bilirubine. Or, le caractère invasif de cet examen et son manque de spécificité posent des difficultés en pratique. De plus, l'excellente sensibilité des CT de dernières générations, du moins dans les premières heures suivant la survenue de l'HSA, remet en question le dogme d'une PL systématique dans l'algorithme diagnostique d'une céphalée suspecte. Objectif : Evaluer le rendement diagnostique de la spectrophotométrie du LCR dans le cadre d'une suspicion d'HSA après une imagerie normale, afin d'en préciser les indications. Méthode : Étude monocentrique et rétrospective au Centre Hospitalier Universitaire Vaudois de Lausanne du 1er janvier 2005 au 18 novembre 2010. Extraction de toutes les spectrophotométries positives et analyse approfondie des dossiers concernés. Dans un second temps, et durant la même période, revue de tous les séjours hospitaliers comportant le diagnostic d'HSA , afin d'extraire en particulier les HSA dont le diagnostic a été établi par spectrophotométrie en raison d'une imagerie initiale négative ou non conclusive. Résultats : 869 PL du 1er janvier 2005 au 18 novembre 2010. 36 (4.1%) examens positifs (concentration de bilirubine dans le LCR > 0.3 μmol/l), dont 14 (38.9%) dans un contexte d'HSA (valeur prédictive positive de 38.9%). Sur les 14 cas positifs, 3 ont été diagnostiqués exclusivement par la PL, mais aucune dans un cadre d'HSA anévrismale. Dans la même périodepériode, 235 HSA diagnostiquées, dont 7 (2.9%) avec une imagerie cérébrale initiale négative. Sur ces 7 cas, seuls 2 ont été diagnostiqués comme une HSA d'origine anévrismale. La sensibilité du CT dans notre recherche atteint donc 99.15%. Discussion : Sur les 36 spectrophotométries positives, 22 se sont révélées a posteriori faussement positives, confirmant dès lors la faible spécificité et la faible valeur prédictive positive de l'analyse spectrophotométrique du LCR . Ces faux positifs entraînent la réalisation d'examens invasifs (angiographie cérébrale conventionnelle), dont les complications sont bien décrites. Bien que les résultats ne nous permettent pas de chiffrer le nombre potentiel d'HSA manquées faute d'un examen du LCR, aucun cas d'HSA d'origine anévrismale n'a été diagnostiqué sur la base exclusive de la PL durant la période étudiée. Cette faible spécificité appuie l'idée de développer un score clinique prédictif afin de ne réserver la PL qu'aux patients jugés à haut risque d'HSA. La PL garde néanmoins un rôle dans la détection des HSA d'origine non anévrismales. Conclusions : Lors d'une suspicion clinique d'HSA, le rendement diagnostique de l'analyse du LCR après un angio- CT cérébral normal est faible, tout comme son impact sur la prise en charge, au prix d'un nombre important de faux positifs. La PL reste certainement indiquée face à des céphalées suspectes évoluant depuis plus de 24 heures. Toutefois, au vu de l'excellente valeur prédictive négative d'un CT cérébral réalisé précocement et interprété par un neuroradiologue, cet examen ne devrait être réservé qu'aux situations à haut risque d'HSA. A cet égard, le développement d'un score prédictif validé permettrait de mieux sélectionner les candidats à une PL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Institut de Police Scientifique (IPS) de Lausanne a développé et emploie une méthode de profilage de l'héroïne qui permet d'établir des liens entre les saisies de différentes affaires. La comparaison s'appuie sur des caractéristiques chimiques. Au cours du trafic, les spécimens sont transportés, stockés et dilués. Leurs caractéristiques chimiques sont alors susceptibles de varier. L'objectif de ce travail consiste à évaluer les conséquences d'une dilution importante sur l'évolution des liens chimiques établis, puis d'observer l'influence de la température et de l'humidité sur le profil chimique d'échantillons d'héroïne placés dans des conditions de vieillissement accéléré. On remarque que la dilution n'influence pas directement le profilage, mais l'inférence d'une source commune entre les spécimens dépend de la différence entre les concentrations des échantillons comparés. Dans le cadre de l'étude de vieillissement, tous les échantillons ont pu être liés et aucune variation significative du profil n'a été constatée. Cependant, les quantités de certains composés ont plus tendance à varier et pourraient être à l'origine d'une modification du profil à long terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le syndrome de Brugada, une affection rythmique du sujet jeune potentiellement fatale, se manifeste sur l'ECG par un bloc de branche droit (BBD) complet, avec sus-décalage majeur du segment ST et inversion des ondes Τ de V1 à V3 appelé pattern de type 1. Cette présentation peut être intermittente. Les manifestations incomplètes du syndrome de Brugada sont appelées patterns de types 2 ou 3, et sont caractérisées par un BBD incomplet et un sus-décalage ST plus ou moins prononcé dans les dérivations V-, et V2 de l'ECG. Cette description, cependant, est aussi celle du BBD incomplet fréquemment rencontré chez les sujets jeunes, de moins de 40 ans, et présent dans 3% de la population. Bo nombre de ces sujets sont donc référés pour une recherche de syndrome de Brugada. Le but de cette thèse est donc d'évaluer de nouveaux critères permettant de discriminer les BBD incomplets, banals, des sujets porteurs d'un syndrome de Brugada de types 2 ou 3. Trente-huit patients avec un pattern de Brugada de types 2 et 3, référés pour un test médicamenteux utilisant un antiarythmique révélant un pattern de type 1 chez les sujets porteurs, ont été inclus dans l'étude. Avant le test médicamenteux, deux angles ont été mesurés sur les dérivations Vi et/ou V2 : a, l'angle entre une ligne verticale et la descente de l'onde r', et β, l'angle entre la montée de l'onde S et la descente de l'onde r'. Les mesure à l'état basai des deux angles, seules ou combinées avec la durée du QRS, on été comparées entre les patients avec une épreuve pharmacologique positive et ceux dont l'épreuve s'est révélée négative (i.e. servant de groupe contrôle car porteur d'un véritable BBD incomplet). Des courbes ROC ont été établies afin de déterminer les valeurs d'angles les plus discriminantes. La moyenne des angles β était significativement plus petite chez les 14 patients avec un test pharmacologique négatif comparé aux 24 patients avec un test positif. La valeur optimale pour l'angle β était de 58°, ce qui donnait une valeur prédictive positive de 73% et une valeur prédictive négative de 97% pour une conversion en pattern de type 1 lors du test pharmacologique. L'angle α était un peu moins sensible et spécifique que β. Quand les angles étaient combinés à la durée du QRS, on observait une discrète amélioration de la discrimination entre les deux populations. Notre travail permet donc, chez des patients suspects d'un syndrome de Brugada, de discriminer entre un BBD incomplet et les patterns de Brugada types 2 et 3 en utilisant un critère simple basé sur l'ECG de surface potentiellement applicable au lit du patient

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La dystrophie musculaire de Duchenne (DMD) est une myopathie progressive liée au chromosome X qui atteint environ un garçon sur 3500. Des troubles du sommeil (TDS) sont fréquemment rapportés par ces patients Les études effectuées à ce jour se sont essentiellement concentrées sur les troubles respiratoires liés au sommeil. Les TDS débutent toutefois fréquemment avant l'installation d'un trouble ventilatoire nocturne et de nombreux autres facteurs peuvent en être la cause. Objectif L'objectif de cette étude est d'évaluer la fréquence des TDS chez les garçons avec une DMD et d'en identifier les facteurs de risque. Méthode II s'agit d'une étude transversale effectuée par questionnaire postal adressé aux parents de tout garçon âgé de 4-18 ans avec une DMD, suivi dans deux centres tertiaires de réhabilitation pédiatrique (Lausanne et Dublin). Les TDS sont évalués à l'aide de la 'Sleep Disturbance Scale for Children' (SDSC), validée sur 1157 enfants sains. Elle permet d'obtenir un score total et des scores pour six facteurs représentant les TDS les plus fréquents (troubles de l'endormissement et du maintien du sommeil (TEMS), éveil nocturne-cauchemars, transition veille-sommeil, somnolence diurne excessive, troubles respiratoires associés au sommeil (TRS), hyperhidrose du sommeil). Un T- score supérieur à 70 (>2DS) est considéré comme pathologique. Les associations potentielles entre des scores pathologiques et des facteurs individuels (âge, mobilité diurne et nocturne, douleur), thérapeutiques (orthèses nocturnes, ventilation non-invasive, médication) et environnementaux (facteurs socio-familiaux) sont évaluées à l'aide d'analyses univariées (χ2) et de régressions logistiques ascendantes. Résultats Seize garçons sur 63, soit 25.4%, présentent un score total pathologique en comparaison au 3% attendus dans la population générale. Les TEMS (29.7%), les TRS (15.6%) et l'hyperhidrose du sommeil (14.3%) sont les TDS les plus prévalent. Le besoin d'être mobilisé la nuit par un tiers (OR=9.4; 95%CI: 2.2-40.7; p=0.003) et être l'enfant d'une famille monoparentale (OR=7.2; 95%CI: 1.5-35.1; p=0.015) sont des facteurs de risque indépendants pour un score total pathologique. Le besoin d'être mobilisé la nuit par un tiers (OR=18.0; 95%CI: 2.9¬110.6; p=0.002), le traitement par corticostéroïdes (OR=7.7; 95%CI: 1.4-44.0; p-0.021) et être l'enfant d'une famille monoparentale (OR=7.0; 95%CI: 1.3-38.4; p=0.025) sont des facteurs de risque indépendants pour un TEMS. Discussion Cette étude montre une prévalence élevée des TDS chez les garçons avec une DMD (25% contre 3% attendus dans la population générale). Le besoin d'être mobilisé la nuit par un tiers est identifié comme un facteur de risque important pour un score total pathologique et un TEMS. Il reflète vraisemblablement un degré d'atteinte motrice tel qu'il limite les mouvements spontanés et les adaptations posturales du sommeil, ayant pour conséquence une diminution importante de la qualité du sommeil. Les enfants vivant dans un foyer monoparental présentent plus fréquemment un score total pathologique et des TEMS, possiblement en lien avec un stress psychologique plus important dans ces familles. Le traitement par corticostéroïdes est identifié comme facteur de risque pour un TEMS. Une adaptation du schéma ou du dosage permet généralement de limiter cet effet secondaire. Si nécessaire, un traitement par Mélatonine peut être instauré. Aucune association n'a pu être mise en évidence entre les facteurs analysés et les TRS, possiblement en raison du petit nombre de garçons ayant rapporté de tels symptômes et du fait que certains symptômes d'hypoventilation nocturne ne sont pas évalués par la SDSC. Par ailleurs, la valeur prédictive de l'anamnèse, comme celle des fonctions pulmonaires diurnes, est connue pour être limitée, raison pour laquelle une oxy-capnométrie est effectuée de routine en dessous d'une capacité vitale forcée de 50%. Elle permet, si nécessaire, l'instauration précoce d'une ventilation non-invasive, limitant ainsi vraisemblablement l'impact de ('hypoventilation nocturne sur la qualité du sommeil dans notre population. Plusieurs limitations sont à évoquer. Le petit nombre de patients ne permet pas d'exclure d'autres associations potentielles. La nature transversale de l'étude augmente le risque de causalité inverse. Cette étude n'inclut pas de mesure quantitative du sommeil. Les questionnaires adressés aux parents ont toutefois pu être démontrés comme fiables hormis pour les TRS. Un biais de non-réponse ne peut pas être totalement exclu, bien que le taux de réponse soit élevé (86,5%) et qu'il n'y ait pas de différence significative entre les populations de répondeurs et non-répondeurs. Conclusion La prévalence des TDS est élevée chez les garçons avec une DMD et leurs causes sont multiples. Les facteurs de risques sont physiques (immobilité nocturne), pharmacologiques (corticothérapie) et environnementaux (famille monoparentale). Compte tenu de son impact sur la qualité de vie, l'évaluation du sommeil doit être systématique en consultation et ne pas se limiter aux seuls troubles ventilatoires nocturnes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Phénomène reconnu de longue date, dont les rhéteurs et les écrivains ont même souvent vanté l'efficacité pour réaliser un portrait moral convaincant, la caractérisation langagière des personnages n'a été que peu observée selon une perspective générale, comme si son étude ne pouvait s'envisager en dehors du projet esthétique d'un auteur particulier. Cependant, on peut envisager la caractérisation langagière comme procédant d'une poétique du récit, c'est-à-dire comme un mécanisme du texte narratif, dont certaines constantes peuvent être décrites. L'objectif du présent travail est ainsi de mettre au jour les conditions, tant textuelles que contextuelles, devant être réunies pour que certains aspects des discours rapportés fassent sens en tant qu'éléments de caractérisation. La nature indirecte de ce phénomène demande en effet de porter une attention particulière à ce qui relève des conditions de production et d'interprétation du texte, autrement dit des éléments contextuels que le texte convoque (liés à la langue, aux genres, au « texte » de la culture, etc.) afin de (re)construire par inférence ce qui est dit « sans être dit ». Ainsi la caractérisation langagière reposet- elle sur la reconnaissance d'un rôle thématique endossé par le personnage, rôle défini en partie par certains « habitus » discursifs. Mais il importe également de considérer la caractérisation langagière comme un effet de la textualité. Cela concerne d'abord des unités manipulées par les auteurs (mots, structures syntaxiques, phonologie...). Néanmoins, rien ne se joue sur un unique élément ; au contraire, d'une part, il faut qu'une série de traits s'organisent en un réseau isotope, et cela de la réplique isolée au texte entier ; d'autre part, la caractérisation dérive encore des relations que le discours d'un personnage entretient avec des discours avoisinants, en premier lieu celui du narrateur. Se concentrant sur des oeuvres comiques ou satiriques des XVIIe et XVIIIe siècles, l'approche proposée ici veut également tenir compte d'une tradition rhétorique et poétique qui associe portrait moral et parole représentée, tradition encore très présente dans un tel corpus, qui a par ailleurs l'avantage de laisser entrer dans le monde de la fiction des personnages de toutes conditions, dotés de leurs langages spécifiques.