996 resultados para arbre de régression et de classification
Resumo:
Mode of access: Internet.
Resumo:
Includes indexes.
Resumo:
Vol. 1 contains a eulogy by Vicq-d'Azyr, a response by Saint-Lambert, and a eulogy of Daubenton by Cuvier.
Resumo:
Mode of access: Internet.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
L’estimation du stock de carbone contenu dans les forêts peut être effectuée de plusieurs manières. Les méthodes les plus connues sont destructives et nécessitent l’abattage d’un grand nombre représentatif d’arbres. Cette représentativité est difficilement atteinte dans les forêts tropicales, présentant une diversité d’espèces exceptionnelles, comme à Madagascar. Afin d’évaluer le niveau de dégradation des forêts, une étude d'images par télédétection est effectuée au moyen de l’analyse du signal radiométrique, combinée à un inventaire non destructif de biomasse. L’étude de la dynamique du paysage proposé est alors basée sur une correction atmosphérique d’une image SPOT 5, de l’année 2009, et sur une classification semi supervisée de l’occupation des sols, combinant une classification préliminaire non supervisée, un échantillonnage aléatoire des classes et une classification supervisée avec un maximum de vraisemblance. La validation est effectuée à l’aide de points indépendants relevés lors des inventaires de biomasse avec des valeurs du stock de carbone bien précises. La classification non supervisée a permis de ressortir deux classes de forêt dénommées « peu dégradée » et « dégradée ». La première désigne l’état climax (le stock de carbone a atteint une valeur qui varie peu) alors que la seconde est caractérisée par un taux de carbone plus faible que le niveau climax, mais qui peut être atteint sans perturbation. Cette première classification permet alors de répartir les placettes d’inventaire dans chaque classe. La méthode d’inventaire recueille à la fois des données dendrométriques classiques (espèce, densité, hauteur totale, hauteur fût, diamètre) et des échantillons représentatifs de branches et de feuilles sur un arbre. Ces différents paramètres avec la densité de bois permettent d’établir une équation allométrique de laquelle est estimée la biomasse totale d’un arbre et conséquemment de la formation forestière. Par la suite, la classification supervisée a été effectuée à partir d’échantillons aléatoires donnant la valeur de séparabilité des classes, de la classification finale. De plus, les valeurs de stocks de carbone à l’hectare, estimées de chaque placette, ont permis de valider cette classification et d’avoir une évaluation de la précision. La connaissance de ce niveau de dégradation issue de données satellitaires à haute résolution spatiale, combinées à des données d’inventaire, ouvre le champ du suivi interannuel du stock de carbone et subséquemment de la modélisation de la situation future du stock de carbone dans différents types de forêts.
Resumo:
Ce travail vise à exposer le courant de la psychologie positive et à présenter une tentative d'articulation entre ce courant et le champ de la pratique psychothérapeutique. Nous présenterons, dans un premier temps, les fondements de la psychologie positive et les axes principaux qui la constituent. Dans cette perspective, la théorie des émotions positives de Fredrickson et la classification des vertus et des forces de caractères de Peterson et Seligman sont exposées plus en détails. Dans un second temps et à partir des travaux récents, deux facçons d'établir un pont entre psychologie positive et la psychothérapie sont discutées : (i) le développement de nouvelles stratégies thérapeutiques issues de la psychologie positive et (ii) une relecture des principaux modèles psychothérapeutiques au regard de la psychologie positive. / This article aims to present the field of positive psychology and the way it could be integrated in the area of psychotherapy. First, the historical grounding and the main contributions of positive psychology are presented. In this perspective, the Fredrickson's theory of positive emotions and the Peterson's classification of character strengths and virtues are particularly detailed. Secondly, based on recent research, two ways to link positive psychology to clinical practice emerged: (i) the development of new therapeutic strategies anchored in the positive psychology, and (ii) a critical look at different psychotherapeutic modalities based on positive psychology.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Les hypertensions pulmonaires post-capillaires sont définies par une pression artérielle moyenne (PAPm) ≥ 25mmHg et une pression pulmonaire d'occlusion (PAPO) > 15mmHg. Une augmentation de la PAP peut être soit passive, transmission rétrograde de l'augmentation de la pression du coeur gauche ( gradient transpulmonaire GTP ≤ 12mmHg), soit active, élévation hors de proportion de la PAP due à une augmentation du tonus vasculaire et un remodelage vasculaire (GTP > 12mmHg). Le gradient entre la pression artérielle diastolique (PAPd) et la PAPO, qui est normal (≤ 5mmHg) dans les HP post-capillaires, n'est actuellement plus utilisé dans le diagnostic et l'évaluation des HP dans la dernière classification de 2008 (Dana Point 2008). But : - analyse des données cliniques, échocardiographiques et hémodynamiques des HP post-capillaires des patients référés dans un centre de référence d'HP - évaluer le rôle du gradient PAPd-PAPO dans la prise en charge des HP Méthode : Nous avons analysé de manière rétrospective les données cliniques, hémodynamiques et échocardiographiques des patients qui ont été diagnostiqué pour une HP au moyen d'un cathétérisme cardiaque entre janvier 2009 et juin 2011 au centre de référence d'HP du Centre Hospitalier Universitaire Vaudois (CHUV). Résultats: - 40% des patients ont les critères pour une HP post-capillaire - 33% des patients ont une HP qui répond à la définition d'HP "hors de propotion" avec un GTP > 12mmHg - 74% des patients avec HP post-capillaire ont une cardiopathie gauche associée avec des signes échocardiographiques de dysfonction diastolique - Sur les 27 patients avec une HP du groupe 2, 44% ont plusieurs facteurs de risque (FR) pour une HP - 75% de ces patients avec une cardiopathie gauche ainsi qu'un autre FR pour une HP ont un gradient PAPd-PAPO > 5 mmHg versus 8% de ceux qui n'ont pas d'autre FR (p-value 0.0075) Conclusion : Les HP post-capillaires sont fréquentes chez les patients adressés au centre de référence d'HP pour une suspicion d'HP. Dans notre cohorte 85% des patients avec HP post-capillaire ont une HP hors de proportion dont 44% ont un FR non cardiaque susceptible d'être à l'origine de l'HP. Le gradient PAPd-PAPO semble être un meilleur facteur discriminant que le GTP pour la caractérisation et la classification des HP.
Resumo:
Messages à retenir :Les signes scanographiques d'atteinte bronchiolaire d'origine infectieuse et/ou inflammatoire sont des petites opacités nodulaires et linéaires branchéescentrolobulaires (signe de l'arbre en bourgeons) et des opacités nodulaires centrolobulaires à limites floues .Les signes d'obstruction bronchiolaire sont des plages pulmonaires hypodenses et hypoperfusées, de distribution diffuse ou hétérogène, responsables alors d'unaspect de perfusion en mosaïque et d'un piégeage expiratoire.Les lésions diffuses de bronchiolite oblitérative doivent être différenciées de celles de l'emphysème panlobulaire sur l'absence de distorsion de l'architecturepulmonaire et d'opacités linéaires des bases.L'existence d'une dilatation des artères pulmonaires proximales est le meilleur signe de perfusion en mosaïque d'origine vasculaire , tandis que la présence dedilatations bronchiques est le meilleur signe de perfusion en mosaïque d'origine bronchiolaire . Résumé :La scanographie est l'imagerie de référence pour la détection, le diagnostic et l'évaluation de l'étendue des lésions bronchiolaires . Les petites opacitéscentrolobulaires, nodulaires et linéaires branchées (signe de l'arbre en bourgeons) sont caractéristiques de bronchiolite infectieuse. Leur détection est facilitée enprojection d'intensité maximum. Les opacités arrondies centrolobulaires à contours flous et de faible densité signent l'atteinte inflammatoire des paroisbronchiolaires et des alvéoles péribronchiolaires (bronchiolite respiratoire, bronchiolite d'hypersensibilité, bronchiolite folliculaire). Les hypodensités diffuses etles aspects de perfusion en mosaïque d'origine bronchiolaire avec piégeage sont l'expression d'une obstruction des bronchioles terminales par remodelage ,fibrose, ou lésions granulomateuses. Les causes bronchiolaires de perfusion en mosaïque sont la bronchiolite oblitérative , l'asthme, la pneumonie d'hypersensibilité et la bronchiolite obstructive des BPCO . La distribution et l'étendue des zones de piégeage sont mieux appréciées sur des acquisitionsdynamiques lors d'une manoeuvre expiratoire forcée que sur des acquisitions faites en apnée expiratoire. Les reformations épaisses en projection d'intensitéminimum à partir d'images acquises en expiration dynamique facilitent la détection et l'évaluation de la distribution et de l'étendue des lésions de piégeage , cetteévaluation pouvant être effectuée avec une très faible irradiation.
Resumo:
La dépression postnatale (DP) est un problème de santé publique très fréquent dans différentes cultures (Affonso et al, 2000). En effet, entre 10% à 15% des mères souffrent d’une symptomatogie dépressive ainsi que l’indiquent Gorman et al. (2004). La prévention de la DP est l’objectif de différents programmes prénatals et postnatals (Dennis, 2005; Lumley et al, 2004). Certains auteurs notent qu’il est difficile d’avoir accès aux femmes à risque après la naissance (Evins et al, 2000; Georgiopoulos et al, 2001). Mais, les femmes fréquentent les centres de santé pendant la grossesse et il est possible d’identifier les cas à risque à partir des symptômes prénataux dépressifs ou somatiques (Riguetti-Veltema et al, 2006); d’autant plus qu’un grand nombre de facteurs de risque de la DP sont présents pendant la grossesse (O’Hara et Gorman, 2004). C’est pourquoi cette étude fut initiée pendant le premier trimestre de la grossesse à partir d’une détection précoce du risque de DP chez n= 529 femmes de classes moyenne et défavorisée, et, cela, au moyen d’un questionnaire validé utilisé à l’aide d’une entrevue. L’étude s’est effectuée dans trois villes : Barcelone, Figueres, et Béziers au cours des années 2003 à 2005. Objectif général : La présente étude vise à évaluer les effets d’un programme prénatal de groupes de rencontre appliqué dans la présente étude chez des couples de classe socioéconomique non favorisée dont les femmes sont considérées comme à risque de dépression postnatale. L’objectif spécifique est de comparer deux groupes de femmes (un groupe expérimental et un groupe témoin) par rapport aux effets du programme prénatal sur les symptômes de dépression postnatale mesurés à partir de la 4ème semaine après l’accouchement avec l’échelle EPDS. Hypothèse: Les femmes participant au programme prénatal de groupe adressé aux couples parentaux, composé de 10 séances hebdomadaires et inspiré d’une orientation psychosomatique présenteront, au moins, un taux de 6% inférieur de cas à risque de dépression postnatale que les femmes qui ne participent pas, et cela, une fois évaluées avec l’échelle EPDS (≥12) 4 semaines après leur accouchement. Matériel et méthode: La présente étude évaluative est basée sur un essai clinique randomisé et longitudinal; il s’étend de la première ou deuxième visite d’échographie pendant la grossesse à un moment situé entre la 4ème et la 12ème semaine postnatale. Les participants à l’étude sont des femmes de classes moyenne et défavorisée identifiées à risque de DP et leur conjoint. Toutes les femmes répondant aux critères d’inclusion à la période du recrutement ont effectué une entrevue de sélection le jour de leur échographie prénatale à l’hôpital (n=529). Seules les femmes indiquant un risque de DP furent sélectionnées (n= 184). Par la suite, elles furent distribuées de manière aléatoire dans deux groupes: expérimental (n=92) et témoin (n=92), au moyen d’un programme informatique appliqué par un statisticien considérant le risque de DP selon le questionnaire validé par Riguetti-Veltema et al. (2006) appliqué à l’aide d’une entrevue. Le programme expérimental consistait en dix séances hebdomadaires de groupe, de deux heures et vingt minutes de durée ; un appel téléphonique entre séances a permis d’assurer la continuité de la participation des sujets. Le groupe témoin a eu accès aux soins habituels. Le programme expérimental commençait à la fin du deuxième trimestre de grossesse et fut appliqué par un médecin et des sages-femmes spécialement préparées au préalable; elles ont dirigé les séances prénatales avec une approche psychosomatique. Les variables associées à la DP (non psychotique) comme la symptomatologie dépressive, le soutien social, le stress et la relation de couple ont été évaluées avant et après la naissance (pré-test/post-test) chez toutes les femmes participantes des deux groupes (GE et GC) utilisant : l’échelle EPDS (Cox et al,1987), le Functional Social Support Questionnaire (Broadhead et al, 1988), l’évaluation du stress de Holmes et Rahe (1967) et, l’échelle d’ajustement dyadique de Spanier (1976). La collecte des données prénatales a eu lieu à l’hôpital, les femmes recevaient les questionnaires à la fin de l’entrevue, les complétaient à la maison et les retournaient au rendez-vous suivant. Les données postnatales ont été envoyées par les femmes utilisant la poste locale. Résultats: Une fois évalués les symptômes dépressifs postnatals avec l’échelle EPDS entre la 4ème et la 12ème semaine postnatale et considérant le risque de DP au point de césure ≥ 12 de l’échelle, le pourcentage de femmes à risque de DP est de 39,34%; globalement, les femmes étudiées présentent un taux élevé de symptomatologie dépressive. Les groupes étant comparables sur toutes les variables prénatales, notons une différence dans l’évaluation postnatale de l’EPDS (≥12) de 11,2% entre le groupe C et le groupe E (45,5% et 34,3%). Et la différence finale entre les moyennes de l’EPDS postnatal est de 1,76 ( =11,10 ±6,05 dans le groupe C et =9,34 ±5,17 dans le groupe E) ; cette différence s’aproche de la limite de la signification (p=0,08). Ceci est dû à un certain nombre de facteurs dont le faible nombre de questionnaires bien complétés à la fin de l’étude. Les femmes du groupe expérimental présentent une diminution significative des symptômes dépressifs (t=2,50 / P= 0,01) comparativement au pré-test et indiquant une amélioration au contraire du groupe témoin sans changement. Les analyses de régression et de covariance montrent que le soutien social postnatal, les symptômes dépressifs prénatals et le stress postnatal ont une relation significative avec les symptômes dépressifs postnatals (P<0,0001 ; P=0.003; P=0.004). La relation du couple n’a pas eu d’impact sur le risque de DP dans la présente étude. Par contre, on constate d’autres résultats secondaires significatifs: moins de naissances prématurées, plus d’accouchements physiologiques et un plus faible taux de somatisations non spécifiques chez les mères du groupe expérimental. Recommandations: Les résultats obtenus nous suggèrent la considération des aspects suivants: 1) il faudrait appliquer les mesures pour détecter le risque de DP à la période prénatale au moment des visites d’échographie dont presque toutes les femmes sont atteignables; il est possible d’utiliser à ce moment un questionnaire de détection validé car, son efficacité semble démontrée; 2) il faudrait intervenir auprès des femmes identifiées à risque à la période prénatale à condition de prolonger le programme préventif après la naissance, tel qu’indiqué par d’autres études et par la demande fréquente des femmes évaluées. L’intervention prénatale de groupe n’est pas suffisante pour éviter le risque de DP chez la totalité des femmes. C’est pourquoi une troisième recommandation consisterait à : 3) ajouter des interventions individuelles pour les cas les plus graves et 4) il paraît nécessaire d’augmenter le soutien social chez des femmes défavorisées vulnérables car cette variable s’est révélée très liée au risque de dépression postnatale.
Resumo:
Le premier objectif de cette étude était d’évaluer la relation entre l’alexithymie et différents troubles du sommeil chez des patients diagnostiqués (N= 580) selon la polysomnographie et la classification de l’American Academy of Sleep Medicine (AASM) et chez des sujets contrôle (N= 145) en utilisant l’Échelle d’Alexithymie de Toronto à 20 items (TAS-20). Le deuxième objectif était d’estimer le lien entre l’alexithymie et des caractéristiques de rêves suivant un Questionnaire sur les Rêves de 14 items. Les résultats confirment un lien entre l’alexithymie et les troubles du sommeil. Sa prévalence était supérieure dans le groupe clinique comparativement au groupe contrôle, et était différente selon les troubles. Les hommes cotaient plus haut que les femmes à l’Échelle d’Alexithymie de Toronto à 20 items (TAS-20) et sur ses sous-échelles DDF (difficulty describing feeling) et EOT (externally oriented thinking). L’EOT pourrait être impliquée dans les troubles de sommeil en étant l’unique sous-échelle, où un effet principal des diagnostics était significatif dans le groupe clinique. Pour les rêves, le score du TAS-20 corrélait positivement avec le facteur « détresse des cauchemars »; et négativement avec « rappel de rêves » et « signification des rêves ». Les sous-échelles du TAS-20 avaient des corrélations différentes: positive entre DIF et « détresse des cauchemars », négative entre DDF et « rappel de rêves » et EOT avec « signification des rêves ». À part quelques exceptions, ces modèles sont obtenus pour les groupes cliniques et non-cliniques, et pour les hommes et les femmes dans ces deux groupes. Ces résultats suggèrent un modèle consistant, et reproductible, de relations entre l’alexithymie et les composantes des rêves.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis