1000 resultados para Analyse de régression
Resumo:
Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Le présent rapport est structuré de la manière suivante : le chapitre 2 décrit la méthode utilisée ; le chapitre 3 est consacré à l'activité de consultation et le chapitre 4 à l'action communautaire. Le chapitre 5 concerne la notion de centre de référence. Une analyse ciblée de la littérature, ainsi que les consultations de santé sexuelle dans les autres cantons romands sont présentés au chapitre 6. Les conclusions et recommandations sont exposées au chapitre 7.
Resumo:
Contexte de recherche Mon projet de thèse en médecine concerne l'exploration des facteurs associés à l'excrétion urinaire de calcium durant 24h dans une étude populationnelle suisse. Les données qui ont été utilisées sont issues d'une étude populationnelle connue sous le nom de « Swiss survey on Salt intake », qui a été effectuée entre janvier 2010 et mars 2012 et avait pour but principal d'investiguer la consommation de sel de la population suisse. L'étude a regroupé plusieurs centres d'investigations dans toute la Suisse (11 centres dans 9 cantons), dans trois langues nationales (français, allemand et italien) et concerne des participants âgés de plus de 15 ans. Cette étude avait l'avantage de collecter des données anthropométriques, sanguines, urinaires, de lister les traitements et de poser des questions sur le style de vie (alcool, activité physique, etc.). A notre connaissance, peu d'articles populationnels explorent les facteurs associés à l'excrétion urinaire de calcium durant 24h et notamment l'association de celle-ci avec le calcium corrigé sanguin et la 250H-vitamine D2*3 sanguin chez les hommes et les femmes. Méthodes Après exclusions des données manquantes, 1293 participants sur 1550 ont été retenus pour l'analyse statistique. Celle-ci a été effectuée grâce au logiciel Stata 12. Nous avons utilisé la régression linéaire multiple dont la variable dépendante était l'excrétion urinaire de calcium durant 24h en stratifiant les analyses par sexe (en raison des interactions statistiques significatives entre calcémie et sexe, et entre vitamine D et sexe). Les variables indépendantes comprenaient des variables en lien avec l'excrétion urinaire de calcium (vingt-quatre covariables au total) dont la 250H-vitamine D2+3 (avec la variabilité saisonnière) et la calcémie (calcium sérique corrigé par les protéines). Résultats D'importantes différences entre hommes et femmes ont été observées : une association positive entre l'excrétion urinaire de calcium durant 24h et la calcémie corrigée a été trouvée chez les femmes mais pas chez les hommes. En parallèle, nous relevons une association positive entre l'excrétion urinaire de calcium durant 24h et la 250H-vitamine D2+3 chez les hommes mais pas chez les femmes (liée essentiellement à la présence 250H-vitamine D3 en quantité bien plus importante que la 250H-vitamine D2). Nous soulevons deux hypothèses possibles pour expliquer ces importances différences hommes-femmes. La première hypothèse est l'influence des hormones sexuelles. La seconde hypothèse est la contribution des facteurs diététiques. De nouvelles analyses et de nouvelles études populationnelles sont nécessaires pour confirmer ou infirmer ces hypothèses. Perspectives Une prochaine étape sera d'explorer l'influence de l'excrétion urinaire de sodium, de potassium et d'urée sur les associations observées afin d'étudier une possible influence de l'alimentation sur ces résultats. Une autre étape consistera à doser les hormones sexuelles dans les échantillons de cette étude ou dans ceux d'une autre étude. La prévalence de l'hypercalciurie dans cette étude (9 % chez les hommes et 8.1% chez les femmes) est plus basse que dans d'anciennes études non-populationnelles. Il paraît important de mentionner qu'il existe peu de données sur les normes de calciurie dans la population générale et qu'il n'existe pas de consensus international claire concernant la définition de l'hypercalciurie. Cette prévalence élevée est notamment pertinente dans la cadre des néphrolithiasés, qui sont connues pour être plus fréquentes chez les hommes que chez les femmes. Enjeux Les différences hommes-femmes observées pourraient avoir des implications pour améliorer notre compréhension des mécanismes impliqués dans les lithiases urinaires et dans le risque cardiovasculaire associé ainsi que dans notre compréhension des mécanismes associés à l'ostéoporose.
Resumo:
Le but de cette thèse a été d'investiguer la relation entre, d'une part le temps de propagation de l'onde de pouls artérielle du coeur vers les membres inférieurs, et d'autre part le temps séparant, au niveau de l'aorte ascendante, la génération de l'onde antérograde du retour des ondes réfléchies. Le principe de la méthode employée a été de mesurer ces deux temps par deux méthodes indépendantes, ce en les faisant varier par changement rapide de la position du corps, chez sujets humains volontaires. Le facteur gravitationnel a en effet une influence majeure sur la pression transmurale des artères, dont dépend largement la vitesse de propagation des ondes de pouls, tant dans le sens antérograde que rétrograde. Vingt sujets jeunes, en bonne santé, dontIO hommes et 10 femmes, ont été examinés sur une table de tilt, dans deux positions différentes : tête vers le bas (angle de tilt : - 10°) et tête vers le haut (+45°).Dans chaque position, le temps de propagation carotido- femorale (Tcf, succédané du temps aorto-fémoral) et carotido-tibial (Tct, succédané du temps aorto-tibial) a été mesuré avec l'appareil Complior. De même, dans chaque position la pression aortique centrale a été enregistrée par tonométrie radiale en utilisant l'appareil SphygmoCor qui applique une fonction de transfert généralisé pour reconstruire la forme de l'onde de pouls aortique. L'analyse de celle-ci permet ensuite de calculer les temps d'aller-retour des ondes réfléchies atteignant l'aorte pendant la systole (début de l'onde réfléchie, sT1 r) et pendant la diastole (temps de transit moyen de l'onde diastolique réfléchie dMTT). Le changement de position de tête vers le haut à tête vers le bas, a provoqué une augmentation importante du temps de propagation Tct (chez le femmes de 130±10 à 185±18msec, P<0,001 et chez les hommes de 136±9 à 204±18msec P<0.001) ainsi que du temps moyen de transition de l'onde diastolique réfléchie dMTT (chez les femmes de 364±35 à 499±33msec P<0,001 et chez les hommes de 406±22 à 553±21msec, P<0,001). Un modèle de régression mixte montre qu'entre les deux positions, les variations de dMTT sont environ le double de celles de Tct (coefficient de régression 2.1; 95% intervalle de confiance 1.9-2,3, P<0,001). Ces résultats suggèrent que les ondes diastoliques observées dans l'onde de pouls aortique central reconstruites par tonométrie radiale, correspondent, du moins en partie, aux ondes réfléchies générées au niveau des membres inférieurs.
Resumo:
Deux tiers des spécialistes en médecine interne et des médecins généralistes suisses interrogés ont indiqué, dans une enquête, qu'ils ont déjà renoncé, pour des questions de coûts, à appliquer des mesures diagnostiques ou thérapeutiques peut-être bénéfiques. Un nouveau rapport, rédigé sur mandat de l'Académie Suisse des Sciences Médicales, présente les faits et revendique une discussion ouverte. Les auteurs du rapport demandent que soient fixés des objectifs en matière de santé et que les éventuelles décisions de rationner soient, en outre, prises en fonction de critères transparents et appuyés de manière démocratique. [ASSM]