949 resultados para Modèle Markov-modulé


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le management des risques dans les institutions psychiatriques représente aujourd'hui un challenge majeur pour les cliniciens, les administrateurs et les décideurs politiques. Il pose la question de la formation des équipes au management de la violence et de l'évaluation des patients dans la clinique quotidienne. Cet article fait le lien entre une étude, menée sur un an dans une institution psychiatrique et un modèle de management des risques, le modèle cindynique. Les résultats doivent interroger sur les représentations du phénomène de violence par les différents acteurs, l'appropriation par les équipes d'outils d'évaluation de la dangerosité et sur la communication dans l'équipe pluridisciplinaire et avec le patient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le cancer testiculaire, bien que peu fréquent, revêt une importance particulière en oncologie ; il représente actuellement un modèle pour optimiser un suivi radiologique tout en essayant de diminuer l'apparition de tumeurs radio-induites.En effet, cette pathologie présente un taux très élevé de survie nécessitant, au vu du jeune âge des patients, des bilans radiologiques à long terme, auxquels pourront être liés des effets secondaires, en particulier les tumeurs secondaires.Afin de diminuer cela, les recommandations de prise en charge ont évolué et les protocoles de radiologie s'améliorent afin d'exposer à moins de rayonnements ionisants pour un résultat identique.Il est donc devenu primordial de maintenir un suivi optimal tout en essayant d'en minimiser la toxicité. Despite being rare cancers, testicular seminoma and non-seminoma play an important role in oncology: they represent a model on how to optimize radiological follow-up, aiming at a lowest possible radiation exposure and secondary cancer risk. Males diagnosed with testicular cancer undergo frequently prolonged follow-up with CT-scans with potential toxic side effects, in particular secondary cancers. To reduce the risks linked to ionizing radiation, precise follow-up protocols have been developed. The number of recommended CT-scanners has been significantly reduced over the last 10 years. The CT scanners have evolved technically and new acquisition protocols have the potential to reduce the radiation exposure further.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une lésion nerveuse périphérique est susceptible d'engendrer une douleur neuropathique caractérisée par des changements d'expression génique dans les neurones nociceptifs des ganglions spinaux. Parmi ces modifications, on note une augmentation transcriptionnelle du gène codant pour la guanosine triphosphate cyclohydrolase 1 (GCH1) considérée comme modulateur clé des douleurs neuropathiques périphériques1. La surexpression de la GCH1 induit alors une hausse de la concentration de la tétrahydrobiopterin (BH4), un cofacteur essentiel pour la production de catécholamines, de sérotonine et d'oxide nitrique dans les ganglions spinaux. La surexpression de ce cofacteur induit la production de ces neurotransmetteurs et contribue à l'augmentation de la sensibilité douloureuse. Dans ce travail, j'ai modulé l'expression de GCH1 par l'utilisation d'un vecteur viral adéno-associé. Tout d'abord, j'ai testé in vitro dans des cellules PC12 différentes molécules d'ARN interfèrent permettant la régulation négative de GCH1. Les cellules PC 12 contiennent constitutionnellement la GCH1 et sont donc intéressantes afin de tester et sélectionner un plasmide permettant une régulation négative efficace de cette molécule in vitro. Cela m'a permis de choisir après sélection de cellules par FACS et quantification protéique par Western blot les meilleurs sh-ARN à utiliser tant pour la régulation négative de GCH1 que pour le vecteur contrôle. J'ai ensuite co- transfecté ces plasmides avec le plasmide pDF6 dans des cellules HEK293T pour la production de mon vecteur viral (rAAV2/6) permettant la régulation négative de la GCH1 ainsi que de mon vecteur contrôle. Après avoir étudié deux voies d'injection chez le rat (dans le nerf sciatique et en intrathécal), j'ai retenu la voie intrathécale comme ayant le meilleur taux de transduction de mon vecteur viral au niveau des ganglions spinaux. Utiliser cette voie d'injection pour mon vecteur permet de cibler plus particulièrement les neurones nociceptifs des ganglions spinaux. J'ai ensuite étudié la modulation de la GCH1 et sa répercussion sur le développement et le maintien des douleurs neuropathiques dans le modèle animal « spared nerve injury » (SNI). Je n'ai pas obtenu de diminution de douleur ni au niveau comportemental ni au niveau moléculaire chez le rat. Ayant répété l'expérience chez la souris, j'ai obtenu une diminution significative de l'expression de la GCH1 au niveau de l'ARN messager. Je n'ai pas étudié l'efficacité de mon vecteur in vivo chez la souris car un autre groupe m'a devancé dans cette expérience et a publié une étude similaire montrant une régulation négative et efficace de la GCH1 sur les symptômes de douleur neuropathique. Mes résultats, associés à cette publication, démontrent la validité de mon hypothèse de départ et ouvrent de nouvelles perspectives thérapeutiques en prenant comme cible la production de BH4.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Suite aux graves crises bancaires et financières qui ont secoué la plupart de sociétés occidentales au début des années 1930, on assiste à un foisonnement de réglementations publiques sur les activités bancaires. Parmi les très nombreux pays qui mettent en place des législations bancaires, l'on compte notamment la Suisse et la Belgique. Plus précisément, la loi fédérale suisse sur les banques de novembre 1934 précède de quelques mois l'arrêté royal belge no 185 de juillet 1935. Alors que le contexte historique et l'élaboration respective de chacune de ces réglementations ont déjà fait l'objet de plusieurs analyses, la comparaison et la question des éventuels liens entre ces deux régimes de surveillance bancaire très proches sont encore largement inexplorées. Une analyse détaillée du processus d'élaboration de la réglementation bancaire belge révèle que la loi suisse a joué un rôle de modèle mis en avant en premier chef par les représentants du monde bancaire. Cette influence helvétique a contribué à façonner la régulation bancaire dans une perspective libérale ; elle répondait ainsi à deux besoins essentiels: limiter l'interventionnisme étatique au minimum, et court-circuiter le pouvoir de la banque centrale. Cette parenté de naissance entre les deux lois bancaires trouve son pendant dans les activités clés deux organismes de surveillance créés pour l'occasion, la Commission fédérale des banques à Berne et la Commission bancaire à Bruxelles. Disposant toutes deux de moyens d'actions limités, ces deux instances ont connu des parcours analogues au cours de leurs premières années d'activité.