378 resultados para Modèles probabilistes
Resumo:
Suite à la demande du Président de la République de disposer d'indicateurs de mortalité en établissements de santé » (discours du 18 septembre 2008 sur le thème de la politique de la santé et de la réforme du système de soins), la Direction de la recherche, des études, de l'évaluation et des statistiques (DREES) a piloté en 2009, en lien avec la Direction générale de l'offre de soins (DGOS) et la Haute autorité de santé (HAS), l'instruction des aspects méthodologiques relatifs à la construction de ces indicateurs de mortalité. Cette revue de littérature portant sur les différentes méthodes d'ajustement a été réalisée dans ce cadre, à la demande conjointe de la DREES et de la HAS.Ce rapport décrit les méthodes et modèles d'estimation et d'ajustement de la mortalité hospitalière identifiées dans la littérature.Il ressort de cette revue, que d'une manière générale, trois questions méthodologiques majeures préoccupent les épidémiologistes, les chercheurs et les décideurs s'intéressant à l'indicateur de la mortalité hospitalière : i) premièrement, sur l'opportunité d'établir l'indicateur de mortalité hospitalière à partir de groupes de population de patients homogènes définis par des pathologies et/ou des procédures médicales/chirurgicales cibles ; ii) deuxièmement, sur le type d'approche analytique et de l'intérêt de prendre en compte plusieurs niveaux dans l'analyse statistique ; iii) enfin troisièmement, sur le choix des variables d'ajustement permettant de contrôler les différences de case-mix entre plusieurs établissements ou groupes de patients pour réaliser des comparaisons. [Ed.]
Resumo:
Les réformes de répartition des tâches entre cantons et communes appartiennent aux grandes réformes de politique locale en Suisse, c'est pourquoi elles font l'objet d'une thèse réalisée dans le cadre du programme de recherche ProDoc du Fonds national suisse sur la gouvernance locale (2009-2012). Lancées de manière périodique depuis les années 1970, ces réformes sont organisées pour clarifier le système d'allocation des tâches qui se modifie au coup par coup, avec l'évolution des politiques publiques. Ce thème actuel a été jusqu'à ce jour mis à l'écart des recherches en Suisse. Cette thèse comble cette lacune. Elle analyse sous quatre aspects (les références théoriques des réformes, leur processus de mise en oeuvre, leurs résultats, et leurs effets sur le système fédéraliste) douze grandes réformes canton-communes effectuées entre 1994-2007. Elle s'interroge notamment sur les mouvements de centralisation/décentralisation et de désenchevêtrement des tâches, en se référant à la littérature classique sur le fédéralisme et à deux modèles politico-économiques: le fédéralisme fiscal et le fédéralisme coopératif. Au niveau empirique, l'analyse se fonde sur une analyse documentaire des réformes Confédération - cantons, cantons- communes, sur un inventaire de compétences décisionnelles, financières et de mise en oeuvre transférées au cours de douze réformes cantonales, sur une enquête nationale menée auprès des secrétaires communaux en Suisse ainsi que sur des entretiens conduits auprès de responsables cantonaux chargés des affaires communales. L'étude met en évidence des similitudes entre les réformes conduites entre la Confédération et les cantons et les cantons et les communes notamment en ce qui concerne le cadre de référence soit : une répartition des tâches qui privilégie des tâches exclusives (self-rules) si possible décentralisées. Dans cet esprit, c'est pour l'ensemble des réformes que le principe du décideur payeur a été utilisé de sorte à supprimer les enchevêtrements et à assurer une coïncidence entre responsabilités décisionnelles et financières. Ceci a permis pour les douze réformes étudiées d'atteindre un important désenchevêtrement, en particulier au niveau financier. Sur ce plan, les réformes sont un succès. Ce désenchevêtrement s'accompagne d'une tendance à la centralisation des compétences principalement financières et de mise en oeuvre. Les domaines concernés relèvent particulièrement des politiques publiques fédérales mises en oeuvre par les cantons. Le cadre légal fédéral exerce donc une influence prépondérante sur la répartition des tâches canton-communes. Pour les tâches de compétences principalement cantonales, le mouvement vers la centralisation s'explique par plusieurs facteurs que l'analyse met en évidence. Parmi eux, le principal est le facteur culturel. Ainsi les cantons romands et les cantons plutôt à gauche optent plutôt pour des tâches centralisées et conjointes, alors que les cantons alémaniques préfèrent des arrangements décentralisés et des tâches menées exclusivement par un niveau. Outre une culture politique qui favorise la décentralisation, les réformes de Nouvelle gestion publique auxquels ont recouru plus fréquemment les cantons alémaniques expliquent la recherche d'un plus fort désenchevêtrement. La capacité administrative des communes (mesurée par la taille des communes) influence également la direction des transferts. Dans les douze réformes, on observe que lorsqu'un canton est formé de grandes communes, celles-ci obtiennent plus de compétences parce qu'elles ont la capacité de les assumer. Ceci est particulièrement vrai pour les communes de plus de 20'000 habitants qui bénéficient de délégation de compétences spécifiques, ce qui confirme l'existence d'un fédéralisme asymétrique. Ces points sont confirmés pas la perception des acteurs. De manière générale, les réformes n'ont pas bouleversé l'allocation des compétences décisionnelles canton-communes dans les douze cantons étudiés, sauf dans quelques cantons de Suisse centrale et orientale et à Bâle-Ville, où les réformes ont permis de décentraliser et de désenchevêtrer davantage de compétences, cette tendance est corroborée dans ces cantons par une augmentation de la perception de l'autonomie communale. Les réformes ne sont finalement pas parvenues à instaurer un changement de paradigme dans le système d'allocation des tâches canton-communes où les communes auraient vu leurs compétences renforcées.
Resumo:
SYNERCID ALONE IN A RAT MODEL OF EXPERIMENTAL ENDOCARDITIS: Trials conducted using 2 injections daily showed that animals infected with meti-R resistant Staphylococcus aureus strains sensitive to erythromycin were cured in 3 days. The same is not true for infections caused by C-MLSB-R staphylococci. The daily dose cannot be increased due to the venous toxicity of Synercid, leading to the idea of testing Synercid in combination with other antibiotics. IN VITRO STUDIES: Several antibiotics have been tested in combination with Synercid. Several beta-lactams have been shown to exhibit an additive or synergetic effect on a collection of meti-R and meti-S S. aureus strains. IN VIVO STUDIES: In animals infected with C-MLSB-R meti-R S. aureus, the combination Synercid + cefepime increases the activity of cefipime and prevents selection of beta-lactam highly resistant strains. The results obtained with the Synercid + cefpirome combination are even more eloquent. Finally, Synercid, alone or in combination with these 2 cephalosporins, does not select resistant strains.
La pluralité des modèles de féminisation des professions supérieures en France et en Grande-Bretagne
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
http://alize.finances.gouv.fr/prevision/revue/resumes/ep183184/pdf/rsf183184a6.pdf
Resumo:
Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.