202 resultados para Corrélation croisée
Resumo:
Résumé de l'étude La surveillance de la prescription des antibiotiques en milieu hospitalier est une des mesures recommandées pour prévenir l'émergence de bactéries résistantes. La consommation d'antibiotiques est généralement exprimée en termes de DDD (defined daily dose) rapporté au taux d'occupation (jours patients). Cette mesure ne tient cependant pas compte de la variation de la casuistique d'un service au cours du temps. La consommation d'antibiotiques est influencée par l'incidence des infections, qui peut être saisonnière ou varier selon les circonstances épidémiologiques, ainsi que par les habitudes des médecins en termes de prescription. Une échelle de mesure adaptée à ces paramètres est donc capitale pour rendre compte de la consommation d'antibiotiques au sein d'un service et identifier de possibles dérivations dans les habitudes de prescriptions. Nous avons émis l'hypothèse que le nombre de demandes d'hémocultures pouvait servir d'indicateur de la charge infectieuse d'un service. Une analyse préliminaire a permis d'établir une bonne relation entre ce paramètre et l'incidence d'événements infectieux en comparaison à d'autres paramètres testés (nombre de prélèvements microbiologiques provenant de sites stériles ou nombre total de prélèvements microbiologiques). Sur la base de cette hypothèse, nous avons analysé la consommation d'antibiotiques d'une unité de médecine générale (Service de Médecine Interne du CHUV) sur seize trimestres consécutifs en comparant deux échelles de mesures : la méthode standard en DDD par jours patients et une échelle ajustée à la charge infectieuse (DDD par nombre de demandes d'hémocultures). L'échelle ajustée aux hémocultures a permis d'identifier trois trimestres avec une consommation anormalement élevée qui n'avaient pas été classés comme tels par l'échelle standard (consommation dans les normes en DDD par jours patients). Une analyse détaillée d'un de ces trimestres a confirmé une incidence d'infections moins élevée en comparaison à un trimestre de référence (proche de la norme selon les deux échelles), alors que la corrélation entre infections et demandes d'hémocultures était similaire pour les deux périodes. De même, l'échelle ajustée ä la charge infectieuse a démontré une consommation dans la norme pour un trimestre avec une consommation en apparence trop élevée selon l'échelle standard en raison d'une incidence d'infections plus élevée pour cette période. Cette étude a donc permis une identification plus performante et plus précise de périodes avec des dérivations dans la pratique de la prescription des antibiotiques en utilisant une échelle de mesure ajustée à la charge infectieuse d'un service au cours du temps. Nous avons démontré que le nombre d'hémocultures prélevées était un indicateur stable de la charge infectieuse dans un service de médecine générale. Ceci ne permet cependant pas de généraliser l'usage de cet indicateur pour tous les types de service. La pratique des hémocultures peut, en effet, varier d'une unité à l'autre, ou entres différentes institutions. ll convient donc de tester la validité de ce paramètre dans un service avant de l'appliquer.
Resumo:
Rapport de synthèse : OBJECTIF : étudier si les fluctuations sériques du taux d'hormone anti-müllérienne (AMH) sont liées à des différences méthodologiques entre les deux tests ELISA commercialement disponibles le kit de Beckman Coulter Immunotech (Fullerton, CA) et le kit de Diagnostic Systems Laboratories (Webster, TX). DESIGN : étude prospective au sein de deux services universitaires de médecine de la reproduction. POPULATION ETUDIEE : cent soixante-huit échantillons sanguins provenant de trois populations différentes ainsi que des dosages itératifs au cours du même cycle menstruel dans une population de dix volontaires. INTERVENTIONS : doubles mesures en aveugle des taux sériques d'AMH dans les 168 sera avec les deux kits commercialement disponibles. Sept dosages itératifs au cours du même cycle menstruel chez 10 volontaires normo-ovulantes. ANALYSE STATISTIQUE : régression linéaire pour l'étude de la corrélation entre les deux méthodes de dosage. Analyse des variances pour les dosages sériés en cours de cycle menstruel. RÉSULTATS : nous avons démontré une relation linéaire entre les deux méthodes, avec un coefficient de corrélation de 0,88 ainsi qu'une diminution faible mais statistiquement significative et concomitante avec l'ovulation du taux d'AMH sérique. CONCLUSION : les variations en cours de cycle menstruel rapportées par certains auteurs ne sont pas liées à des problèmes méthodologiques. La chute du taux d'AMH lors de l'ovulation est faible mais statistiquement significative. Les variations observées en cours de cycle restent toutefois inférieures aux variations intercycles et ne représentent de ce fait pas un obstacle au dosage de l'AMH à n'importe quel jour du cycle menstruel.
Resumo:
Ce travail de recherche a été réalisé dans le laboratoire de pharmacologie clinique, au Centre Hospitalier Universitaire Sainte-Justine, à Montréal. C'est une étude rétrospective basée sur le suivi thérapeutique du Tacrolimus prescrit chez les enfants après transplantation hépatique. Ce suivi est nécessaire car le Tacrolimus possède une importante variabilité pharmacocinétique inter et intra-individuelle ainsi qu'un index thérapeutique très étroit. Actuellement, l'individualisation des doses prescrites est basée sur la mesure de la concentration de base - du médicament dans le sang (C0), mais des études récentes montrent que cette mesure ne reflète pas précisément l'exposition du Tacrolimus dans l'organisme chez les enfants. Le meilleur reflet de cette exposition est la mesure de l'aire sous la courbe (AUC). Cependant, cette dernière implique la mesure de multiples concentrations tout au long de l'intervalle entre 2 doses de médicament (Tacrolimus: 12 heures) ce qui est long, cher et impraticable en ambulatoire. De nouvelles méthodes utilisant un nombre limité de prélèvements ont donc été développées pour prédire au mieux cette AUC. Ce sont les "Limited sampling strategies" ou LSS. La plupart de ces LSS pour le Tacrolimus ont été développées et validées chez des patients transplantés adultes et leur application directe chez les transplantés pédiatriques n'est pas possible en raison de différences importantes au niveau des paramètres pharmacocinétiques du médicament entre ces deux populations. Aussi, le but de ce travail était de développer et valider, pour la première fois, des LSS chez les enfants transplantés hépatiques. Pour cela, une analyse de 36 profils pharmacocinétiques de 28 patients transplantés hépatiques âgés de 0.4- 18.5 ans a été effectuée. Tous les profils ont été réalisés au Centre Hospitalier Universitaire Sainte-Justine entre janvier 2007 et janvier 2009. Les LSS comportant au maximum 4 mesures de concentration ont été développées en utilisant une analyse de régression multiple. Parmi tous les modèles obtenus, cinq ont été sélectionnés sur la base de critères précis puis validés selon la méthode décrite par Sheiner et Beal.¦Les résultats montrent que ces cinq modèles peuvent prédire l'AUC du Tacrolimus avec une précision cliniquement acceptable de ± 15% alors que la C0 présente la plus faible corrélation avec l'AUC.¦En conclusion, cette étude confirme que la C0 ne permet pas de prédire de manière efficace l'exposition du Tacrolimus dans l'organisme dans notre population de patients pédiatriques contrairement aux LSS analysées qui offrent une méthode pratique et fiable. Par ailleurs, en permettant d'obtenir une estimation précise et simplifiée de l'AUC complète du Tacrolimus chez les patients, ces LSS ouvrent la porte à de futures études prospectives visant à mieux définir l'AUC cible du médicament et à déterminer si le suivi basé sur la mesure de l'AUC est plus efficace et plus sûr que celui basé sur la mesure de la C0.
Resumo:
But : comprendre les raisons des divergences observées dans le tracé des volumes cibles entre radio-oncologues. Matériel et méthodes : 18 centres suisses de radio-oncologie ont été invités à tracer les volumes pour un cas de cancer de la prostate et pour un cas de cancer de la sphère ORL. Nous avons également envoyé un questionnaire pour évaluer d'une part les différences dans la définition- des volumes (GTV [ gross tumor volume= volume tumoral macroscopique ], CTV [clinical tumor volume= volume de la tumeur clinique, macroscopique et microscopique], PTV [planning target volume= volume cible pour la planification], et d'autre part des variations dans les marges appliquées et les ganglions considérés à risque. Pour chaque centre, on a calculé la corrélation entre les marges qui ont été dessinées et celles qui ont été annoncées. Nous avons inclus dans le questionnaire une série de questions non spécifiques pour évaluer les méthodes de planification utilisées dans les différents centres. Résultats : Dans les 2 situations cliniques, on a mis en évidence de relativement grandes différences tant au niveau des volumes dessinés par les différents centres que dans leur définition des volumes. La corrélation entre les marges dessinées et définies était assez correcte dans le cas de la prostate mais médiocre dans le cas ORL. Le questionnaire a révélé d'importantes différences dans les méthodes de planification utilisées par les centres. Conclusion : Ces grandes différences peuvent être expliquées par, (1) une connaissance/interprétation variable des définitions ICRU, (2) des appréciations différentes de l'extension tumorale microscopique potentielle, (3) des difficultés dans l'identification du GTV, (4) des différences de concept, et (5) des différences entre la théorie (par ex. la description des marges) et la pratiqué (par ex. les marges dessinées).
Resumo:
L'Etude Suisse de Cohorte VIH a été mise en place en 1988. Plusieurs centres participent à cette étude : les hôpitaux universitaires de Zurich, Berne, Bâle, Genève et Lausanne, les hôpitaux cantonaux de Saint-Gall et du Tessin, 14 hôpitaux régionaux, ainsi que 35 praticiens privés. Cette étude a collecté des données de plus de 16500 personnes infectées par le VIH, de 1981 jusqu'aujourd'hui.¦Actuellement, plus de 7000 patients sont suivis tous les 6 mois. Parmi les analyses demandées au cours de ce suivi figure un test annuel de dépistage de la syphilis. Ce dépistage consiste en un test TPHA (Treponema Pallidum Haemagglutination Assay) où l'on observe l'hémagglutination de globules rouges qui ont absorbé des antigènes du tréponème, ou ses équivalents LIAISON et ARCHITECT.¦Si ce test TPHA est positif, un test VDRL, qui détecte des anticorps dirigés contre la cardiolipine, est effectué.¦Pour des raisons économiques, ce dépistage annuel systématique de la syphilis est remis en question par l'un des médecins praticiens participant à l'Etude Suisse de Cohorte VIH, estimant que ce dépistage ne devrait être demandé chaque année que chez les personnes étant identifiées comme à risque.¦Notre objectif est d'évaluer la nécessité de faire un dépistage de la syphilis annuel chez tous les patients de la Cohorte en comparaison à un dépistage annuel seulement chez le groupe jugé à risque.¦Pour pouvoir répondre à cette question, nous allons dans un premier temps faire une analyse descriptive : nous allons analyser quels patients ont développé une séroconversion en fonction de l'âge, du sexe et de la voie d'infection du VIH la plus probable (voie homosexuelle, hétérosexuelle ou consommation de drogues).¦Une conversion du test TPHA de négatif à positif n'est pas toujours synonyme d'infection à treponema pallidum. Une infection diagnostiquée au stade primaire et traitée efficacement ne provoque pas nécessairement des anticorps. A l'inverse, le test TPHA peut être faussement positif dû à une réaction croisée (p.ex. framboesie) ou non-spécifique (maladies auto-immunes). Pour l'analyse descriptive nous devons toutefois nous limiter à la séroconversion.¦Pour pouvoir faire cette analyse nous devons extraire certaines données, et procéder à un « nettoyage » de celles-ci : en effet, nous ne pouvons garder que les données des 700 patients ayant au moins un test initial de TPHA négatif, suivi d'un test TPHA positif avec un VDRL positif.¦Puis nous allons faire une étude « cas-témoins » pour comparer l'anamnèse sexuelle des patients présentant une séroconversion avec celle des patients qui n'ont pas développé d'anticorps, afin d'évaluer si nous pouvons définir, d'après l'anamnèse sexuelle, un groupe de sujets plus à risque de développer une syphilis. Cas et témoins seront stratifiés selon l'âge, le sexe et le mode d'infection du VIH.¦Comme troisième étape nous allons définir, pour un sous-échantillon, si le résultat positif du dépistage a permis de diagnostiquer la syphilis ou si le diagnostique avait déjà été établi grâce à la présence de symptômes.¦Etant donné que ce dépistage systématique est remis en cause pour des raisons financières, nous allons finalement, au cours de cette étude, estimer le coût des différentes options.¦Notre hypothèse, tirée d'après les déclarations de cas de syphilis de l'OFSP (Office Fédéral de la Santé Publique) et l'expérience des cliniciens, est que l'on trouve en effet que les homosexuels de moins de 50 ans représentent un grand pourcentage des personnes infectées par la syphilis. Cependant, nous ne savons pas si la fréquence d'infection des autres groupes de patients est suffisamment élevée pour justifier ce dépistage systématique.
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
Les manifestations ORL du reflux gastro-sophagien sont fréquentes. La pH-impédancemétrie permet dévaluer des reflux acides ou non acides et de déterminer leur extension proximale. A la lumière de deux patients de notre collectif, nous observons une corrélation entre reflux non acide et symptômes ORL dans le premier cas et une suppression acide insuffisante dans le deuxième cas. Ces résultats nous orientent vers un traitement spécifique complémentaire aux inhibiteurs de la pompe à protons. La pH-impédancemétrie détecte les reflux aussi bien acides que non acides, et analyse la concordance entre les symptômes et les épisodes de reflux. Elle permet ainsi une meilleure compréhension des manifestations ORL du reflux gastro-sophagien et une prise en charge thérapeutique mieux adaptée. ENT symptoms of gastro-esophageal reflux are frequent. pH-impedance can detect acid and non-acid reflux and measure their proximal extension. The technique identifies the refluxate by changes in impedance. We discuss 2 clinical situations where correlation of symptoms could be explained by a non-acid reflux in the first case, and a lack of acid suppression in the second case, respectively. These results lead to a specific additional treatment to proton pump inhibitors (PPI). This technology provides a better understanding of the pathogenesis of reflux laryngitis, and affords the prescription of PPI on a proven diagnosis. Detection of non-acid reflux leads to an optimized medical treatment.
Resumo:
La prévalence de l'obésité a considérablement augmentée ces dernières années et a un impact majeur sur la santé publique étant donné les diverses pathologies qui sont liées à ce trouble. Enjeu Diverses études ont montrées que les traitements actuels sont inefficaces à long terme. Une des raisons principales de cette inefficacité est l'importante prévalence de troubles alimentaires chez les patients obèses cherchant une perte de poids. Les personnes obèses atteintes de troubles du comportement alimentaire présentent des dysfonctions psychologiques plus fréquentes et plus sévères que les patients obèses sans troubles du comportement alimentaire. Des traitements spécifiques comprenant des supports psychologiques et la détection de dysfonctions psychologiques sont donc essentiels chez de tels patients afin d'améliorer les résultats de perte de poids à long terme. Article Jusqu'à aujourd'hui, aucune donnée n'était disponible concernant d'éventuels facteurs prédictifs pour l'identification de troubles psychologiques chez des patients souffrant de troubles du comportement alimentaire. Le but de notre étude est d'analyser les associations entre troubles du comportement alimentaire et dysfonction psychologique chez des patients obèses cherchant à perdre du poids et d'identifier des facteurs prédictifs permettant le développement de futurs outils diagnostiques. Notre étude a été menée à la consultation d'obésité du CHUV. Au final, 150 femmes tentant de perdre du poids ou de contrôler des compulsions alimentaires ont accepté de participer à notre étude. Différentes mesures anthropométriques et des informations sur leur histoire de poids et de régimes ont été récoltées. Les troubles du comportement alimentaire ainsi que le profil psychologique ont été évalués lors d'entretiens spécialisés à l'aide de divers questionnaires (BITE, EDI-2, BDI-II, IASTA-Y, RAS, Fear M and M). Conclusion Environ la moitié des patientes présentent des troubles du comportement alimentaire et 41% un haut degré de tels troubles. Environ 50% ont des symptômes modérés ou majeurs de dépression et 77% souffrent d'anxiété. Il n'y a pas de corrélation entre les marqueurs psychologiques et l'âge ou le BMI mais de fortes corrélations entre les marqueurs psychologiques et les divers composants du questionnaire BITE et la plupart des composants du questionnaire EDI-2. Ainsi, les femmes obèses cherchant à perdre du poids ont une grande prévalence de dysfonction psychologique. La prévalence et la sévérité des troubles du comportement alimentaire et des troubles psychologiques ne sont pas corrélées avec le degré et le type d'obésité mais la prévalence et la sévérité des troubles psychologiques augmentent avec le degré de troubles du comportement alimentaire. De plus, nos autres analyses ont montré que l'item Ineffectiveness de l'EDI-2 est la variable la plus liée au score psychologique.
Resumo:
Seit den 1990er Jahren werden zunehmend nachhaltige Quartiere realisiert. Dabei besteht häufig eine beachtliche Diskrepanz zwischen den Zielen, die von den beteiligten Akteuren angestrebt werden, deren Umsetzung (Realisierungsphase) und deren Erhalt auf Dauer (Nutzungsphase). Es stellt sich folglich die Frage, auf welche Weise die Projektqualität im Sinne einer nachhaltigen Quartiersentwicklung verbessert werden kann. Diese Projekte sind jedoch enorm komplex aufgrund der großen Interdisziplinarität und Interdependenz ihrer Ziele sowie der vielschichtigen Akteursstrukturen. Sie stellen daher be-sonders hohe Anforderungen an die Projektsteuerung. Das konkrete Ziel dieser Arbeit besteht darin, die Bedeutung einer Prozesssteuerung im Sinne von Urban Governance zur Realisierung und zum Erhalt nachhaltiger Quartiere zu untersuchen. Damit soll einen Beitrag zur Förderung einer nachhalti-gen Stadtentwicklung geleistet werden. Die Arbeit stützt sich auf ein umfassendes theoretisches Fundament zum Thema Governance, wobei die relevanten Elemente für den Kontext nachhaltiger Quartiere herausgearbeitet werden. Die Hypothesen prüfen die Bedeutung der Schlüsselcharakteristika von Urban Governance (Kooperation, Partizipation, Verhandlungen) für die Projektqualität während der Realisierungs- und Nutzungsphase. Eine erste empirische Untersuchung wurde an zwanzig europäischen nachhaltigen Modellquartieren vorgenommen. Stärken und Schwächen aus der Perspektive der Nachhaltigkeit werden analysiert, deren Ursachen identifiziert und Handlungsoptio-nen aufgezeigt. Die Erkenntnisse zeigen die Notwendigkeit einer Verbesserung der Projektsteuerung während der Realisierungs- und der Nutzungsphase. Auf der Grundlage dieser Erkenntnisse wird ein umfassender Ansatz zur empirischen Untersuchung von Urban Governance im Kontext nachhaltiger Quartiere entwickelt. Dieser beruht auf dem akteurzentrierten Institutionalismus und den Merkmalen der Urban Governance. Anhand dieses Ansatzes wird mithilfe von Experteninterviews der Realisierungsprozess des nach-haltigen Quartiers Kronsberg (Hannover) analysiert. Betrachtet werden dabei die beteiligten Akteure und ihre Handlungso-rientierungen, die verwendeten Schlüsselinstrumente sowie aufgetretene Divergenzen zwischen Akteuren und deren Auswirkungen auf die Projekt- und Prozessqualität. Eine Vertiefung relevanter Themenfelder wird anhand der Fallstudie Neu-Oerlikon (Zürich) vorgenommen. Diese empirische Arbeit zeigt, dass eine Prozesssteuerung im Sinne von Urban Governance im Vergleich zu einer klassis-chen hierarchischen Steuerung eine notwendige aber nicht hinreichende Bedingung zur Verbesserung der Projektqualität nachhaltiger Quartiere darstellt. An konkreten Beispielen wird herausgearbeitet, dass der Mehrwert einer solchen Steuerung nur unter bestimmten Voraussetzungen erzielt werden kann: In manchen Situationen ist die Steuerungsform Kooperation und die Interaktionsform Verhandlung in ihrer Wirksamkeit zur Sicherung der Projektqualität begrenzt und hierarchische Interventionen sind notwendig. Nicht ein bestimmtes Steuerungsmodell per se ist geeignet, sondern es kommt auf den Ein-zelfall an: auf die Akteursstruktur, die individuellen und institutionellen Handlungsorientierungen der Akteure und deren Ver-haltensweisen, die Rahmenbedingungen und die Ausgestaltung des Urban Governance-Prozesses. Wenn die Spielregeln dieses Prozesses von den Akteuren nicht wirklich angenommen und gelebt werden, dominieren individuelle und institutio-nelle Akteursinteressen zu Lasten der Projektqualität. Ferner zeigen die Untersuchungen, dass die Partizipation der zukünftigen Quartiersnutzer in der Praxis häufig unzureichend ist. Dies führt zu Einbußen in der Projektqualität. Entscheidend ist auf jeden Fall, dass mindestens ein Akteur, in der Regel die öffentliche Hand, präsent ist, der die Definition anspruchsvoller Nachhaltigkeitsstandards, deren Umsetzung und deren Erhalt sichert sowie die notwendigen Rahmenbedingungen dafür schafft. Diese Arbeit belegt darüber hinaus, dass der Erhalt der Projektqualität während der Nutzungsphase (Faktor Zeit) bisher un-zureichend beachtet und in die Projektplanung einbezogen wird. Gerade dieser Aspekt bestimmt aber, ob das Quartier auch auf Dauer dem Nachhaltigkeitsanspruch gerecht werden kann! Tatsächlich handelt es sich um einen fortlaufenden Prozess, der nicht mit der Einweihung des Quartiers abgeschlossen ist. Vor diesem Hintergrund werden relevante Handlungsfelder beschrieben und die Notwendigkeit der langfristigen Fortsetzung einer Steuerung im Sinne von Urban Governance bzw. der Herausbildung einer Urban Governance-Kultur aufgezeigt. Aus den empirischen Erhebungen werden Erfolgs- und Risikofaktoren für Urban Governance-Prozesse während der Realisierungs- und der Nutzungsphase abgeleitet. Ferner werden bisher vernachlässigte Handlungsfelder (langfristiges Umwelt-management, ökologische Finanzierungsformen, urbane Landwirtschaft, Umweltkommunikation, etc.) eruiert. Die Berücksichtigung dieser Erkenntnisse ist unerlässlich für eine Verbesserung der Projektqualität nachhaltiger Quartiere. ---------------------------------------------- Gouvernance urbaine et quartiers durables: Entre intensions et mise en oeuvre --- Résumé --- Depuis les années 90, la thématique des quartiers durables a gagné en importance, même si leur développement s'est avéré difficile. Le décalage entre les objectifs, leur mise en oeuvre et le projet tel qu'il est vécu par ses habitants est souvent important et nécessite d'être réduit. Un quartier durable est par nature un projet complexe, aux objectifs ambitieux situé à la croisée de multiples champs disciplinaires, mobilisant de nombreux acteurs aux intérêts divergents. De plus, chaque projet, du fait des ses spécificités, requiert un pilotage adapté. L'objectif principal de la recherche vise à analyser la nature du pilotage du processus de conception, de réalisation et d'exploitation des quartiers durables. Ses résultats ont pour ambition de contribuer à optimiser et promouvoir le développement urbain durable. Le fondement théorique de la recherche se base sur le concept de gouvernance urbaine, adapté au contexte particulier de la gouvernance des quartiers durables. La gouvernance urbaine, au sens où nous l'entendons, est un mode de pilotage basé sur la coopération entre les acteurs publics et privés. Les hypothèses centrales du travail testent la portée et les limites des caractéristiques-clefs de la gouvernance urbaine (coopération, participation, négociation), ainsi que l'importance de la notion de pérennité pour la qualité du projet. Dans un premier temps, nous avons analysé vingt quartiers durables modèles européens et identifié leurs atouts et leurs faiblesses en termes de durabilité, ainsi que leurs divers modes de pilotage. Les enseignements tirés de ces exemples révèlent la nécessité d'améliorer le pilotage des projets. Dans un deuxième temps, nous avons élaboré une grille d'analyse fine fondée sur l'approche institutionnelle des acteurs et les caractéristiques-clefs de la gouvernance urbaine. En nous appuyant sur cette grille, nous avons analysé le processus de conception et de réalisation du quartier durable de « Kronsberg » (Hanovre) à l'aide des éléments suivants : les acteurs (avec leurs intérêts et objectifs propres), les instruments d'aménagement du territoire, les modes de pilotage, les zones de divergence et de convergence entre les acteurs, ainsi que leurs impacts sur le processus et le projet. Dans un troisième temps, les hypothèses centrales ont été testées sur le quartier de « Neu-Oerlikon » (Zurich) afin d'approfondir et d'élargir les enseignements tirés de celui de « Kronsberg ». Les résultats des analyses mettent en évidence le fait qu'un pilotage de projet selon le modèle de la gouvernance urbaine est certes une condition nécessaire mais non suffisante pour améliorer la qualité du projet. De plus, la valeur ajoutée de la gouvernance urbaine n'est valable qu'à certaines conditions. En effet, la coopération et la négociation peuvent même, dans certaines situations, réduire la qualité du projet ! Le principal enseignement de la recherche révèle qu'il n'y a pas de mode de pilotage idéal, mais que la qualité d'un projet dépend d'une multitude de facteurs, tels que les constellations d'acteurs, leurs intérêts personnels et institutionnels, les conditions cadres et les « règles du jeu » de la gouvernance urbaine. Si les « règles du jeu » en particulier ne sont pas réellement appropriées par l'ensemble des acteurs, les intérêts et les comportements personnels ou institutionnels prédominent au détriment de la qualité du projet. De même, si la participation des futurs usagers à l'élaboration du projet de quartier durable n'est pas assurée, tant la qualité du projet que sa pérennité en pâtissent. Nous avons également constaté que la présence d'un acteur (en règle générale les autorités publiques) qui veille à la définition d'objectifs ambitieux en matière de développement durable et à leur application constitue un apport essentiel à la qualité du projet. En outre, la recherche met en évidence les carences dans le suivi et le maintien à long terme des qualités de durabilité de la phase d'exploitation des projets de quartiers durables analysés. Dans la phase d'exploitation, le degré de coopération diminue généralement et les modes de fonctionnement et de pilotage sectoriels se mettent en place au détriment de la qualité du projet. Cela confirme la nécessité de poursuivre le processus de pilotage selon le modèle de la gouvernance urbaine au-delà de la phase de réalisation des projets. La recherche précise les enjeux des champs d'action de la phase d'exploitation (domaine encore peu étudié) et démontre la pertinence du mode de pilotage préconisé. Enfin, les analyses permettent d'identifier des facteurs de réussite et de risque susceptibles d'influencer les systèmes de gouvernance urbaine, ainsi que les enjeux des domaines de la durabilité encore négligés (agriculture urbaine, gestion environnementale dans la durée, comportement des usagers, financement équitable, etc.). La prise en compte de ces enseignements est essentielle à l'amélioration de la gestion de futurs projets de quartiers durables. ---------------------------------------------- Urban Governance and Sustainable Neighbourhoods: A Contribution to a Lasting Sustainable Development --- Abstract --- Since the 1990s, sustainable neighbourhoods have become an increasingly important topic. However, their development has proven to be difficult. There is an often considerable gap, which must be reduced, between the initial goals, the way they are implemented and how the project is finally inhabited. A sustainable neighbourhood is inherently a complex project, with ambitious goals that lie at the intersection of multiple disciplines, involving numerous stakeholders with diverging interests. Moreover, each project, due to its specific characteristics, requires an adapted steering. The main goal of this research is to analyse the nature of the steering process during the planning, realisation and use of sustainable neighbourhoods. The results aim to contribute to the promotion of sustainable urban development. The theoretical foundation of this research is based on the concept of urban governance, adapted to the particular context of sustainable neighbourhoods. Urban governance is understood in this work, as a mode of project steering based on the cooperation between public and private stakeholders. The central hypotheses of this work test the importance and the limits of the key characteristics of urban governance (cooperation, participation, negotiation) as well as the importance of continuity for the project quality. To begin with, we surveyed and analysed twenty exemplary European sustainable neighbourhoods and identified their strengths and weaknesses in terms of sustainability, as well as their diverse steering modes. The lessons learned from these examples reveal the need to improve the projects' steering. Secondly we elaborated a detailed framework for analysis founded on stakeholder-centred institutionalism and the key characteristics of urban governance. By systematically applying this framework, we analysed the planning and implementation process of the sustainable neighbourhood "Kronsberg" (Hannover). Our focus was on the following dimensions: the stakeholders (with their particular interests and goals), the instruments of spatial planning, the steering modes, the points of divergence and convergence amongst the stakeholders, as well as their impacts on the process and on the project. The final step was to test the core hypotheses on the neighbourhood "Neu-Oerlikon" (Zürich) in order to broaden the lessons learned from "Kronsberg". The results of the analysis highlight the fact that an urban governance type project steering is certainly a necessary but insufficient condition to improve the project quality. Moreover, the added value of urban governance is only valid under certain conditions. In fact, cooperation and negotiation can even in certain situations reduce the project's quality! The main lesson of this research is that there is not an ideal steering mode, but rather that the quality of the project depends on numerous factors, such as the stakeholder constellation, their individual and institutional interests, the general conditions and the "rules of the game" of urban governance. If these "rules of the game" are not really appropriated by all stakeholders, individual and institutional interests and behaviours predominate at the expense of the project's quality. Likewise, if the future users' participation in the project development is insufficient, both the project's quality and its continuity suffer. We have also observed that the presence of a stakeholder (in general the public authorities) who ensures the definition of ambitious goals in terms of sustainable development and their implementation is crucial for the project's quality. Furthermore, this research highlights the deficiencies in the follow-up and long-term preservation of the sustainability qualities in the neighbourhood projects which we have analysed. In the use phase, the degree of cooperation generally diminishes. Attitudes and project management become more sectorial at the expense of the project's quality. This confirms the need to continue the steering process according to the principles of urban governance beyond the project's implementation phase. This research specifies the challenges that affect the use phase (a still neglected area) and shows the relevance of the recommended steering mode. Finally, the analyses also identify the success and risk factors that may influence urban-governance systems, as well as the challenges of still neglected fields of sustainability (urban agriculture, long-term environmental management, user behaviour, fair funding, etc.). Taking into account these outcomes is essential to improve the management of future sustainable-neighbourhood projects.
Resumo:
Cette thèse décrit de quelle manière les hommes travaillant dans les sciences de la vie durant la seconde moitié du XVIIIe siècle s'insèrent et jonglent au quotidien dans l'univers de la librairie d'Ancien Régime. Plus précisément dans celui que l'historien du livre Robert Damton a défini le circuit de la communication. Un circuit complexe qui va de l'auteur à l'éditeur, en passant par l'imprimeur, le transporteur, le libraire, le lecteur ou encore par le relieur et le copiste.Marchander le prix d'une page manuscrite avec un éditeur, s'assurer de rester au courant des nouveautés de la librairie, prendre des notes, trouver un bon copiste, juger de la qualité d'un ouvrage ou d'une traduction, se protéger des contrefaçons, se créer un fonds de bibliothèque: voici le quotidien du savant au travail abordé dans cette thèse dont le but est de comprendre de quelle manière fonctionnent les mécanismes d'acquisition, de mise en forme et de mise en circulation du savoir - bref, les coulisses de la communication scientifique. Cela à une période où les hommes de science sont de plus en plus confrontés à un "déluge" de nouvelles publications en toutes langues. La seconde moitié du XVIIIe siècle, correspond en fait à celui qu'a été défini par les historiens du livre un "apogée" de l'imprimé scientifique. Caractérisée par un changement dans le milieu de la production imprimée, cette seconde partie du siècle marque une césure, une situation nouvelle à laquelle le savant doit s'adapter afin de ne pas être dépassé par les événements et afin de pouvoir tirer le plus large bénéfice de toutes les formes d'expression et d'intervention qui sont mises à sa disposition. Afin d'analyser les stratégies mises en place par les savants pour gérer la masse de l'information et afin de reconstruire les pratiques ordinaires du travail savant, pratiques qui accompagnent le savoir dans son devenir et sont susceptible de l'influencer, cette thèse s'appuie sur la riche correspondance que le médecin lausannois Samuel Auguste Tissot et son collègue bernois Albrecht von Haller, deux savants et écrivains de renom parmi les plus célèbres des Lumières helvétiques, échangent pendant plus de vingt ans. Ce couple pourrait être défini comme antinomique. Le représentant d'une culture humaniste, formé à l'école iatromécanique de Leyde et insatiable lecteur qu'est Haller et un partisan de la vulgarisation, formé au vitalisme à Montpellier tel que Tissot, d'une génération plus jeune, se sont démontrés avoir une conception parfois différente de ce qu'est un livre de science, en particulier un livre de médecine, de la forme qu'il doit avoir, du prix auquel il doit être vendu ou encore de la langue dans laquelle il doit être écrit. L'un, Haller, médecin de cabinet et professeur à Gôttingen pendant dix-sept ans, l'autre, Tissot, praticien et médecin des pauvres ayant enseigné seulement quatre semestres à Pavie, pratiquent et conçoivent en partie différemment la communication du savoir scientifique et le public de celle-ci. L'étude prend également en compte les lettres échangées avec un réseau d'amis communs, surtout le médecin argovien Johann Georg Zimmermann et le naturaliste genevois Charles Bonnet. Les correspondances des professionnels du livre représentent un autre pan incontournable du corpus documentaire de la thèse. C'est grâce à ces hommes que le texte du savant sort du cabinet et prend sa forme matérielle, voire il acquiert du sens. Des documents tels des essais ou des notes de lecture et les pièces liminaires des livres (préfaces, dédicaces, avis aux lecteurs, notes) se sont aussi révélées être des documents précieux: ils témoignent des pratiques de travail des savants et ils renseignent aussi bien sur les intentions poursuivies par l'auteur que sur les pratiques d'édition, contrefaçon et traduction.Basée sur une démarche micro-historique qui croise l'histoire sociale des sciences et l'histoire sociale du livre à la française, cette thèse s'articule autour de 5 chapitres et un intermède. La disposition des parties suit en quelques sortes les étapes du travail savant: lecture, écriture, mise sous presse, mise en circulation, réception.
Resumo:
Résumé - Les cannabinoïdes contenus dans la plante de cannabis ont un double usage et possèdent des propriétés opposées suivant les circonstances et les doses employées. Les cannabinoïdes, essentiellement drogue récréative ou d'abus pourraient, pour certains d'entre eux, devenir des médicaments. Selon les conditions d'utilisation, ils peuvent être neurotoxiques ou neuroprotecteurs, carcinogènes ou anticancéreux, hyper-émétiques ou antiémétiques, pro-inflammatoires ou anti-inflammatoires. . . Les techniques de culture sous serre indoor ainsi que la sélection de variétés de cannabis à fort potentiel de production ont conduit à un accroissement notable des taux de THC. Le cannabis est la drogue illégale la plus fréquemment consommée en Suisse et ailleurs dans le monde occidental. Environ la moitié des jeunes ont déjà expérimenté le cannabis. Environ 10 % des consommateurs le fument quotidiennement et en sont devenus dépendants. Un tiers de ces usagers peut être considéré comme chroniquement intoxiqué. Le THC, la principale substance psychoactive du cannabis, interagit avec le « système endocannabinoïde ». Ce système est composé de récepteurs cellulaires, de ligands endogènes et d'un dispositif complexe de synthèse, de dégradation, de régulation et de messagers intra-cellulaires. Le système endocannabinoïde joue un rôle clé dans le réglage fin du système nerveux. Les endocannabinoïdes régulent la mémorisation, l'apprentissage moteur et la plasticité des liaisons nerveuses. À dose psychoactive, le THC réduit les performances psychomotrices et neurocognitives. Les facultés d'apprentissage et de mémorisation sont diminuées. Le risque d'être responsable d'un accident de circulation est augmenté après prise de cannabis, et ceci d'autant plus que de l'alcool aura été consommé parallèlement. À l'exception des jeunes enfants, la consommation de cannabis n'entraîne pas de risque potentiel d'intoxication mortelle. Toutefois, le cannabis pourrait agir comme facteur déclenchant d'accident cardiovasculaire chez de rares individus prédisposés. Les individus jeunes, et/ou vulnérables ont un risque significativement plus élevé de développer une psychose à l'âge adulte ou de devenir dépendant au cannabis. Des études épidémiologiques ont montré que le risque de développer une schizophrénie à l'âge adulte était augmenté pour les consommateurs de cannabis et ceci d'autant plus que l'âge de début de consommation était précoce. Il en va de même pour le risque de dépression. Les troubles respiratoires pourraient être exacerbés par la prise de cannabis. Les femmes enceintes et celles qui allaitent ne devraient pas consommer de cannabis car le THC traverse la barrière hémato-placentaire, en outre, il se concentre dans le lait maternel. La période de la vie la plus sensible aux effets néfastes du cannabis correspond à celle allant du foetus à l'adolescent. Le système endocannabinoïde sur lequel agit le THC serait en effet un acteur majeur orchestrant le développement des réseaux neuronaux dans le cerveau immature. La prise concomitante d'autres psychotropes comme l'alcool, les benzodiazépines ou la cocaïne conduit à des renforcements mutuels de leurs effets délétères. De plus, il a été montré l'existence d'une sensibilité croisée pour la majorité des psychotropes qui agissent sur le système de la récompense, le cannabis y compris, ce qui augmente ainsi le risque de pharmacodépendance. La prise régulière de doses élevées de cannabis entraîne l'apparition d'une tolérance et de symptômes de sevrage discrets à l'arrêt de la consommation. À part les effets négatifs mentionnés auparavant, le cannabis possède des propriétés médicales originales qui sont l'objet d'études attentives. Plusieurs cannabinoïdes mineurs naturels ou synthétiques, comme l'acide ajulémique, pourraient trouver un jour une place dans la pharmacopée. En usage thérapeutique, des variétés particulières de cannabis sont préférées, par exemple celles riches en cannabidiol non psychoactif. Le mode d'administration diffère de celui utilisé en mode récréatif. Par exemple, la vaporisation des cannabinoïdes à basse température est préférée à l'inhalation du « joint »
Resumo:
Problématique¦L'évaluation fonctionnelle du tubule proximal du rein est intéressante pour la compréhension de la physiopathologie des anomalies du transport du sodium à ce niveau du néphron. Ces anomalies participent au développement de l'hypertension artérielle (HTA) et de la sensibilité au sel. Environ 60% à 80% du sodium est réabsorbé proximalement dans le néphron. Chez l'animal, la fonction du tube proximal peut être estimée directement par microponction. Une telle approche directe n'étant pas possible chez l'homme, seul des approches indirectes permettent de recueillir des informations sur la physiologie de ce segment du néphron, comme par exemple par la mesure de la clairance du lithium (endogène ou exogène) ou de l'acide urique. La fraction d'excrétion du lithium (FELi) et la fraction d'excrétion de l'acide urique (FEAU) permettent d'estimer la réabsorption proximale de sodium chez l'homme. Plusieurs études expérimentales et cliniques ont montré l'existence d'une relation linéaire entre la FELi et la fraction excrétée du sodium (FENa) chez l'animal et l'homme.¦Objectif¦Décrire la distribution de la FELi et de la FEAU et analyser les associations de ces deux variables avec l'âge, le sexe, la consommation d'alcool, le tabagisme, la pression artérielle et l'IMC dans l'étude de population Hercules.¦Méthodes¦Sélection au hasard d'un sous-groupe de participants de l'étude CoLaus (N=6188). Nombre de participants à l'étude Hercules: 437, dont 229 femmes et 208 hommes. Les participants ont effectué une récolte d'urine sur 24 heures afin de déterminer la fonction rénale et les FELi et FEAU. Le TFG a été mesuré à l'aide de la clairance de la créatinine. Le test des rangs signés de Wilcoxon pour données appariées ( Wilcoxon matched-pairs signed rank test) et le test de comparaison des médianes ont été utilisés pour la comparaison entre groupes. Le coefficient de corrélation de Spearman a été utilisé pour évaluer la relation entre les variables continues. Les box-plots ont été utilisés pour la description de la distribution du lithium et de l'acide urique selon l'âge, le sexe et la période de la journée. Le logiciel Stata 11.0 a été utilisé pour les analyses statistiques.¦Résultats¦La prévalence de l'HTA dans la population de l'étude Hercules était 33%, la prévalence du diabète était 8%, la prévalence de l'obésité était 15.3%, la prévalence du tabagisme était 23%. La FELi reste stable avec l'âge et est similaire dans les deux sexes. Chez les hommes, la FELi est plus grande la nuit que le jour, c'est-à-dire qu'ils résorbent plus de sodium proximalement le jour que la nuit. Un IMC plus grand est associé à une FELi plus basse dans les deux sexes. Il y a une corrélation négative entre la FEAU et l'IMC (significative) et la consommation d'alcool.¦Conclusion¦Les résultats obtenus avec les données de l'étude Hercules sont similaires à ceux qu'on retrouve dans la littérature sur la FELi et la FEAU , ce qui rassure sur la qualité des données. La FELi varie peu avec l'âge et le sexe, contrairement à la FEAU, qui varie fortement avec l'âge et le sexe. L'HTA, le diabète, l'obésité, le tabagisme et la consommation d'alcool sont associées à une FELi et FEAU plus basses. Les sujets qui présentent ces caractéristiques réabsorbent donc plus de sodium au niveau proximal.
Resumo:
Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.