628 resultados para Coûts d’opération


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IntroductionUn cercle de qualité médecins-pharmaciens (CQ) pour la prescription médicamenteuse repose sur une démarche systémique coordonnée par des pharmaciens d'officine visant l'amélioration continue de la sécurité et de l'efficience des prescriptions de médecins de premier recours. Les trois éléments clés de ce concept collaboratif sont 1) le travail en réseau au niveau local ; 2) les données de prescription médicale et le retour d'informations (feedback) décrivant de manière comparative les coûts, le choix et la fréquence des médicaments prescrits ; 3) le matériel standardisé de formation continue interdisciplinaire.L'objectif de la présente étude est d'évaluer sur une période de onze ans (1999-2009) l'impact pharmacoéconomique et pharmacothérapeutique de six CQs pionniers (24 médecins et 6 pharmaciens), localisés dans le canton de Fribourg.Méthode: L'étude mesure notamment l'impact sur les coûts globaux de prescription des médecins des CQs en comparaison avec un groupe contrôle de médecins omnipraticiens travaillant hors CQ entre 1999-2009. La maîtrise des coûts engendrée est détaillée pour cinq index thérapeutiques de la classe des médicaments cardiovasculaires, y compris le pourcentage des génériques et celui des emballages de sartans dans la classe dite des antihypertenseurs. Les données sont issues des données de facturation fournies par la Coopérative professionnelle pour les pharmaciens suisses (OFAC).Résultats: Concernant la maîtrise des coûts annuels des médicaments par patient, la différence cumulée entre les CQs et le groupe contrôle est en 2009 de 43% en faveur des cercles (cf. Fig. 1). Ceci représente pour 2009 uniquement une économie de 245'000 CHF par médecin. Ces résultats s'expliquent par un profil de prescription médicale plus efficient, une meilleure pénétration des génériques (cf. Fig. 2), une attitude plus pondérée vis-à-vis des stratégies marketing, une formation continue interdisciplinaire spécialisée à propos de l'usage rationnel des médicaments, une meilleure application des recommandations nationales ou internationales.Conclusion: Cette évaluation a confirmé l'intérêt des CQs comme réseau local de collaboration en médecine de premier recours. Les médecins travaillant avec les pharmaciens modifient leurs prescriptions de manière claire et durable. Ce projet interdisciplinaire de qualité des soins montre que la maîtrise des coûts médicamenteux est obtenue sans concession à la qualité des traitements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contient : 1 « Le roy » FRANÇOIS 1er « à l'arcevesque Ursin,... A Paris, le XXIIIIe mars » ; 2 Le sire D'ORVAL, l'amiral DE BONNIVET et le président GUILLARD à « Mesrs de Bazoges » ; 3 « Le roy au marquis de Baude » Christophe I ; 4 Reçu de « JEHAN ROBINEAU, notaire et secretaire du roy », concernant les dépenses « necessaires à l'entretenement, noleage et adous des navires et vaisseaulx estans à la soulde dud. Sr » ; 5 L'amiral DE BONNIVET au marquis de Bade ; 6 « Le roy au marquis de Baude » ; 7 L'amiral DE BONNIVET à un « cappitaine » ; 8 Le sire D'ORVAL, l'amiral DE BONNIVET et le president GUILLARD au roi. « A Nanssy, le XIIIIe jour d'avril » ; 9 Le roi au Sr « de Marigny », bailli de Senlis. A Nanss[ay] » ; 10 Le roi « au legat en Germanie ». S. Germain en Laye, 9 avril ; 11 « Au prothonotaire Carrache ». Du même. Même date ; 12 « A l'arcevesque Ursin ». Du même. S. d ; 13 Au bailli de Caen. Du même. S. d ; 14 L'amiral DE BONNIVET au marquis de Bade. S. d ; 15 Le sire D'ORVAL, l'amiral DE BONNIVET, le président GUILLARD à « Marigny », concernant la réponse à faire au sénat de la ville de Strasbourg. S. d ; 16 L'amiral DE BONNIVET au marquis de Bade. S. d ; 17 Le même à quelqu'un qui est « au quartier de Prouvence ». S. d ; 18 Post-Scriptum de la lettre indiquée sous le n° 8. S. d ; 19 Lettre pour garder « quatre des cent gentilzhommes de la maison du roy ». De l'amiral de Bonnivet ? S. d ; 20 Lettre dudit amiral ? à l'ambassadeur du roi auprès du pape, pour lui recommander « l'un des nepveuz de Morice, mon Me d'ostel ». S. d ; 21 « A monseigneur de Gueldres ». Des sire D'ORVAL, amiral DE BONNIVET, président GUILLARD. S. d ; 22 Le roi FRANÇOIS Ier au Sr de Marigny, bailli de Senlis. S. d ; 23 Le même au duc Guillaume de Bavière, « qui conduict la ligue de France », pour lui recommander de croire ce que lui dira ledit Sr de Marigny, qu'il envoie vers ledit duc. S. d ; 24 Le même « au cardinal de Sainct Sixte, legat en Germanie », pour accréditer auprès dudit légat « le Sr d'Orval, conte de Dreux et de Rethel ». Au Bois de Vincennes, le 22 avril ; 25 Au duc de Middelberg. Du même. S. d ; 26 Les amiral DE BONNIVET et president GUILLARD, en l'absence du sire d'Orval, « à messieurs de Lanjac et de La Guiche, ambassadeurs devers le roy de Poulongne ». Lunéville, 2 mai ; 27 L'amiral DE BONNIVET « à madame » Louise de Savoie. « Du Xe de may » ; 28 « Le roy à monseigneur de Magence » ; 29-31 L'amiral DE BONNIVET à Florimond Robertet ? La dernière, datée de Coblentz, 8 juillet, fait allusion à l'insuccès du roi, Charles Quint ayant été élu empereur le 5 juillet 1519 ; 32-33 Deux lettres, la première à « monseigneur le tresorier », la seconde peut-être au même, sans dates et sans noms d'auteurs ; 34 FRANÇOIS Ier à « monseigneur de Brandebourg... A S. Germain en Laye, le XVIIIe jour de mars » ; 35 Le même à un prince électeur (?), qui lui avait demandé s'il avait quelques promesses des autres princes électeurs de son parti ; 36 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 8 février ; 37 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 9 février ; 38 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 11 février ; 39 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 13 février ; 40 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 18 février ; 41 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 21 février ; 42 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 23 février ; 43 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 28 février ; 44 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 4 mars ; 45 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 3 mars ; 46 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 4 mars ; 47 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 10 mars ; 48 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 12 mars ; 49 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. « Au port de Milly (sic), ce 14 mars ; 50 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain en Laye, 15 mars ; 51 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 24 mars ; 52 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 28 mars ; 53 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 30 mars ; 54 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 30 mars, à minuit ; 55 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 1er avril, jour de la naissance du second fils de François Ier ; 56 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 13 mars, pour avril ; 57 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 27 avril, date suivie de la mention expresse : « Et au-dessoubz : Vostre très humble et obeissant serviteur, ROBERTET » ; 58 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 28 avril ; 59 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 5 mai ; 60 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 4 février ; 61 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain en Laye, 7 avril ; 62 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet, 9 avril ; 63 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. « A Sainct Germain en Laye, le XVIIe avril, jour de Pasques fleuries » ; 64 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet, S.-Germain en Laye, 21 avril ; 65 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Paris, 26 avril ; 66 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Au bois de Vincennes, 26 avril ; 67 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. A S.-Germain en Laye, le 12 mai ; 68 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Saint-Germain en Laye, 8 mai ; 69 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. A S.-Germain, le 1er mai ; 70 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. Saint-Germain en Laye, 16 mai ; 71 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 18 mai ; 72 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 24 mai ; 73 FLORIMOND ROBERTET à Guillaume Gouffier, amiral de Bonnivet. S.-Germain, 24 mai ; 74 FLORIMOND ROBERTET au président Guillart. Il y est fait allusion à la mort d'Artus Gouffier, Sr de Boisy, qui venait de mourir à Montpellier. C'était le frère aîné de l'amiral de Bonnivet. S.-Germain, 28 mai ; 75 FLORIMOND ROBERTET à l'amiral de Bonnivet. Il y parle de la perte qu'il vient de faire en la personne de son frère, Jean-Jacques Robertet, évêque d'Albi, mort le 25 mai 1519. S.-Germain, 28 mai ; 76 FLORIMOND ROBERTET à l'amiral de Bonnivet. S.-Germain, 9 juin ; 77 FLORIMOND ROBERTET à l'amiral de Bonnivet, avec la transcription de la signature : « ROBERTET ». Sans date. Doit avoir été écrite aux environs de la même date ; 78 FLORIMOND ROBERTET à l'amiral de Bonnivet. Melun, 28 juin ; 79 Brouillon d'une lettre de FLORIMOND ROBERTET à l'amiral de Bonnivet, dont la mise au net est au feuillet 33 ; 80 FLORIMOND ROBERTET à l'amiral de Bonnivet. S.-Germain, 26 juin ; 81 FLORIMOND ROBERTET à l'amiral de Bonnivet. « A Meleum, Ve juillet » ; 82 FLORIMOND ROBERTET à l'amiral de Bonnivet. S.-Germain en Laye, 14 juillet. ROBERTET. C'est la mise au net du brouillon ci-dessus indiqué ; 83 FLORIMOND ROBERTET à l'amiral de Bonnivet. S.-Germain en Laye, 21 juin ; 84 FLORIMOND ROBERTET à l'amiral de Bonnivet. Melun, 30 juin ; 85 Lettres par lesquelles le roi FRANÇOIS Ier accrédite auprès des Electeurs de l'empire Jean d'Albret, comte de Dreux et de Rethel, gouverneur de Champagne et seigneur d'Orval ; Guillaume Gouffier, seigneur de Bonnivet, amiral de France ; Charles Guillart, président au parlement de Paris. Saint-Germain en Laye, 1er avril 1519. Avec pleins pouvoirs de le représenter et d'agir en son nom auprès desdits électeurs et de traiter avec eux. En latin ; 86 Autres lettres, en latin, du dit roi, relatives au même objet. S.-Germain en Laye, 28 mai ; 87 Autres lettres du roi FRANÇOIS Ier, portant pouvoir à ses représentants auprès des électeurs de lever des troupes et de leur donner des chefs pour résister par la force aux machinations de ceux qui veulent par la crainte des armes empêcher la liberté des élections. S.-Germain en Laye, 23 mai 1519. En latin ; 88 Lettres du roi FRANÇOIS Ier, chargeant ses ambassadeurs d'aller à Francfort, auprès des électeurs de l'empire, et de leur notifier officiellement qu'il sollicite leurs suffrages pour, s'il est élu, pouvoir combattre le Turc et délivrer les chrétiens, notamment les Grecs, du joug des infidèles. S.-Germain en Laye, 12 mai 1519. En latin ; 89 Lettres du roi FRANÇOIS Ier donnant pouvoir à ses ambassadeurs de traiter et conclure avec les électeurs de l'empire, touchant les avantages, commodités, honneurs qui peuvent leur être accordés ; les sommes à verser entre les mains desdits électeurs ou de leurs familiers sous forme de pensions annuelles, ou en une fois ; les otages à fournir comme garanties des promesses faites, etc. Paris, 4 mars 1519. En latin ; 90 Lettres du roi FRANÇOIS Ier, en français, portant même pouvoir que ci-dessus, avec en plus faculté de lever des troupes « et les conduyre ou faire conduire par telz cappitaines que verront estre pour le mieulx, là où adviseront et que l'eur (sic) le requerra, et iceulx faire paier et souldoier par les tresoriers et receveurs qui à ces fins seront par nous commis... Et d'abondant avons donné et donnons puissance et auctorité à nosdictz procureurs de faire toutes responces et depesches à tous nos ambassadeurs, que pour les causes susdictes avons envoyé ausdictz eslecteurs et autres princes de l'empire... Donné à Paris, le XXIXe jour de janvier, l'an de grace mil cinq cens dix huit ». 1519

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs - Identifier les facteurs de vulnérabilité sociaux et médicaux associés au recours multiple aux consultations des urgences. - Déterminer si les patients à recours multiple sont plus à même de combiner ces facteurs dans un système d'assurance universelle. Méthode Il s'agit d'une étude cas-contrôle rétrospective basée sur l'étude de dossiers médico-administratifs comparant des échantillons randomisés de patients à recours multiple à des patients n'appartenant pas à cette catégorie, au sein des urgences du Centre Hospitalier Universitaire Vaudois et de la Policlinique Médicale Universitaire de Lausanne. Les auteurs ont défini les patients à recours multiple comme comptabilisant au moins quatre consultations aux urgences durant les douze mois précédents. Les patients adultes (>18 ans) ayant consulté les urgences entre avril 2008 et mars 2009 (période d'étude) étaient inclus ; ceux quittant les urgences sans décharge médicale étaient exclus. Pour chaque patient, le premier dossier d'urgence informatisé inclus dans la période d'étude était sélectionné pour l'extraction des données. Outre les variables démographiques de base, les variables d'intérêt comprennent des caractéristiques sociales (emploi, type de résidence) et médicales (diagnostic principal aux urgences). Les facteurs sociaux et médicaux significatifs ont été utilisés dans la construction d'un modèle de régression logistique, afin de déterminer les facteurs associés avec le recours multiple aux urgences. De plus, la combinaison des facteurs sociaux et médicaux a été étudiée. Résultats Au total, 359/Γ591 patients à recours multiple et 360/34'263 contrôles ont été sélectionnés. Les patients à recours multiple représentaient moins d'un vingtième de tous les patients des urgences (4.4%), mais engendraient 12.1% de toutes les consultations (5'813/48'117), avec un record de 73 consultations. Aucune différence en termes d'âge ou de genre n'est apparue, mais davantage de patients à recours multiples étaient d'une nationalité autre que suisse ou européenne (n=117 [32.6%] vs n=83 [23.1%], p=0.003). L'analyse multivariée a montré que les facteurs de vulnérabilité sociaux et médicaux les plus fortement associés au recours multiple aux urgences étaient : être sous tutelle (Odds ratio [OR] ajusté = 15.8; intervalle de confiance [IC] à 95% = 1.7 à 147.3), habiter plus proche des urgences (OR ajusté = 4.6; IC95% = 2.8 à 7.6), être non assuré (OR ajusté = 2.5; IC95% = 1.1 à 5.8), être sans emploi ou dépendant de l'aide sociale (OR ajusté = 2.1; IC95% = 1.3 à 3.4), le nombre d'hospitalisations psychiatriques (OR ajusté = 4.6; IC95% = 1.5 à 14.1), ainsi que le recours à au moins cinq départements cliniques différents durant une période de douze mois (OR ajusté = 4.5; IC95% = 2.5 à 8.1). Le fait de comptabiliser deux sur quatre facteurs sociaux augmente la vraisemblance du recours multiple aux urgences (OR ajusté = 5.4; IC95% = 2.9 à 9.9) ; des résultats similaires ont été trouvés pour les facteurs médicaux (OR ajusté = 7.9; IC95% = 4.6 à 13.4). La combinaison de facteurs sociaux et médicaux est fortement associée au recours multiple aux urgences, puisque les patients à recours multiple étaient dix fois plus à même d'en comptabiliser trois d'entre eux (sur un total de huit facteurs, IC95% = 5.1 à 19.6). Conclusion Les patients à recours multiple aux urgences représentent une proportion modérée des consultations aux urgences du Centre Hospitalier Universitaire Vaudois et de la Policlinique Médicale Universitaire de Lausanne. Les facteurs de vulnérabilité sociaux et médicaux sont associés au recours multiple aux urgences. En outre, les patients à recours multiple sont plus à même de combiner les vulnérabilités sociale et médicale que les autres. Des stratégies basées sur le case management pourraient améliorer la prise en charge des patients à recours multiple avec leurs vulnérabilités afin de prévenir les inégalités dans le système de soins ainsi que les coûts relatifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le prof A. Holly répond aux questions suivantes : - L'économétrie est-elle un instrument pour gérer les coûts hospitaliers ? - Est-ce que l'on peut instaurer un management concurrentiel dans le domaine du paiement des prestations ? - Faudrait-il que les médecins soient payés comme des leaders d'entreprise ? - Comment gérer les salaires des soignants. L'économétrie peut-elle être une solution ? - [...] - Pourrait-on intéresser les soignants aux bénéfices éventuels ? - Quels risques et quels avantages y aurait-il à gérer les hôpitaux de la même manière que des entreprises de produits ? etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce rapport décrit le marché des médicaments remboursés par l'assurance obligatoire des soins (AOS) avec une intention particulière des génériques. En premier lieu, l'évolution des coûts et des quantités de médicaments entre 2006 et 2011; et présente la part de marché des génériques dans le marché des médicaments. Ensuite les économies résiduelles des génériques sont estimées dans l'hypothèse d'une utilisation plus étendue de ces derniers. Enfin le rapport montre l'influence des mesures des autorités fédérales dans le domaine des médicaments et de l'incidence de la commercialisation de génériques sur le prix des médicaments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sur mandat de l'Office fédéral de la santé publique (OFSP), l'Institut d'économie et de management de la santé de l'Université de Lausanne a été chargé de proposer des solutions pour faciliter les comparaisons des coûts ambulatoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littératie en santé est un concept prenant en compte les compétences et les ressources que chacun doit posséder pour gérer l'information nécessaire au maintien d'un bon état de santé. Néanmoins, il n'y pas de consensus sur une définition unique, ce qui complique une intégration adéquate de cette thématique dans le domaine de la santé. Un faible niveau de littératie en santé est un problème fréquent et concernerait près de 50% de la population Suisse (OCDE 2005). Cette problématique est d'une importance majeure car les individus avec un niveau de littératie insuffisant sont plus à risque d'un mauvais état de santé (AMA 1999) et ce phénomène représenterait 3 à 6% des coûts de la santé en Suisse selon une estimation basée sur les chiffres d'études américaines. (Spycher 2006). Les médecins de famille, considérés comme l'une des principales sources d'information en santé pour la population en Suisse, jouent un rôle central dans la promotion d'un bon niveau de santé. L'idée de ce travail vient à la suite des résultats du travail de Maîtrise de de Lara Van Leckwyck qui s'est intéressée à la perception que les médecins de famille de la région lausannoise ont du niveau de littératie de leurs patients. Ces derniers considèrent posséder les ressources nécessaires pour prendre en charge leurs patients avec un faible niveau de littératie mais ils sont ouverts à de nouveaux outils. Nous avons alors voulu tenter l'expérience et créer un outil sous la forme d'une brochure A6 contenant quatre faces dans le but d'aider ces médecins. Les objectifs sont les suivants : 1) sensibiliser et informer les médecins de famille à la problématique de la littératie en santé ; 2) offrir une aide au dépistage du niveau de littératie en santé de leurs patients ; 3) proposer une aide à la prise en charge des patients avec un faible niveau de littératie en fournissant une liste de moyens pratiques basés sur une revue de la littérature pour aider les médecins généralistes internistes dans leur prise en charge et 4) proposer une sélection d'adresses internet utiles en lien avec la problématique de la littératie en santé. Cet outil a été présenté à 15 assistants et chefs de clinique de la Policlinique médicale universitaire (PMU) de Lausanne ainsi qu'à 30 médecins internistes généralistes installés dans la région de Lausanne qui évalueront son utilité dans le cadre d'un prochain travail de Maîtrise. Les limites principales concernant un tel projet sont le format choisi pour l'outil et le fait de récolter et de transcrire des informations sur un sujet principalement étudié dans les pays anglo-saxons. Nous pouvons déjà prévoir que des adaptations sur la traduction de certains éléments de l'outil (notamment les questions de dépistage) seront certainement relevées par les médecins qui auront testé l'outil. Un travail supplémentaire mené de manière différente pourra également faire l'objet d'un futur travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les partis politiques ont comme vocation de structurer le débat démocratique et de constituer un trait d'union entre le citoyen et l'Etat. En Suisse, ils sont fortement sollicités en raison de l'importante quantité de scrutins organisés chaque année aux échelons communal, cantonal et national, mais leur organisation reste très peu professionnalisée. Comme ils doivent par ailleurs faire face à l'effritement de leur base partisane et à l'inflation des coûts de la politique, le risque est grand qu'ils soient mis en difficulté dans l'accomplissement de leur tâche d'intégration et de formation de l'opinion. Cette étude se concentre sur les pratiques de financement des partis cantonaux et nationaux du PDC, du PRD, du PS, de l'UDC et des Verts. S'appuyant sur les données empriques récoltées en 1997 et en 2007, elle décrit dans quelle mesure les moyens financiers des partis ont évolué au cours des dix dernières années. Les analyses portent sur le volume et l'origine des fonds et elles permettent notamment de saisir comment s'articulent les clivages en matière de financement. Die politischen Parteien haben die Aufgabe, die demokratische Debatte zu strukturieren und ein verbindendes Element zwischen dem Bürger und dem Staat zu bilden. In der Schweiz werden sie angesichts der grossen Anzahl jährlich auf kommunaler, kantonaler und nationaler Ebene durchgeführten Wahlgänge besonders stark beansprucht, ihre Organisationen sind aber wenig professionalisiert. Da sich die Parteien heute mit abnehmenden Parteienbindungen und steigenden Kosten der Politik konfrontiert sehen, steigt das Risiko, dass sie ihre Aufgaben der Integration und der politischen Meinungsbildung kaum mehr wahrnehmen können. Diese Arbeit konzentriert sich auf die Finanzierungspraktiken der kantonalen und nationalen Parteien CVP, FDP, SP, SVP und Grüne. Die Analysen stützen sich ab auf empirische Angaben zu Herkunft und Umfang der Parteifinanzen, die in den Jahren 1997 und 2007 erhoben wurden und erlauben es, die Unterschiede hinsichtlich der Finanzierung zu erläutern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aquatic environment is exposed continuously and increasingly to chemical substances such as pharmaceuticals. These medical compounds are released into the environment after having being consumed and body-excreted by patients. Pharmaceutical residues are synthetic molecules that are not always removed by traditional sewage treatment processes and thus escape degradation. Among pharmaceuticals that escape sewage treatment plants (STPs), the anticancer drugs were measured in STP effluents and natural waters. In the aquatic environment, their long-term effects at low concentrations are sparsely known on non-target species. Tamoxifen is an anticancer drug that is widely prescribed worldwide for the prevention and treatment of hormone receptor-positive breast cancers. Two of its metabolites, i.e., endoxifen and 4-hydroxy- tamoxifen (4OHTam), have high pharmacological potency in vivo and such as tamoxifen, they are excreted via faeces by patients. Tamoxifen was measured in STP effluents and natural waters but, to the best of our knowledge, its metabolites concentrations in waters have never been reported. Imatinib is another and recent anticancer compound that targets specific tumour cells. This pharmaceutical is also body excreted and because of its increasing use in cancer treatment, imatinib may reach the natural water. The effects of tamoxifen and imatinib are unknown upon more than one generation of aquatic species. And the effects of 4OHTam, endoxifen have never been studied in ecotoxicology so far. The aims of this thesis were threefold. First, the sensitivity of D. pulex exposed to tamoxifen, 4OHTam, endoxifen or imatinib was assessed using ecotoxicological experiments. Ecotoxicology is the science that considers the toxic effects of natural or synthetic substances, such as pharmaceuticals, on organisms, populations, community and ecosystem. Acute and multigenerational (2-4 generations) tests were performed on daphnids considering several studied endpoints, such as immobilisation, size, reproduction, viability and intrinsic rate of natural increase. Additional prospective assays were designed to evaluate whether 1) low concentrations of tamoxifen and 4OHTam were able to induce toxic effects when used in combination, and 2) daphnids were able to recover when offspring were withdrawn from solutions carrying the pharmaceutical. Second, the stability of tamoxifen, 4OHTam and endoxifen in incubation medium was evaluated in solution exempted from daphnids. Because the nominal concentrations of tamoxifen, 4OHTam and endoxifen did not correspond to the measured, we provide a predictive method to estimate the concentrations of these chemicals during long-term ecotoxicological tests. Finally, changes in protein expressions were analysed in D. pulex exposed 2 or 7 seven days to tamoxifen using ecotoxicoproteomic experiments with a shot-gun approach inducing a peptide fractionation step. Our results show that tamoxifen, 4OHTam and endoxifen induced adverse effects in D. pulex at environmentally relevant concentrations. At very low concentrations, these molecules displayed unusual and teratogenic effects because morphological abnormalities were observed in offspring, such as thick and short antennas, curved spines, premature neonates and aborted eggs. Tamoxifen was the most toxic compound among the test chemicals, followed by 4OHTam, endoxifen and imatinib. Tamoxifen no-observed effect concentrations (NOECs) that were calculated for size, reproduction and intrinsic rate were below or in the range of the concentrations measured in natural waters, i.e., between 0.12 µg/L and 0.67 µg/L. For instance, the tamoxifen NOECs that were calculated for reproduction were between 0.67 and 0.72 µg/L, whereas the NOEC was < 0.15 µg/L when based on morphological abnormalities. The NOECs of 4OHTam were higher but still in the same order of magnitude as tamoxifen environmental concentrations, with a value of 1.48 µg/L. Endoxifen NOEC for the intrinsic rate of natural increase (r) and the reproduction were 0.4 and 4.3 µg/L, respectively. Daphnids that were withdrawn from tamoxifen and 4OHTam were not able to recover. Also, the reproduction of D. pulex was reduced when the treated animals were exposed to the combination of tamoxifen and 4OHTam while no effects were observed when these chemicals were tested individually at the same concentration. Among the anticancer drugs that were tested during this thesis, imatinib was the less toxic molecule towards D. pulex. No effects on size and reproduction were observed within two generations, except for the first whose reproduction decreased at the highest test concentration, i.e., 626 µg/L. Our results also underline the need to use measured or predicted concentrations instead of the nominal during aquatic experiments, particularly when lipophilic molecules are tested. Indeed, notable differences between nominal (i.e., theoretical) and measured concentrations were found with tamoxifen, 4OHTam and endoxifen at all test concentrations. A cost and time sustainable method was proposed to predict the test exposure levels of these chemicals during long-term experiments. This predictive method was efficient particularly for low concentrations, which corresponded to the test concentrations in multigenerational tests. In the ecotoxicoproteomic experiments a total of 3940 proteins were identified and quantified in D. pulex exposed to tamoxifen. These results are currently the largest dataset from D. pulex that is published and the results of proteomic analyses are available for the scientific community. Among these 3940 proteins, 189 were significantly different from controls. After protein annotation, we assumed that treated daphnids with tamoxifen had shifted cost-energy functions, such as reproduction, to maintain their basic metabolism necessary to survive. This metabolic cost hypothesis was supported by the presence of proteins involved in oxidative stress. Biomarkers for early detection of tamoxifen harmful effects on D. pulex were not discovered but the proteins of the vitellogenin-2 family (E9H8K5) and the ryanodine receptor (E9FTU9) are promising potential biomarkers because their expression was already modified after 2 days of treatment. In this thesis, the effects of tamoxifen, 4OHTam and endoxifen on daphnids raise questions about the potential impact of tamoxifen and 4OHTam in other aquatic ecosystems, and therefore, about metabolites in ecotoxicology. Because the NOECs were environmentally relevant, these results suggest that tamoxifen and 4OHTam may be interesting pharmaceuticals to consider in risk assessment. Our findings also emphasize the importance of performing long-term experiments and of considering multi-endpoints instead of the standard reproductive endpoint. Finally, we open the discussion about the importance to measure test exposures or not, during ecotoxicological studies. -- Les milieux aquatiques sont exposés continuellement à un nombre croissant de substances chimiques, notamment les médicaments issus de la médecine vétérinaire et humaine. Chez les patients, les substances administrées sont utilisées par le corps avant d'être éliminées par l'intermédiaire des excrétas dans le système d'eaux usées de la ville. Ces eaux rejoignent ensuite une station de traitement afin d'y éliminer les déchets. Dans le cas des molécules chimiques, il arrive que les processus de traitement d'eaux usées ne soient pas suffisamment efficaces et que ces molécules ne soient pas dégradées. Elles sont alors libérées dans le milieu aquatique avec les effluents de la station d'épuration. Une fois dans l'environnement, ces résidus de médicaments sont susceptibles d'induire des effets sur la faune et la flore aquatique, dont les conséquences à long terme et à faibles concentrations sont peu connues. Les anticancéreux sont une famille de médicaments qui peuvent échapper aux traitements des stations d'épuration et qui sont retrouvées dans le milieu aquatique naturel. Parmi ces substances, le tamoxifen est une molécule utilisée dans le monde entier pour prévenir et traiter les cancers hormonaux dépendant du sein, notamment. Une fois ingéré, le tamoxifen est transformé par le foie en métabolites dont deux d'entre eux, le 4-hydroxy-tamoxifen (4OHTam) et l'endoxifen, possèdent un affinité pour les récepteurs aux estrogènes et une efficacité sur les cellules tumorales supérieure au tamoxifen lui- même. Tout comme la molécule mère, ces métabolites sont principalement éliminés par l'intermédiaire des fèces. Le tamoxifen a déjà été mesuré dans les effluents de stations d'épuration et dans les eaux naturelles, mais aucune valeur n'a été reportée pour ses métabolites jusqu'à présent. Un autre anticancéreux, également éliminé par voie biliaire et susceptible d'atteindre l'environnement, est l'imatinib. Cette récente molécule a révolutionné le traitement et la survie des patients souffrant de leucémie myéloïde chronique et de tumeur stromales gastrointestinales. Les effets du tamoxifen et de l'imatinib sur plusieurs générations d'organismes aquatiques, tels que les microcrustacés Daphnia, sont inconnus et le 4OHTam et l'endoxifen n'ont même jamais été testés en écotoxicologie. Cette thèse s'est articulée autour de trois objectifs principaux. Premièrement, la sensibilité des D. pulex exposés au tamoxifen, 4OHTam, endoxifen et imatinib a été évaluée par l'intermédiaire de tests aigus et de tests sur deux à quatre générations. La mobilité, la taille, la reproduction, la viabilité et la croissance potentielle de la population ont été relevées au cours de ces expériences. Des tests supplémentaires, à but prospectifs, ont également été réalisés afin d'évaluer 1) la capacité de récupération des daphnies, lorsque leurs descendants ont été placés dans un milieu exempté de tamoxifen ou de 4OHTam, 2) les effets chez les daphnies exposées à une solution contenant de faibles concentration de tamoxifen et de 4OHTam mélangés. Le deuxième objectif a été d'évaluer la stabilité du tamoxifen, 4OHTam et endoxifen dilué dans le milieu des daphnies. Après analyses, les concentrations mesurées ne correspondaient pas aux concentrations nominales (c.-à-d., théoriques) et il a été nécessaire de développer une méthode efficace de prédiction des niveaux d'exposition lors de tests de longue durée réalisés avec ces trois molécules. Finalement, des changements dans l'expression des protéines chez des daphnies exposées au tamoxifen ont été investigués par l'intermédiaire d'expériences écotoxicoprotéomiques avec une approche dite de shot-gun avec une étape de fractionnement des protéines. Les résultats obtenus dans cette thèse montrent que le tamoxifen, le 4OHTam et l'endoxifen induisent des effets indésirables chez les daphnies à des niveaux d'exposition proches ou identiques aux concentrations du tamoxifen mesurées dans l'environnement, c'est-à-dire 0.12 et 0.67 µg/L de tamoxifen. Ces molécules ont induit des effets inhabituels tels que la production de : nouveau-nés anormaux, avec des antennes et des queues déformées, des prématurés et des oeufs avortés. Le tamoxifen fut la molécule la plus toxique pour les D. pulex suivie du 4OHTam, de l'endoxifen et enfin de l'imatinib. Lors des expériences sur plusieurs générations, les concentrations n'ayant statistiquement pas d'effet (c.à.d. NOEC en anglais) sur la taille, la reproduction et la croissance intrinsèque de la population étaient du même ordre de grandeur que les concentrations environnementales du tamoxifen. Par exemple, les NOECs du tamoxifen calculées pour la reproduction étaient de 0.67 et 0.72 µg/L, tandis que celle calculée sur la base des anomalies chez les nouveau-nés était < 0.15 µg/L. Les NOECs du 4OHTam se situaient entre 0.16 et 1.48 µg/L et celles de l'endoxifen pour la croissance intrinsèque de la population, ainsi que pour la reproduction, étaient de 0.4 et 4.3 µg/L, respectivement. Dans l'expérience basée sur la récupération des daphnies, la taille et la reproduction ont diminué bien que la descendance fût placée dans un milieu sans substances chimiques. Les daphnies exposées au mélange de tamoxifen et de 4OHTam ont produit moins de nouveau-nés que les contrôles, alors que ces concentrations n'ont pas induit d'effets lorsque testées individuellement. Finalement, l'imatinib n'a pas montré d'effets sur les deux générations testées. Seule la première génération exposée à la plus haute concentration (626 µg/L) a montré une diminution de la reproduction. Les résultats obtenus lors de l'évaluation de la stabilité du tamoxifen, 4OHTam et endoxifen dans le milieu des daphnies ont souligné l'importance d'utiliser des concentrations mesurées ou prédites en écotoxicologie. En effet, des différences notables entre concentrations nominales et mesurées ont été observées à toutes les concentrations et l'hypothèse d'un phénomène d'adsorption sur le verre des récipients a été posée. De ce fait, il a été nécessaire d'élaborer une méthode prédictive efficace et acceptable, en terme de temps et de coûts. Une régression polynomiale basée sur des concentrations mesurées et nominales a permis de prédire avec efficacité les faibles niveaux d'exposition utilisés lors d'expériences écotoxicologiques à long terme, sur plusieurs générations. Suite aux expériences d'écotoxicoprotéomiques, un total de 3940 protéines ont été identifiées et quantifiées chez des daphnies exposées au tamoxifen. Ce nombre est actuellement la plus large série de données publiées et mises à disposition pour la communauté scientifique. Parmi ces protéines, 189 sont significatives et possiblement reliées à des processus de reproduction et de stress. Sur cette base, nous avons émis l'hypothèse que les individus subissant un stress, lié à l'exposition au tamoxifen, ont utilisé leur énergie de base pour favoriser leur survie plutôt que la reproduction. Enfin, la détermination de bio-marqueurs exprimant des dommages précoces des daphnies exposées au tamoxifen n'a pas abouti en tant que telle, mais des protéines prometteuses, telle que la famille de viellogenin-2 (E9H8K5) et le récepteur à la ryanodine (E9FTU9), ont été exprimées après deux jours d'exposition déjà. Ces protéines pourraient faire l'objet d'investigations écotoxicoprotéomiques futures. Les résultats de cette thèse posent certaines questions quant au risque du tamoxifen, du 4OHTam et de l'endoxifen sur la faune et la flore aquatique et plus particulièrement sur les anticancéreux présents dans l'environnement. Les effets toxiques de ces molécules ont été observés à des concentrations environnementales et sur plusieurs générations. La question de considérer les métabolites, et ainsi les pro-médicaments, en écotoxicologie est soulevée, notamment parce que ces molécules peuvent être plus actives et efficaces que la molécule mère. Les expériences chroniques, sur plusieurs générations sont également à favoriser car elles offrent un meilleur reflet de la réalité environnementale que des essais aigus ou d'une génération. L'utilisation de la protéomique permet d'agrandir les connaissances sur les effets des médicaments à un niveau inférieur de l'organisation biologique et ainsi, de mieux comprendre de potentiels mécanismes d'action ou de déterminer de potentiels biomarqueurs. Finalement, il semble important de discuter de l'opportunité de mesurer les concentrations qui sont testées en écotoxicologie afin de ne pas sous-estimer le risque pour la faune et la flore aquatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.