122 resultados para Coûts d’opération
Resumo:
Objectif : En Suisse, la réadaptation est financée en partie par l'assureur qui fixe préalablement à l'admission un nombre de jours (durée garantie) qu'il s'engage à rembourser. Lorsqu'une durée garantie est trop courte, une demande de prolongation est nécessaire, induisant des démarches administratives. Les objectifs de cette étude étaient a) d'étudier le lien entre durées garanties et caractéristiques du patient ; b) d'estimer les coûts liés aux demandes de prolongation ; c) d'évaluer l'impact de l'introduction d'un modèle d'attribution de durée garantie basé sur l'état fonctionnel du patient.¦Méthodes : Les corrélations entre état fonctionnel, durée effective et durée garantie ont été testées sur 208 séjours représentatifs. Des durées garanties fictives ont été calculées à partir de la médiane de durée de séjour de 2 335 patients, groupés selon leur niveau fonctionnel (score des activités de base de la vie quotidienne (BAVQ) 0-1 vs 2-4 vs 5-6), puis comparées aux durées de séjour effectives et garanties.¦Résultats : L'état fonctionnel du patient n'est pas corrélé à la durée garantie, et 69 % des séjours nécessitent au moins une demande de prolongation, représentant 2,6 équivalents temps plein en temps administratif projeté sur le canton. L'application du modèle proposé réduirait de 28 % les demandes de prolongation, et n'augmenterait que marginalement la proportion de jours garantis en surplus (11,2 % contre 6,5 % actuellement).¦Conclusion : L'utilisation systématique d'un modèle d'attribution de durées garanties basées sur l'état fonctionnel du patient permettrait de réduire sensiblement les coûts administratifs liés aux demandes de prolongation, sans entraîner de risque accru d'une augmentation de la durée de séjour.
Resumo:
Chez les animaux, les jeunes dépendant des parents durant leur développement sont en compétition pour obtenir la nourriture, qu'ils quémandent par des cris et postures ostentatoires et se disputent physiquement. Les frères et soeurs n'ont pas la même compétitivité, en particulier s'ils diffèrent en âge, et leur niveau de faim fluctue dans le temps. Comme dans tout type de compétition, chacun doit ajuster son investissement aux rivaux, c'est à dire aux besoins et comportements de ses frères et soeurs. Dans le contexte de la famille, selon la théorie de sélection de parentèle, les jeunes bénéficient de leur survie mutuelle et donc de la propagation de la part de gènes qu'ils ont en commun. L'hypothèse de la « négociation frères-soeurs » prédit que, sous certaines conditions, les jeunes négocient entre eux la nourriture, ce qui réduit les coûts de compétition et permet de favoriser les frères et soeurs les plus affamés. La littérature actuelle se focalise sur les signaux de quémande entre enfants et parents et les interactions compétitives frères-soeurs sont étudiées principalement au sein de paires, alors que les nichées ou portées en comprennent souvent de nombreux. Cette thèse vise à mieux comprendre comment et jusqu'à quel point plusieurs jeunes ajustent mutuellement leurs signaux de besoin. C'est une question importante, étant donné que cela influence la répartition de nourriture entre eux, donc la résolution du conflit qui les oppose et à terme leur valeur évolutive. Le modèle d'étude est la chouette effraie (Tyto alba), chez laquelle jusqu'à neufs poussins émettent des milliers de cris chacun par nuit. Ils négocieraient entre eux la prochaine proie indivisible rapportée au nid avant que les parents ne reviennent : un poussin affamé crie plus qu'un autre moins affamé, ce qui dissuade ce dernier de crier en retour et par la suite de quémander la nourriture aux parents. L'investissement optimal correspondrait donc à écarter son frère en permanence vu que l'arrivée des parents est imprévisible, mais à moindre coût. Dans un premier axe, nous avons exploré au sein de dyades les mécanismes acoustiques permettant aux poussins de doser leur effort vocal durant les heures de compétition où ils sont laissés seuls au nid. Nous avons trouvé que les poussins évitent de crier simultanément, ce qui optimiserait la discrimination du nombre et de la durée de leurs cris, lesquels reflètent de façon honnête leur niveau de faim et donc leur motivation. L'alternance des cris paraît particulièrement adaptée au fait que les poussins se fient à des variations temporelles subtiles dans le rythme et la durée de leurs vocalisations pour prendre la parole. En particulier, allonger ses cris tout en criant moins dissuade efficacement le rival de répondre, ce qui permet de monopoliser la parole dans de longs « monologues ». Ces règles seraient universelles puisqu'elles ne dépendent pas de la séniorité, de la faim, ni de la parenté et les poussins répondent à un playback de façon similaire à un vrai frère. Tous ces résultats apportent la première preuve expérimentale que les juvéniles communiquent de façon honnête sur leurs besoins, ajustent activement le rythme de leurs cris et utilisent des composantes multiples de leurs vocalisations d'une façon qui réduit le coût de la compétition. De plus, il s'agit de la première démonstration que des règles de conversation régissent de longs échanges vocaux chez les animaux de façon comparable aux règles basiques observées chez l'Homme. Dans un second axe, nous avons exploré les stratégies comportementales que les poussins adoptent pour rivaliser avec plusieurs frères et soeurs, par le biais d'expériences de playback. Nous avons trouvé que les poussins mémorisent des asymétries de compétitivité entre deux individus qui dialoguent et répondent plus agressivement au moins compétitif une fois qu'ils sont confrontés à chacun isolément. Dans la même ligne, quand ils entendent un nombre variable d'individus criant à un taux variable, les poussins investissent le plus contre des rivaux moins nombreux et moins motivés. En accord avec les prédictions des modèles théoriques, les poussins de chouette effraie escaladent donc les conflits pour lesquels leur chance de gagner contrebalance le plus l'énergie dépensée. Nous révélons ainsi que 1) les jeunes frères et soeurs 'espionnent' les interactions de leurs rivaux pour évaluer leur compétitivité relative, ce qui est sans doute moins coûteux qu'une confrontation directe avec chacun, et 2) dosent leur investissement vocal en fonction du nombre de rivaux actuellement en compétition et de leur motivation de façon concomitante. Ces résultats montrent que les interactions entre frères et soeurs au nid reposent sur des mécanismes similaires à ceux observés, mais encore de façon anecdotique, chez les adultes non apparentés qui se disputent les territoires et partenaires sexuels. Cette thèse souligne donc combien il est crucial de considérer dorénavant la famille comme un réseau de communication à part entière pour mieux comprendre comment les jeunes résolvent les conflits autour du partage des ressources parentales. Plus généralement, elle révèle l'importance de la dynamique temporelle des vocalisations dans les conflits et la communication des animaux. A la lumière de nos résultats, la chouette effraie apparaît comme un modèle clé pour de futures recherches sur la résolution des conflits et la communication acoustique. - In species with parental care, offspring contest priority access to food by begging through conspicuous postures and vocalisations and by physically jockeying. Siblings differ in their competitiveness, especially in the case of age and size hierarchies, and their hunger level fluctuates in time. As in competition in general, each individual should adjust its investment to opponents that is to say to its siblings' needs and behaviours. In the particular context of family, according to kin selection theory, siblings derive extra fitness benefits from their mutual survival and hence the spreading of the genes they share. The "sibling negotiation" predicts that, under certain conditions, young would negotiate among them priority access to food, which reduces competition costs and enables promoting the most hungry siblings. To date, the literature focuses on signals of need between parents and offspring and competitive interactions (in particular among siblings) are mostly studied within pairwise interactions, yet they commonly involve more numerous rivals. This PhD aims at better understanding how and the extent to which several young siblings compete through signalling. This is important since this influences how food is allocated among them, thus the outcome of sibling rivalry and ultimately their fitness. I use the barn owl (Tyto alba) as a model, in which the one to nine nestlings emit a simple noisy call thousands of times per night. Thereby, they would negotiate among them priority access to the indivisible food next delivered prior to parents' feeding visits. A hungry nestling emits more calls than a less hungry sibling, which deters it to call in return and ultimately beg food at parents. The optimal investment thus corresponds to constantly deterring the rival to compete, given that parents' arrival is unpredictable, but at the lowest costs. In the first axis of my thesis, we explored within dyads the acoustic mechanisms by which owlets dose vocal effort when competing during the hours they are left alone. We found that owlets avoid overlapping each other's calls. This would enhance the discrimination of both call number and duration, which honestly reflect individuals' hunger level and hence motivation to compete. Such antiphony seems best adapted to the fact that siblings actually use subtle temporal variations in the rhythm and duration of their calls to take or give their turn. Owlets alternate monologs, in which lengthening calls efficiently deters the rival to respond while reducing call number. Such rules depend neither on seniority, hunger level nor kinship since nestlings responded similarly to a live sibling and an unrelated playback individual. Taken together, these findings provide the first experimental proof that dependent young honestly communicate about their need, actively adjust the timing of their calls and use multicomponent signals in a way that reduces vocal costs. Moreover, this is the first demonstration of conversational rules underlying animal long-lasting vocal exchanges comparable to the basic turn-taking signals observed in humans. In the second axis, we focused on the behavioural strategies owlets adopt to compete with more than one sibling, using playback experiments. We found that singleton bystanders memorised competitive asymmetries between two playback individuals dialoguing and responded more aggressively to the submissive one once they later faced each of both alone. Moreover, when hearing a varying number of nestlings calling at varying rates, owlets vocally invested the most towards fewer and less motivated rivals. In line with predictions from models on conflict settlement, barn owls thus escalate contests in which their chance of winning best counterbalances the energy spent. These results reveal that young socially eavesdrop on their siblings' interactions to assess their relative competitiveness at likely lower costs than direct confrontation, and dose vocal effort relative to both their number and motivation. This shows that young siblings' interactions imply mechanisms similar to those observed, yet still anecdotally, in unrelated adults that contest mates and territories. This PhD therefore highlights how crucial it is to further consider family as a communication network to better understand how siblings resolve conflicts over the share of parental resources. More generally, it provides important insights into the role of the temporal dynamics of signalling during animal contests and communication. In the light of our findings, the barn owl emerges as a key model for future research on conflict resolution and acoustic communication in animals.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
RESUME : De nombreuses espèces animales vivent en groupe. Du simple grégarisme aux colonies hautement intégrées de fourmis, la vie sociale a atteint des degrés divers de complexité. Les nombreuses interactions entre membres d'une société favorisent la transmission de parasites. Cela représente un coût potentiel de la vie sociale. Cette thèse s'intéresse aux défenses permettant de réduire le coût du parasitisme dans les colonies de fourmis ainsi qu'à la manière dont le parasitisme a pu façonner certains aspects de ces sociétés. Les colonies de fourmis des bois (Forimica paralugubris) contiennent de grandes quantités de résine de conifères. Cette résine réduit la densité microbienne dans le nid et augmente la survie des ouvrières lors d'infections parasitaires. Dans cette thèse, nous montrons, d'une part, que les ouvrières collectent activement la résine et que ce comportement est plutôt préventif que curatif et, d'autre part, que la résine permet aux ouvrières une utilisation moindre de leurs défenses immunitaires. Ces résultats permettent de conclure que ce comportement réduit l'exposition au parasitisme et qu'il a une fonction adaptative. L'émergence d'un tel comportement de médication chez une espèce d'insectes sociaux illustre le fait que la socialité, bien yue provoquant une exposition accrue au parasitisme, permet également l'émergence de mécanismes sociaux de défense. II a été suggéré que la présence de plusieurs reines au sein d'un même nid (polygynie) améliore la résistance aux parasites en augmentant la diversité génétique au sein de la colonie. En accord avec cette hypothèse, nous montrons qu'une augmentation de la diversité génétique au sein de groupes expérimentaux de Formica selysi améliore leur survie lors d'une infection parasitaire. Cependant, nous suggérons également que sur le terrain, d'autres facteurs corrélés à la polygynie ont des effets antagoniques sur la résistance. Nous montrons par exemple que les ouvrières polygynes semblent avoir une capacité moindre à monter une réponse immunitaire. Certains aspects de la reproduction des fourmis ont pu également être façonnés par le parasitisme. L'accouplement n'a lieu que lors d'une courte période au début de la vie adulte, généralement à l'extérieur de la colonie. Les reines stockent ensuite le sperme et l'utilisent parcimonieusement au cours de leur vie alors que les males meurent rapidement. Nous montrons que les défenses immunitaires des reines de fourmis des bois (F. paralugubris) sont fortement affectées par l'accouplement. Ces modulations immunitaires sont probablement liées à une augmentation de l'exposition au parasitisme lors de l'accouplement ainsi qu'à des blessures copulatoires. I1 semble donc que l'accouplement soit accompagné de coûts immunitaires pour les reines. Dans son ensemble, cette thèse illustre la diversité des mécanismes de défenses contre les parasites dans les sociétés de fourmis. La vie sociale, en offrant un nouveau niveau d'interaction, permet en effet l'émergence d'adaptations originales. Cela explique probablement le grand succès écologique des espèces sociales. SUMMARY : Sociality is widespread among animals and has reached variable degrees of complexity, from loose social Groups to highly integrated ant colonies. The many interactions between members of a social group promote the spread of parasites, but social life also permits the evolution of original defence mechanisms. This thesis sheds light on how ant colonies defend themselves against parasites, and on how parasitism shapes certain aspects of these societies. Wood ants nests (Formica paralugubris) contain large amounts of conifer resin which reduces the microbial density in ant nests and enhances the survival of ants challenged by some pathogens. We show that resin is actively collected by workers and that resin collection is rather a prophylactic than a curative behaviour. Moreover, we suggest that resin reduces the use of the immune defences of workers. Altogether, these results indicate that the use of resin is a collective adaptation to prevent the spread of parasites. The emergence of medication in a social insect species illustrates that sociality does not only increase the exposure to parasites but also allows the emergence of social mechanisms to counter this threat. The number of reproducing queens per colony is a variable trait in ants. It has been suggested that polygyny (the occurrence of multiple queens within a colony), by increasing the colonial genetic diversity, improves disease resistance. In line with this hypothesis, we show that in a socially polymorphic ant (Formica selysi), an experimental increase of colony genetic diversity enhances disease resistance. However, we also suggest that factors covarying with queen number variation in the field have antagonistic effects on parasite resistance. We show for instance that polygyne workers seem to have lower immune defences. Parasites may also shape some aspects of ant queen reproductive biology. Ant queens mate at the beginning of their adult life, usually outside of the colony, and store sperm for several years to fertilize eggs. Males die shortly after mating and queens never remate later in life, which drastically reduces sexual conflicts. Moreover, mating and nest founding occur away from the collective defence mechanisms of the natal colony and might be associated with an increased risk of parasitism. We show that mating affects the immune defences of wood ant queens (F. paralugubris) in multiple ways that are consistent with mating wounds and increased risk of parasitism. We suggest that mating is associated with immunity costs in ants, despite the reduced level of sexual conflicts. Altogether, my thesis illustrates the diversity of anti-parasite mechanisms in ant societies. This sheds light on how sociality, by offering a new level of interactions, allows the evolution of original adaptations, which may explain the wide ecological success of social species.
Resumo:
RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.
Resumo:
IntroductionUn cercle de qualité médecins-pharmaciens (CQ) pour la prescription médicamenteuse repose sur une démarche systémique coordonnée par des pharmaciens d'officine visant l'amélioration continue de la sécurité et de l'efficience des prescriptions de médecins de premier recours. Les trois éléments clés de ce concept collaboratif sont 1) le travail en réseau au niveau local ; 2) les données de prescription médicale et le retour d'informations (feedback) décrivant de manière comparative les coûts, le choix et la fréquence des médicaments prescrits ; 3) le matériel standardisé de formation continue interdisciplinaire.L'objectif de la présente étude est d'évaluer sur une période de onze ans (1999-2009) l'impact pharmacoéconomique et pharmacothérapeutique de six CQs pionniers (24 médecins et 6 pharmaciens), localisés dans le canton de Fribourg.Méthode: L'étude mesure notamment l'impact sur les coûts globaux de prescription des médecins des CQs en comparaison avec un groupe contrôle de médecins omnipraticiens travaillant hors CQ entre 1999-2009. La maîtrise des coûts engendrée est détaillée pour cinq index thérapeutiques de la classe des médicaments cardiovasculaires, y compris le pourcentage des génériques et celui des emballages de sartans dans la classe dite des antihypertenseurs. Les données sont issues des données de facturation fournies par la Coopérative professionnelle pour les pharmaciens suisses (OFAC).Résultats: Concernant la maîtrise des coûts annuels des médicaments par patient, la différence cumulée entre les CQs et le groupe contrôle est en 2009 de 43% en faveur des cercles (cf. Fig. 1). Ceci représente pour 2009 uniquement une économie de 245'000 CHF par médecin. Ces résultats s'expliquent par un profil de prescription médicale plus efficient, une meilleure pénétration des génériques (cf. Fig. 2), une attitude plus pondérée vis-à-vis des stratégies marketing, une formation continue interdisciplinaire spécialisée à propos de l'usage rationnel des médicaments, une meilleure application des recommandations nationales ou internationales.Conclusion: Cette évaluation a confirmé l'intérêt des CQs comme réseau local de collaboration en médecine de premier recours. Les médecins travaillant avec les pharmaciens modifient leurs prescriptions de manière claire et durable. Ce projet interdisciplinaire de qualité des soins montre que la maîtrise des coûts médicamenteux est obtenue sans concession à la qualité des traitements.
Resumo:
Objectifs - Identifier les facteurs de vulnérabilité sociaux et médicaux associés au recours multiple aux consultations des urgences. - Déterminer si les patients à recours multiple sont plus à même de combiner ces facteurs dans un système d'assurance universelle. Méthode Il s'agit d'une étude cas-contrôle rétrospective basée sur l'étude de dossiers médico-administratifs comparant des échantillons randomisés de patients à recours multiple à des patients n'appartenant pas à cette catégorie, au sein des urgences du Centre Hospitalier Universitaire Vaudois et de la Policlinique Médicale Universitaire de Lausanne. Les auteurs ont défini les patients à recours multiple comme comptabilisant au moins quatre consultations aux urgences durant les douze mois précédents. Les patients adultes (>18 ans) ayant consulté les urgences entre avril 2008 et mars 2009 (période d'étude) étaient inclus ; ceux quittant les urgences sans décharge médicale étaient exclus. Pour chaque patient, le premier dossier d'urgence informatisé inclus dans la période d'étude était sélectionné pour l'extraction des données. Outre les variables démographiques de base, les variables d'intérêt comprennent des caractéristiques sociales (emploi, type de résidence) et médicales (diagnostic principal aux urgences). Les facteurs sociaux et médicaux significatifs ont été utilisés dans la construction d'un modèle de régression logistique, afin de déterminer les facteurs associés avec le recours multiple aux urgences. De plus, la combinaison des facteurs sociaux et médicaux a été étudiée. Résultats Au total, 359/Γ591 patients à recours multiple et 360/34'263 contrôles ont été sélectionnés. Les patients à recours multiple représentaient moins d'un vingtième de tous les patients des urgences (4.4%), mais engendraient 12.1% de toutes les consultations (5'813/48'117), avec un record de 73 consultations. Aucune différence en termes d'âge ou de genre n'est apparue, mais davantage de patients à recours multiples étaient d'une nationalité autre que suisse ou européenne (n=117 [32.6%] vs n=83 [23.1%], p=0.003). L'analyse multivariée a montré que les facteurs de vulnérabilité sociaux et médicaux les plus fortement associés au recours multiple aux urgences étaient : être sous tutelle (Odds ratio [OR] ajusté = 15.8; intervalle de confiance [IC] à 95% = 1.7 à 147.3), habiter plus proche des urgences (OR ajusté = 4.6; IC95% = 2.8 à 7.6), être non assuré (OR ajusté = 2.5; IC95% = 1.1 à 5.8), être sans emploi ou dépendant de l'aide sociale (OR ajusté = 2.1; IC95% = 1.3 à 3.4), le nombre d'hospitalisations psychiatriques (OR ajusté = 4.6; IC95% = 1.5 à 14.1), ainsi que le recours à au moins cinq départements cliniques différents durant une période de douze mois (OR ajusté = 4.5; IC95% = 2.5 à 8.1). Le fait de comptabiliser deux sur quatre facteurs sociaux augmente la vraisemblance du recours multiple aux urgences (OR ajusté = 5.4; IC95% = 2.9 à 9.9) ; des résultats similaires ont été trouvés pour les facteurs médicaux (OR ajusté = 7.9; IC95% = 4.6 à 13.4). La combinaison de facteurs sociaux et médicaux est fortement associée au recours multiple aux urgences, puisque les patients à recours multiple étaient dix fois plus à même d'en comptabiliser trois d'entre eux (sur un total de huit facteurs, IC95% = 5.1 à 19.6). Conclusion Les patients à recours multiple aux urgences représentent une proportion modérée des consultations aux urgences du Centre Hospitalier Universitaire Vaudois et de la Policlinique Médicale Universitaire de Lausanne. Les facteurs de vulnérabilité sociaux et médicaux sont associés au recours multiple aux urgences. En outre, les patients à recours multiple sont plus à même de combiner les vulnérabilités sociale et médicale que les autres. Des stratégies basées sur le case management pourraient améliorer la prise en charge des patients à recours multiple avec leurs vulnérabilités afin de prévenir les inégalités dans le système de soins ainsi que les coûts relatifs.
Resumo:
Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.
Resumo:
Le prof A. Holly répond aux questions suivantes : - L'économétrie est-elle un instrument pour gérer les coûts hospitaliers ? - Est-ce que l'on peut instaurer un management concurrentiel dans le domaine du paiement des prestations ? - Faudrait-il que les médecins soient payés comme des leaders d'entreprise ? - Comment gérer les salaires des soignants. L'économétrie peut-elle être une solution ? - [...] - Pourrait-on intéresser les soignants aux bénéfices éventuels ? - Quels risques et quels avantages y aurait-il à gérer les hôpitaux de la même manière que des entreprises de produits ? etc.
Resumo:
Ce rapport décrit le marché des médicaments remboursés par l'assurance obligatoire des soins (AOS) avec une intention particulière des génériques. En premier lieu, l'évolution des coûts et des quantités de médicaments entre 2006 et 2011; et présente la part de marché des génériques dans le marché des médicaments. Ensuite les économies résiduelles des génériques sont estimées dans l'hypothèse d'une utilisation plus étendue de ces derniers. Enfin le rapport montre l'influence des mesures des autorités fédérales dans le domaine des médicaments et de l'incidence de la commercialisation de génériques sur le prix des médicaments.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Sur mandat de l'Office fédéral de la santé publique (OFSP), l'Institut d'économie et de management de la santé de l'Université de Lausanne a été chargé de proposer des solutions pour faciliter les comparaisons des coûts ambulatoires.
Resumo:
La littératie en santé est un concept prenant en compte les compétences et les ressources que chacun doit posséder pour gérer l'information nécessaire au maintien d'un bon état de santé. Néanmoins, il n'y pas de consensus sur une définition unique, ce qui complique une intégration adéquate de cette thématique dans le domaine de la santé. Un faible niveau de littératie en santé est un problème fréquent et concernerait près de 50% de la population Suisse (OCDE 2005). Cette problématique est d'une importance majeure car les individus avec un niveau de littératie insuffisant sont plus à risque d'un mauvais état de santé (AMA 1999) et ce phénomène représenterait 3 à 6% des coûts de la santé en Suisse selon une estimation basée sur les chiffres d'études américaines. (Spycher 2006). Les médecins de famille, considérés comme l'une des principales sources d'information en santé pour la population en Suisse, jouent un rôle central dans la promotion d'un bon niveau de santé. L'idée de ce travail vient à la suite des résultats du travail de Maîtrise de de Lara Van Leckwyck qui s'est intéressée à la perception que les médecins de famille de la région lausannoise ont du niveau de littératie de leurs patients. Ces derniers considèrent posséder les ressources nécessaires pour prendre en charge leurs patients avec un faible niveau de littératie mais ils sont ouverts à de nouveaux outils. Nous avons alors voulu tenter l'expérience et créer un outil sous la forme d'une brochure A6 contenant quatre faces dans le but d'aider ces médecins. Les objectifs sont les suivants : 1) sensibiliser et informer les médecins de famille à la problématique de la littératie en santé ; 2) offrir une aide au dépistage du niveau de littératie en santé de leurs patients ; 3) proposer une aide à la prise en charge des patients avec un faible niveau de littératie en fournissant une liste de moyens pratiques basés sur une revue de la littérature pour aider les médecins généralistes internistes dans leur prise en charge et 4) proposer une sélection d'adresses internet utiles en lien avec la problématique de la littératie en santé. Cet outil a été présenté à 15 assistants et chefs de clinique de la Policlinique médicale universitaire (PMU) de Lausanne ainsi qu'à 30 médecins internistes généralistes installés dans la région de Lausanne qui évalueront son utilité dans le cadre d'un prochain travail de Maîtrise. Les limites principales concernant un tel projet sont le format choisi pour l'outil et le fait de récolter et de transcrire des informations sur un sujet principalement étudié dans les pays anglo-saxons. Nous pouvons déjà prévoir que des adaptations sur la traduction de certains éléments de l'outil (notamment les questions de dépistage) seront certainement relevées par les médecins qui auront testé l'outil. Un travail supplémentaire mené de manière différente pourra également faire l'objet d'un futur travail.
Resumo:
Les partis politiques ont comme vocation de structurer le débat démocratique et de constituer un trait d'union entre le citoyen et l'Etat. En Suisse, ils sont fortement sollicités en raison de l'importante quantité de scrutins organisés chaque année aux échelons communal, cantonal et national, mais leur organisation reste très peu professionnalisée. Comme ils doivent par ailleurs faire face à l'effritement de leur base partisane et à l'inflation des coûts de la politique, le risque est grand qu'ils soient mis en difficulté dans l'accomplissement de leur tâche d'intégration et de formation de l'opinion. Cette étude se concentre sur les pratiques de financement des partis cantonaux et nationaux du PDC, du PRD, du PS, de l'UDC et des Verts. S'appuyant sur les données empriques récoltées en 1997 et en 2007, elle décrit dans quelle mesure les moyens financiers des partis ont évolué au cours des dix dernières années. Les analyses portent sur le volume et l'origine des fonds et elles permettent notamment de saisir comment s'articulent les clivages en matière de financement. Die politischen Parteien haben die Aufgabe, die demokratische Debatte zu strukturieren und ein verbindendes Element zwischen dem Bürger und dem Staat zu bilden. In der Schweiz werden sie angesichts der grossen Anzahl jährlich auf kommunaler, kantonaler und nationaler Ebene durchgeführten Wahlgänge besonders stark beansprucht, ihre Organisationen sind aber wenig professionalisiert. Da sich die Parteien heute mit abnehmenden Parteienbindungen und steigenden Kosten der Politik konfrontiert sehen, steigt das Risiko, dass sie ihre Aufgaben der Integration und der politischen Meinungsbildung kaum mehr wahrnehmen können. Diese Arbeit konzentriert sich auf die Finanzierungspraktiken der kantonalen und nationalen Parteien CVP, FDP, SP, SVP und Grüne. Die Analysen stützen sich ab auf empirische Angaben zu Herkunft und Umfang der Parteifinanzen, die in den Jahren 1997 und 2007 erhoben wurden und erlauben es, die Unterschiede hinsichtlich der Finanzierung zu erläutern.