43 resultados para estimation des provisions
em Université de Lausanne, Switzerland
Resumo:
Les précipitations journalières extrêmes centennales ont été estimées à partir d'analyses de Gumbel et de sept formule empiriques effectuées sur des séries de mesures pluviométriques à 151 endroits de la Suisse pour deux périodes de 50 ans. Ces estimations ont été comparées avec les valeurs journalières maximales mesurées durant les 100 dernières années (1911-2010) afin de tester l'efficacité de ces sept formules. Cette comparaison révèle que la formule de Weibull serait la meilleure pour estimer les précipitations journalières centennales à partir de la série de mesures pluviométriques 1961-2010, mais la moins bonne pour la série de mesures 1911-1960. La formule de Hazen serait la plus efficace pour cette dernière période. Ces différences de performances entre les formules empiriques pour les deux périodes étudiées résultent de l'augmentation des précipitations journalières maximales mesurées de 1911 à 2010 pour 90% des stations en Suisse. Mais les différences entre les pluies extrêmes estimées à partir des sept formules empiriques ne dépassent pas 6% en moyenne.
Resumo:
Les modèles hydrologiques développés pour les pluies extrêmes de type PMP sont difficiles à paramétrer en raison du manque de données disponibles pour ces évènements et de la complexité du terrain. Cet article présente les processus et les résultats de l'ajustement des paramètres pour un modèle hydrologique distribué. Ce modèle à une échelle fine a été développé pour l'estimation des crues maximales probables dans le cas d'une PMP. Le calcul effectué pour deux bassins versants test suisses et pour deux épisodes d'orages d'été concerne l'estimation des paramètres du modèle, divisé en deux groupes. La première concerne le calcul des vitesses des écoulements et l'autre la détermination de la capacité d'infiltration initiale et finale pour chaque type de sol. Les résultats validés avec l'équation de Nash montrent une bonne corrélation entre les débits simulés et ceux observés.
Resumo:
[Table des matières] 1. Pourquoi s'intéresser à l'occupation inappropriée des lits de soins aigus au CHUV ?. - 1.1. Etat des lieux. - 1.1.1. Les chiffres du CHUV. - 1.1.2. La cellule de gestion des flux de patients. - 1.1.3. L'unité de patients en attente de placement. - 1.1.4. La pénurie de lits dans les EMS vaudois. - 1.1.5. Le vieillissement de la population vaudoise. - 1.2. Evidences nationales et internationales. - - 2. Estimation des coûts. - 2.1. Coûts chiffrables. - 2.1.1. Perte financière directe. - 2.1.2. Coûts des transferts pour engorgement. - 2.1.3. Coût d'opportunité. - 2.2. Coûts non chiffrables. - 2.2.1. Patients. - 2.2.2. Personnel médical. - 2.2.3. CHUV. - - 3. Propositions. - 3.1. Prises en charge alternatives. - 3.1.1. Les réseaux intégrés de services aux personnes âgées. - 3.1.2. Les courts séjours gériatriques. - 3.1.3. Autres solutions. - 3.2. Prévention. - 3.2.1. Prévention des chutes. - 3.2.2. La prévention par l'information aux personnes âgées. - 3.2.3. La prévention par l'information à l'ensemble de la population
Resumo:
[Table des matières] 1. Introduction: que vais-je apprendre? - quelques définitions - recommandations pour une activité physique favorable à la santé - comment mesure-t-on l'activité physique? - déterminants de l'activité physique. - 2. Épidémiologie de la sédentarité: prévalence de la sédentarité - coûts imputables à la sédentarité. - 3. Bénéfices pour la santé: un effet dose-réponse non linéaire - estimation des bénéfices de l'activité physique. - 4. Rôle du médecin de premier recours. - 5. Prise en charge: description générale d'un modèle de prise en charge - comment s'y prendre dans les détails - appréciation des risques liés à l'activité physique. - 6. Exemples d'outils: brochure pour les patients - podomètre: 10000 pas quotidiens pour sa santé! - 7. Autres ressources à disposition: site internet: www.paprica.ch. - glossaire [Introduction (extrait)] Ce manuel décrit la perspective et le rôle du médecin de premier recours dans la promotion d'une activité physique bénéfique pour la santé. Il s'inscrit, avec la brochure d'accompagnement destinée aux patients, dans un concept global de promotion de l'activité physique au cabinet médical. Développé pour être le plus concis possible, ce manuel fait la synthèse des connaissances et des savoir-faire utiles à la pratique du conseil en activité physique au cabinet médical.
Resumo:
Introduction et objectif: Lors d'essais cliniques, le pharmacien est responsable de la préparation et de la dispensation des médicaments à évaluer. Un article récent a toutefois montré que les aspects pharmaceutiques liés au contrôle de la dose administrée in fine étaient souvent mal contrôlés. Il peut exister une différence entre la dose nominale fournie par le certificat d'analyse du fabricant et la dose réellement administrée au sujet, biais qui se reporte en cascade sur l'estimation des paramètres pharmaco¬cinétiques (PK), comme la clairance ou le volume de distribution. Ce travail visait à évaluer les biais entachant la quantité de médicament réellement injectée (iv/sc) aux volontaires d'un essai clinique étudiant la PK et la relation dose-réponse d'un nouveau produit biotechnologique. Méthode: La dose de médicament administrée lors de l'essai clinique (D) a été calculée de la manière suivante: D = C ? V - pertes. La concentration du produit (C; titre nominal du fabricant) a été vérifiée par immuno-essai. Le volume de médicament injecté (V) a été déterminé pour chaque injection par pesée (n=72), en utilisant la masse de la seringue avant et après injection et la densité du produit. Enfin, une analyse in vitro a permis d'évaluer les pertes liées à l'adsorption du produit dans les lignes de perfusion et de choisir le dispositif adéquat in vivo. Résultats: La concentration du médicament s'est révélée proche du titre nominal (96 ± 7%), et a été utilisée comme référence. Le volume injecté était quant à lui entaché d'un biais systématique par rapport à la valeur théorique correspondant à 0.03 mL pour la dose minimale (i.e. 75% du volume à injecter à cette dose). Une analyse complémentaire a montré que cela s'expliquait par une réaspiration partielle de la solution médica-menteuse avant le retrait de la seringue après injection sc, due à l'élasticité du piston. En iv, le biais était par contre provoqué par une réaspiration du soluté de perfusion co-administré. Enfin, la mesure des quantités de médicament récupérées après injection dans le dispositif de perfusion a démontré des pertes minimales par adsorption. Discussion-conclusion: Cette étude confirme l'existence de biais inversement corrélés au volume et à la concentration du médicament administré, pouvant provoquer des erreurs importantes sur les paramètres PK. Ce problème est négligé ou insuffisamment considéré dans les protocoles de Phase I et nécessiterait une planification rigoureuse. Les procédures opératoires devraient attirer l'attention sur ce point crucial.
Resumo:
Les objectifs de cette étude sont: 1) une étude de faisabilité concernant l'utilisation des statistiques hospitalières suisses pour les Diagnosis Related Groups (DRG); - 2) une étude de la pertinence des DRG appliqués à l'activité hospitalière suisse; 3) une estimation des coûts par DRG; 4) le développement de quelques exemples d'application des DRG.
Resumo:
In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.
Resumo:
Cet article contribue au modèle d'estimation des crues extrêmes, utilisant une pluie distribuée dans le temps et dans l'espace, à laide des nuages et de la direction du vent. Une méthode de distribution spatio-temporelle de la pluie a d'abord été réalisée. Le modèle utilisant des événements de crue réelle mesurée sur un bassin test de la Suisse a ensuite été calibré. Enfin, la modélisation de la fonte des neiges, basée sur le transfert de chaleur est décrite en tenant compte de l'hypothèse que toutes les sources de chaleur (rayonnement solaire, chaleur du sol et de l'air) agissent lentement sauf la pluie, qui, même très faible, peut provoquer des inondations considérables. Ces facteurs ajoutés rendent le modèle développé plus proche de la réalité. Ils offrent une flexibilité dans les conditions initiales auxquelles s'ajoutent la durée de la pluie, la vitesse et la direction du vent et fournissent ainsi une image complète sur l'hydrogramme de crue.
Resumo:
Introduction et objectif: Lors d'essais cliniques, le pharmacien est responsable de la préparation et de la dispensation des médicaments à évaluer. Un article récent a toutefois montré que les aspects pharmaceutiques liés au contrôle de la dose administrée in fine étaient souvent mal contrôlés. Il peut exister une différence entre la dose nominale fournie par le certificat d'analyse du fabricant et la dose réellement administrée au sujet, biais qui se reporte en cascade sur l'estimation des paramètres pharmacocinétiques (PK), comme la clairance ou le volume de distribution. Ce travail visait à évaluer les biais entachant la quantité de médicament réellement injectée (iv/sc) aux volontaires d'un essai clinique étudiant la PK et la relation dose-réponse d'un nouveau produit biotechnologique. Méthode: La dose de médicament administrée lors de l'essai clinique (D) a été calculée de la manière suivante: D = C * V - pertes. La concentration du produit (C; titre nominal du fabricant) a été vérifiée par immuno-essai. Le volume de médicament injecté (V) a été déterminé pour chaque injection par pesée (n=72), en utilisant la masse de la seringue avant et après injection et la densité du produit. Enfin, une analyse in vitro a permis d'évaluer les pertes liées à l'adsorption du produit dans les lignes de perfusion et de choisir le dispositif adéquat in vivo. Résultats: La concentration du médicament s'est révélée proche du titre nominal (96 ± 7%), et a été utilisée comme référence. Le volume injecté était quant à lui entaché d'un biais systématique par rapport à la valeur théorique correspondant à 0.03 mL pour la dose minimale (i.e. 75% du volume à injecter à cette dose). Une analyse complémentaire a montré que cela s'expliquait par une réaspiration partielle de la solution médica-menteuse avant le retrait de la seringue après injection sc, due à l'élasticité du piston. En iv, le biais était par contre provoqué par une réaspiration du soluté de perfusion co-administré. Enfin, la mesure des quantités de médicament récupérées après injection dans le dispositif de perfusion a démontré des pertes minimales par adsorption. Discussion-conclusion: Cette étude confirme l'existence de biais inversement corrélés au volume et à la concentration du médicament administré, pouvant provoquer des erreurs importantes sur les paramètres PK. Ce problème est négligé ou insuffisamment considéré dans les protocoles de Phase I et nécessiterait une planification rigoureuse. Les procédures opératoires devraient attirer l'attention sur ce point crucial.
Resumo:
[Table des matières] 1. Introduction: que vais-je apprendre? - quelques définitions - recommandations pour une activité physique favorable à la santé - comment mesure-t-on l'activité physique? - déterminants de l'activité physique. - 2. Épidémiologie de la sédentarité: prévalence de la sédentarité - coûts imputables à la sédentarité. - 3. Bénéfices pour la santé: un effet dose-réponse non linéaire - estimation des bénéfices de l'activité physique. - 4. Rôle du médecin de premier recours. - 5. Prise en charge: description générale d'un modèle de prise en charge - comment s'y prendre dans les détails - appréciation des risques liés à l'activité physique. - 6. Exemples d'outils: brochure pour les patients - podomètre: 10000 pas quotidiens pour sa santé! - 7. Autres ressources à disposition: site internet: www.paprica.ch. - Glossaire [Introduction (extrait)] Ce manuel décrit la perspective et le rôle du médecin de premier recours dans la promotion d'une activité physique bénéfique pour la santé. Il s'inscrit, avec la brochure d'accompagnement destinée aux patients, dans un concept global de promotion de l'activité physique au cabinet médical. Développé pour être le plus concis possible, ce manuel fait la synthèse des connaissances et des savoir-faire utiles à la pratique du conseil en activité physique au cabinet médical.
Resumo:
THESIS ABSTRACT : Low-temperature thermochronology relies on application of radioisotopic systems whose closure temperatures are below temperatures at which the dated phases are formed. In that sense, the results are interpreted as "cooling ages" in contrast to "formation ages". Owing to the low closure-temperatures, it is possible to reconstruct exhumation and cooling paths of rocks during their residence at shallow levels of the crust, i.e. within first ~10 km of depth. Processes occurring at these shallow depths such as final exhumation, faulting and relief formation are fundamental for evolution of the mountain belts. This thesis aims at reconstructing the tectono-thermal history of the Aar massif in the Central Swiss Alps by means of zircon (U-Th)/He, apatite (U-Th)/He and apatite fission track thermochronology. The strategy involved acquisition of a large number of samples from a wide range of elevations in the deeply incised Lötschen valley and a nearby NEAT tunnel. This unique location allowed to precisely constrain timing, amount and mechanisms of exhumation of the main orographic feature of the Central Alps, evaluate the role of topography on the thermochronological record and test the impact of hydrothermal activity. Samples were collected from altitudes ranging between 650 and 3930 m and were grouped into five vertical profiles on the surface and one horizontal in the tunnel. Where possible, all three radiometric systems were applied to each sample. Zircon (U-Th)/He ages range from 5.1 to 9.4 Ma and are generally positively correlated with altitude. Age-elevation plots reveal a distinct break in slope, which translates into exhumation rate increasing from ~0.4 to ~3 km/Ma at 6 Ma. This acceleration is independently confirmed by increased cooling rates on the order of 100°C/Ma constrained on the basis of age differences between the zircon (U-Th)/He and the remaining systems. Apatite fission track data also plot on a steep age-elevation curve indicating rapid exhumation until the end of the Miocene. The 6 Ma event is interpreted as reflecting tectonically driven uplift of the Aar massif. The late Miocene timing implies that the increase of precipitation in the Pliocene did not trigger rapid exhumation in the Aar massif. The Messinian salinity crisis in the Mediterranean could not directly intensify erosion of the Aar but associated erosional output from the entire Alps may have tapered the orogenic wedge and caused reactivation of thrusting in the Aar massif. The high exhumation rates in the Messinian were followed by a decrease to ~1.3 km/Ma as evidenced by ~8 km of exhumation during last 6 Ma. The slowing of exhumation is also apparent from apatite (U-Th)1He age-elevation data in the northern part of the Lötschen valley where they plot on a ~0.5km/Ma line and range from 2.4 to 6.4 Ma However, from the apatite (U-Th)/He and fission track data from the NEAT tunnel, there is an indication of a perturbation of the record. The apatite ages are youngest under the axis of the valley, in contrast to an expected pattern where they would be youngest in the deepest sections of the tunnel due to heat advection into ridges. The valley however, developed in relatively soft schists while the ridges are built of solid granitoids. In line with hydrological observations from the tunnel, we suggest that the relatively permeable rocks under the valley floor, served as conduits of geothermal fluids that caused reheating leading to partial Helium loss and fission track annealing in apatites. In consequence, apatite ages from the lowermost samples are too young and the calculated exhumation rates may underestimate true values. This study demonstrated that high-density sampling is indispensable to provide meaningful thermochronological data in the Alpine setting. The multi-system approach allows verifying plausibility of the data and highlighting sources of perturbation. RÉSUMÉ DE THÈSE : La thermochronologie de basse température dépend de l'utilisation de systèmes radiométriques dont la température de fermeture est nettement inférieure à la température de cristallisation du minéral. Les résultats obtenus sont par conséquent interprétés comme des âges de refroidissement qui diffèrent des âges de formation obtenus par le biais d'autres systèmes de datation. Grâce aux températures de refroidissement basses, il est aisé de reconstruire les chemins de refroidissement et d'exhumation des roches lors de leur résidence dans la croute superficielle (jusqu'à 10 km). Les processus qui entrent en jeu à ces faibles profondeurs tels que l'exhumation finale, la fracturation et le faillage ainsi que la formation du relief sont fondamentaux dans l'évolution des chaînes de montagne. Ces dernières années, il est devenu clair que l'enregistrement thermochronologique dans les orogènes peut être influencé par le relief et réinitialisé par l'advection de la chaleur liée à la circulation de fluides géothermaux après le refroidissement initial. L'objectif de cette thèse est de reconstruire l'histoire tectono-thermique du massif de l'Aar dans les Alpes suisses Centrales à l'aide de trois thermochronomètres; (U-Th)/He sur zircon, (U-Th)/He sur apatite et les traces de fission sur apatite. Afin d'atteindre cet objectif, nous avons récolté un grand nombre d'échantillons provenant de différentes altitudes dans la vallée fortement incisée de Lötschental ainsi que du tunnel de NEAT. Cette stratégie d'échantillonnage nous a permis de contraindre de manière précise la chronologie, les quantités et les mécanismes d'exhumation de cette zone des Alpes Centrales, d'évaluer le rôle de la topographie sur l'enregistrement thermochronologique et de tester l'impact de l'hydrothermalisme sur les géochronomètres. Les échantillons ont été prélevés à des altitudes comprises entre 650 et 3930m selon 5 profils verticaux en surface et un dans le tunnel. Quand cela à été possible, les trois systèmes radiométriques ont été appliqués aux échantillons. Les âges (U-Th)\He obtenus sur zircons sont compris entre 5.l et 9.4 Ma et sont corrélés de manière positive avec l'altitude. Les graphiques représentant l'âge et l'élévation montrent une nette rupture de la pente qui traduisent un accroissement de la vitesse d'exhumation de 0.4 à 3 km\Ma il y a 6 Ma. Cette accélération de l'exhumation est confirmée par les vitesses de refroidissement de l'ordre de 100°C\Ma obtenus à partir des différents âges sur zircons et à partir des autres systèmes géochronologiques. Les données obtenues par traces de fission sur apatite nous indiquent également une exhumation rapide jusqu'à la fin du Miocène. Nous interprétons cet évènement à 6 Ma comme étant lié à l'uplift tectonique du massif de l'Aar. Le fait que cet évènement soit tardi-miocène implique qu'une augmentation des précipitations au Pliocène n'a pas engendré cette exhumation rapide du massif de l'Aar. La crise Messinienne de la mer méditerranée n'a pas pu avoir une incidence directe sur l'érosion du massif de l'Aar mais l'érosion associée à ce phénomène à pu réduire le coin orogénique alpin et causer la réactivation des chevauchements du massif de l'Aar. L'exhumation rapide Miocène a été suivie pas une diminution des taux d'exhumation lors des derniers 6 Ma (jusqu'à 1.3 km\Ma). Cependant, les âges (U-Th)\He sur apatite ainsi que les traces de fission sur apatite des échantillons du tunnel enregistrent une perturbation de l'enregistrement décrit ci-dessus. Les âges obtenus sur les apatites sont sensiblement plus jeunes sous l'axe de la vallée en comparaison du profil d'âges attendus. En effet, on attendrait des âges plus jeunes sous les parties les plus profondes du tunnel à cause de l'advection de la chaleur dans les flancs de la vallée. La vallée est creusée dans des schistes alors que les flancs de celle-ci sont constitués de granitoïdes plus durs. En accord avec les observations hydrologiques du tunnel, nous suggérons que la perméabilité élevée des roches sous l'axe de la vallée à permi l'infiltration de fluides géothermaux qui a généré un réchauffement des roches. Ce réchauffement aurait donc induit une perte d'Hélium et un recuit des traces de fission dans les apatites. Ceci résulterait en un rajeunissement des âges apatite et en une sous-estimation des vitesses d'exhumation sous l'axe de la vallée. Cette étude à servi à démontrer la nécessité d'un échantillonnage fin et précis afin d'apporter des données thermochronologiques de qualité dans le contexte alpin. Cette approche multi-système nous a permi de contrôler la pertinence des données acquises ainsi que d'identifier les sources possibles d'erreurs lors d'études thermochronologiques. RÉSUMÉ LARGE PUBLIC Lors d'une orogenèse, les roches subissent un cycle comprenant une subduction, de la déformation, du métamorphisme et, finalement, un retour à la surface (ou exhumation). L'exhumation résulte de la déformation au sein de la zone de collision, menant à un raccourcissement et un apaissessement de l'édifice rocheux, qui se traduit par une remontée des roches, création d'une topographie et érosion. Puisque l'érosion agit comme un racloir sur la partie supérieure de l'édifice, des tentatives de corrélation entre les épisodes d'exhumation rapide et les périodes d'érosion intensive, dues aux changements climatiques, ont été effectuées. La connaissance de la chronologie et du lieu précis est d'une importance capitale pour une quelconque reconstruction de l'évolution d'une chaîne de montagne. Ces critères sont donnés par un retraçage des changements de la température de la roche en fonction du temps, nous donnant le taux de refroidissement. L'instant auquel les roches ont refroidit, passant une certaine température, est contraint par l'application de techniques de datation par radiométrie. Ces méthodes reposent sur la désintégration des isotopes radiogéniques, tels que l'uranium et le potassium, tous deux abondants dans les roches de la croûte terrestre. Les produits de cette désintégration ne sont pas retenus dans les minéraux hôtes jusqu'au moment du refroidissement de la roche sous une température appelée 'de fermeture' , spécifique à chaque système de datation. Par exemple, la désintégration radioactive des atomes d'uranium et de thorium produit des atomes d'hélium qui s'échappent d'un cristal de zircon à des températures supérieures à 200°C. En mesurant la teneur en uranium-parent, l'hélium accumulé et en connaissant le taux de désintégration, il est possible de calculer à quel moment la roche échantillonnée est passée sous la température de 200°C. Si le gradient géothermal est connu, les températures de fermeture peuvent être converties en profondeurs actuelles (p. ex. 200°C ≈ 7km), et le taux de refroidissement en taux d'exhumation. De plus, en datant par système radiométrique des échantillons espacés verticalement, il est possible de contraindre directement le taux d'exhumation de la section échantillonnée en observant les différences d'âges entre des échantillons voisins. Dans les Alpes suisses, le massif de l'Aar forme une structure orographique majeure. Avec des altitudes supérieures à 4000m et un relief spectaculaire de plus de 2000m, le massif domine la partie centrale de la chaîne de montagne. Les roches aujourd'hui exposées à la surface ont été enfouies à plus de 10 km de profond il y a 20 Ma, mais la topographie actuelle du massif de l'Aar semble surtout s'être développée par un soulèvement actif depuis quelques millions d'années, c'est-à-dire depuis le Néogène supérieur. Cette période comprend un changement climatique soudain ayant touché l'Europe il y a environ 5 Ma et qui a occasionné de fortes précipitations, entraînant certainement une augmentation de l'érosion et accélérant l'exhumation des Alpes. Dans cette étude, nous avons employé le système de datation (U-TH)/He sur zircon, dont la température de fermeture de 200°C est suffisamment basse pour caractériser l'exhumation du Néogène sup. /Pliocène. Les échantillons proviennent du Lötschental et du tunnel ferroviaire le plus profond du monde (NEAT) situé dans la partie ouest du massif de l'Aar. Considérés dans l'ensemble, ces échantillons se répartissent sur un dénivelé de 3000m et des âges de 5.1 à 9.4 Ma. Les échantillons d'altitude supérieure (et donc plus vieux) documentent un taux d'exhumation de 0.4 km/Ma jusqu'à il y a 6 Ma, alors que les échantillons situés les plus bas ont des âges similaires allant de 6 à 5.4 Ma, donnant un taux jusqu'à 3km /Ma. Ces données montrent une accélération dramatique de l'exhumation du massif de l'Aar il y a 6 Ma. L'exhumation miocène sup. du massif prédate donc le changement climatique Pliocène. Cependant, lors de la crise de salinité d'il y a 6-5.3 Ma (Messinien), le niveau de la mer Méditerranée est descendu de 3km. Un tel abaissement de la surface d'érosion peut avoir accéléré l'exhumation des Alpes, mais le bassin sud alpin était trop loin du massif de l'Aar pour influencer son érosion. Nous arrivons à la conclusion que la datation (U-Th)/He permet de contraindre précisément la chronologie et l'exhumation du massif de l'Aar. Concernant la dualité tectonique-érosion, nous suggérons que, dans le cas du massif de l'Aar, la tectonique prédomine.
Resumo:
Rapport de synthèse : But: comparer les taux d'infections du site chirurgical (ISC) en fonction de la voie d'abord, ouverte ou laparoscopique, pour 3 procédures : l'appendicectomie, la cholécystectomie et la colectomie. Evaluer l'effet de la laparoscopie sur l'ISC pour ces trois interventions. Contexte : la laparoscopie est associée à de nombreux avantages par rapport à la chirurgie ouverte. Parmi ceux-ci, des taux inférieurs d'ISC ont été rapportés lors de laparoscopie. Ceci a été décrit en particulier lors de cholécystectomie. Mais des biais tels que le manque de suivi après la sortie de l'hôpital, et certains facteurs confondants, auraient pu contribuer à l'observation de différences entre ces deux techniques. Méthode : étude descriptive basée sur des données collectées entre mars 1998 et décembre 2004 de manière prospective dans le cadre d'un programme de surveillance des ISC dans 8 hôpitaux suisses. Ce programme comportait un suivi standardisé après le départ de l'hôpital. Les taux d'ISC ont été comparés après interventions faites par laparoscopie et chirurgie ouverte. Différents paramètres pouvant influencer la survenue d'une infection ont été identifiés en utilisant des modèles de régression logistiques. Résultats : les taux d'ISC après interventions par laparoscopie et par voie ouverte ont été respectivement de 59/1051 (5.6%) versus 117/1417 (8.3%) après appendicectomie (p = 0.01), 46/2606 (1.7%) versus 35/144 (7.9%) après cholécystectomie (p < 0.0001), et 35/311 (11.3%) versus 400/1781 (22.5%) après colectomie (p < 0,0001). Après ajustement, les interventions par laparoscopie étaient associées à un taux inférieur d'ISC : odds ratio = 0.61 (IC 95% : 0.43 - 0.87) pour l'appendicectomie, 0.27 (0.16 - 0.43) pour la cholécystectomie et 0.43 (0.29 - 0.63) pour la colectomie. Discussion et conclusion : bien que les patients aient quitté plus tôt l'hôpital après une intervention laparoscopique, leur suivi à un mois a été identique, ce qui a permis d'éviter une sous-estimation des ISC après chirurgie laparoscopique. De plus, l'analyse multivariée a inclus de nombreux facteurs potentiellement confondants, et l'utilisation de la laparoscopie était indépendamment et significativement liée à un effet protecteur à l'égard de l'ISC. La laparoscopie lors d'appendicectomie, cholécystectomie et colectomie semble diminuer le taux d'ISC en comparaison à la même chirurgie pratiquée par voie ouverte. Lorsqu'elle est faisable, cette voie d'abord minimalement invasive devrait être préférée à la chirurgie ouverte.
Resumo:
Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.
Resumo:
Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.