996 resultados para Informations notionnelles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Landscapes are continuously changing. Natural forces of change such as heavy rainfall and fires can exert lasting influences on their physical form. However, changes related to human activities have often shaped landscapes more distinctly. In Western Europe, especially modern agricultural practices and the expanse of overbuilt land have left their marks in the landscapes since the middle of the 20th century. In the recent years men realised that mare and more changes that were formerly attributed to natural forces might indirectly be the result of their own action. Perhaps the most striking landscape change indirectly driven by human activity we can witness in these days is the large withdrawal of Alpine glaciers. Together with the landscapes also habitats of animal and plant species have undergone vast and sometimes rapid changes that have been hold responsible for the ongoing loss of biodiversity. Thereby, still little knowledge is available about probable effects of the rate of landscape change on species persistence and disappearance. Therefore, the development and speed of land use/land cover in the Swiss communes between the 1950s and 1990s were reconstructed using 10 parameters from agriculture and housing censuses, and were further correlated with changes in butterfly species occurrences. Cluster analyses were used to detect spatial patterns of change on broad spatial scales. Thereby, clusters of communes showing similar changes or transformation rates were identified for single decades and put into a temporally dynamic sequence. The obtained picture on the changes showed a prevalent replacement of non-intensive agriculture by intensive practices, a strong spreading of urban communes around city centres, and transitions towards larger farm sizes in the mountainous areas. Increasing transformation rates toward more intensive agricultural managements were especially found until the 1970s, whereas afterwards the trends were commonly negative. However, transformation rates representing the development of residential buildings showed positive courses at any time. The analyses concerning the butterfly species showed that grassland species reacted sensitively to the density of livestock in the communes. This might indicate the augmented use of dry grasslands as cattle pastures that show altered plant species compositions. Furthermore, these species also decreased in communes where farms with an agricultural area >5ha have disappeared. The species of the wetland habitats were favoured in communes with smaller fractions of agricultural areas and lower densities of large farms (>10ha) but did not show any correlation to transformation rates. It was concluded from these analyses that transformation rates might influence species disappearance to a certain extent but that states of the environmental predictors might generally outweigh the importance of the corresponding rates. Information on the current distribution of species is evident for nature conservation. Planning authorities that define priority areas for species protection or examine and authorise construction projects need to know about the spatial distribution of species. Hence, models that simulate the potential spatial distribution of species have become important decision tools. The underlying statistical analyses such as the widely used generalised linear models (GLM) often rely on binary species presence-absence data. However, often only species presence data have been colleted, especially for vagrant, rare or cryptic species such as butterflies or reptiles. Modellers have thus introduced randomly selected absence data to design distribution models. Yet, selecting false absence data might bias the model results. Therefore, we investigated several strategies to select more reliable absence data to model the distribution of butterfly species based on historical distribution data. The results showed that better models were obtained when historical data from longer time periods were considered. Furthermore, model performance was additionally increased when long-term data of species that show similar habitat requirements as the modelled species were used. This successful methodological approach was further applied to assess consequences of future landscape changes on the occurrence of butterfly species inhabiting dry grasslands or wetlands. These habitat types have been subjected to strong deterioration in the recent decades, what makes their protection a future mission. Four spatially explicit scenarios that described (i) ongoing land use changes as observed between 1985 and 1997, (ii) liberalised agricultural markets, and (iii) slightly and (iv) strongly lowered agricultural production provided probable directions of landscape change. Current species-environment relationships were derived from a statistical model and used to predict future occurrence probabilities in six major biogeographical regions in Switzerland, comprising the Jura Mountains, the Plateau, the Northern and Southern Alps, as well as the Western and Eastern Central Alps. The main results were that dry grasslands species profited from lowered agricultural production, whereas overgrowth of open areas in the liberalisation scenario might impair species occurrence. The wetland species mostly responded with decreases in their occurrence probabilities in the scenarios, due to a loss of their preferred habitat. Further analyses about factors currently influencing species occurrences confirmed anthropogenic causes such as urbanisation, abandonment of open land, and agricultural intensification. Hence, landscape planning should pay more attention to these forces in areas currently inhabited by these butterfly species to enable sustainable species persistence. In this thesis historical data were intensively used to reconstruct past developments and to make them useful for current investigations. Yet, the availability of historical data and the analyses on broader spatial scales has often limited the explanatory power of the conducted analyses. Meaningful descriptors of former habitat characteristics and abundant species distribution data are generally sparse, especially for fine scale analyses. However, this situation can be ameliorated by broadening the extent of the study site and the used grain size, as was done in this thesis by considering the whole of Switzerland with its communes. Nevertheless, current monitoring projects and data recording techniques are promising data sources that might allow more detailed analyses about effects of long-term species reactions on landscape changes in the near future. This work, however, also showed the value of historical species distribution data as for example their potential to locate still unknown species occurrences. The results might therefore contribute to further research activities that investigate current and future species distributions considering the immense richness of historical distribution data. Résumé Les paysages changent continuellement. Des farces naturelles comme des pluies violentes ou des feux peuvent avoir une influence durable sur la forme du paysage. Cependant, les changements attribués aux activités humaines ont souvent modelé les paysages plus profondément. Depuis les années 1950 surtout, les pratiques agricoles modernes ou l'expansion des surfaces d'habitat et d'infrastructure ont caractérisé le développement du paysage en Europe de l'Ouest. Ces dernières années, l'homme a commencé à réaliser que beaucoup de changements «naturels » pourraient indirectement résulter de ses propres activités. Le changement de paysage le plus apparent dont nous sommes témoins de nos jours est probablement l'immense retraite des glaciers alpins. Avec les paysages, les habitats des animaux et des plantes ont aussi été exposés à des changements vastes et quelquefois rapides, tenus pour coresponsable de la continuelle diminution de la biodiversité. Cependant, nous savons peu des effets probables de la rapidité des changements du paysage sur la persistance et la disparition des espèces. Le développement et la rapidité du changement de l'utilisation et de la couverture du sol dans les communes suisses entre les années 50 et 90 ont donc été reconstruits au moyen de 10 variables issues des recensements agricoles et résidentiels et ont été corrélés avec des changements de présence des papillons diurnes. Des analyses de groupes (Cluster analyses) ont été utilisées pour détecter des arrangements spatiaux de changements à l'échelle de la Suisse. Des communes avec des changements ou rapidités comparables ont été délimitées pour des décennies séparées et ont été placées en séquence temporelle, en rendrent une certaine dynamique du changement. Les résultats ont montré un remplacement répandu d'une agriculture extensive des pratiques intensives, une forte expansion des faubourgs urbains autour des grandes cités et des transitions vers de plus grandes surfaces d'exploitation dans les Alpes. Dans le cas des exploitations agricoles, des taux de changement croissants ont été observés jusqu'aux années 70, alors que la tendance a généralement été inversée dans les années suivantes. Par contre, la vitesse de construction des nouvelles maisons a montré des courbes positives pendant les 50 années. Les analyses sur la réaction des papillons diurnes ont montré que les espèces des prairies sèches supportaient une grande densité de bétail. Il est possible que dans ces communes beaucoup des prairies sèches aient été fertilisées et utilisées comme pâturages, qui ont une autre composition floristique. De plus, les espèces ont diminué dans les communes caractérisées par une rapide perte des fermes avec une surface cultivable supérieure à 5 ha. Les espèces des marais ont été favorisées dans des communes avec peu de surface cultivable et peu de grandes fermes, mais n'ont pas réagi aux taux de changement. Il en a donc été conclu que la rapidité des changements pourrait expliquer les disparitions d'espèces dans certains cas, mais que les variables prédictives qui expriment des états pourraient être des descripteurs plus importants. Des informations sur la distribution récente des espèces sont importantes par rapport aux mesures pour la conservation de la nature. Pour des autorités occupées à définir des zones de protection prioritaires ou à autoriser des projets de construction, ces informations sont indispensables. Les modèles de distribution spatiale d'espèces sont donc devenus des moyens de décision importants. Les méthodes statistiques courantes comme les modèles linéaires généralisés (GLM) demandent des données de présence et d'absence des espèces. Cependant, souvent seules les données de présence sont disponibles, surtout pour les animaux migrants, rares ou cryptiques comme des papillons ou des reptiles. C'est pourquoi certains modélisateurs ont choisi des absences au hasard, avec le risque d'influencer le résultat en choisissant des fausses absences. Nous avons établi plusieurs stratégies, basées sur des données de distribution historique des papillons diurnes, pour sélectionner des absences plus fiables. Les résultats ont démontré que de meilleurs modèles pouvaient être obtenus lorsque les données proviennent des périodes de temps plus longues. En plus, la performance des modèles a pu être augmentée en considérant des données de distribution à long terme d'espèces qui occupent des habitats similaires à ceux de l'espèce cible. Vu le succès de cette stratégie, elle a été utilisée pour évaluer les effets potentiels des changements de paysage futurs sur la distribution des papillons des prairies sèches et marais, deux habitats qui ont souffert de graves détériorations. Quatre scénarios spatialement explicites, décrivant (i) l'extrapolation des changements de l'utilisation de sol tels qu'observés entre 1985 et 1997, (ii) la libéralisation des marchés agricoles, et une production agricole (iii) légèrement amoindrie et (iv) fortement diminuée, ont été utilisés pour générer des directions de changement probables. Les relations actuelles entre la distribution des espèces et l'environnement ont été déterminées par le biais des modèles statistiques et ont été utilisées pour calculer des probabilités de présence selon les scénarios dans six régions biogéographiques majeures de la Suisse, comportant le Jura, le Plateau, les Alpes du Nord, du Sud, centrales orientales et centrales occidentales. Les résultats principaux ont montré que les espèces des prairies sèches pourraient profiter d'une diminution de la production agricole, mais qu'elles pourraient aussi disparaître à cause de l'embroussaillement des terres ouvertes dû à la libéralisation des marchés agricoles. La probabilité de présence des espèces de marais a décrû à cause d'une perte générale des habitats favorables. De plus, les analyses ont confirmé que des causes humaines comme l'urbanisation, l'abandon des terres ouvertes et l'intensification de l'agriculture affectent actuellement ces espèces. Ainsi ces forces devraient être mieux prises en compte lors de planifications paysagères, pour que ces papillons diurnes puissent survivre dans leurs habitats actuels. Dans ce travail de thèse, des données historiques ont été intensivement utilisées pour reconstruire des développements anciens et pour les rendre utiles à des recherches contemporaines. Cependant, la disponibilité des données historiques et les analyses à grande échelle ont souvent limité le pouvoir explicatif des analyses. Des descripteurs pertinents pour caractériser les habitats anciens et des données suffisantes sur la distribution des espèces sont généralement rares, spécialement pour des analyses à des échelles fores. Cette situation peut être améliorée en augmentant l'étendue du site d'étude et la résolution, comme il a été fait dans cette thèse en considérant toute la Suisse avec ses communes. Cependant, les récents projets de surveillance et les techniques de collecte de données sont des sources prometteuses, qui pourraient permettre des analyses plus détaillés sur les réactions à long terme des espèces aux changements de paysage dans le futur. Ce travail a aussi montré la valeur des anciennes données de distribution, par exemple leur potentiel pour aider à localiser des' présences d'espèces encore inconnues. Les résultats peuvent contribuer à des activités de recherche à venir, qui étudieraient les distributions récentes ou futures d'espèces en considérant l'immense richesse des données de distribution historiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à la découverte du génome, les patients peuvent bénéficier aujourd'hui, d'une approche préventive, prédictive, voire personnalisée de leur prise en charge. Si la médecine personnalisée devient courante, la « généralisation» de l'information génétique nous amènera probablement à établir de nouveaux standards sociaux et éthiques, car si celle-ci permet une plus grande efficacité dans les soins en aidant à la prise de décision, elle apporte une connaissance inédite de l'homme en terme de risque et de susceptibilité face à la maladie, mais aussi des informations propres à l'individu pouvant mener à la discrimination. Sommes- nous prêts à gérer cette information ? Dans ce travail, nous allons nous intéresser au traitement de l'information lors des tests génétiques en recherche. L'hypothèse de travail étant que l'information génétique est une nouvelle donnée biologique individuelle dont il faut tenir compte dans la prise en charge des participants à la recherche. Pour entamer la réflexion, une revue de la littérature a permis de mettre en évidence les spécificités de la recherche en génétique. Dans un deuxième temps, nous avons effectué une analyse comparative des feuilles d'information et des formulaires de consentement destinés aux participants à dix-sept protocoles de recherches impliquant des tests génétiques au CHUV à Lausanne en Suisse. Cette analyse a permis de faire un état des lieux des pratiques actuelles dans la région et elle est le point de départ d'une mise en perspective des enjeux éthiques liés la question. Les résultats montrent des inégalités entre les différentes feuilles d'information et formulaires de consentement de notre échantillon lausannois en ce qui concerne la restitution des résultats, la confidentialité des données ou encore la possibilité de participer à de futures recherches. Nous en concluons qu'il serait intéressant de travailler à une standardisation de ces documents et une éducation plus large à ce sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce rapport présente plusieurs axes relatifs aux jeux de hasard et d'argent et au jeu problématique. Comment comprendre l'évolution de ce type de problématique dans une société? C'est au travers d'une analyse sur les représentations sociales en Suisse romande que ce travail propose une piste de réflexion et ceci dans le but de dresser un état des lieux de ces thématiques telles qu'elles existent dans les consciences collectives. Les représentations sociales ont fait l'objet de nombreuses études en Amérique du Nord mais sont par contre plutôt rares en Suisse. Nous avons pu constater au fil de ce travail que les représentations sont teintées de prudence; la population générale sollicitée ne semble pas ignorer quels sont les écueils pouvant être générés par ces pratiques; mais, en revanche, d'autres résultats nous ont permis de comprendre que le jeu problématique n'est pas encore intégré par l'ensemble de la population puisque 42.6% n'en ont jamais entendu parler. Il y a donc une brèche à exploiter en la matière tant d'un point de vue préventif que scientifique. Afin d'apporter une réalité supplémentaire et concrète à ces considérations d'ordre subjectif, nous avons agrémenté ce rapport d'analyses propres à l'épidémiologie du jeu en Suisse, et ceci au travers des données relatives aux Enquêtes suisses sur la santé 2002 et 2007. Finalement, un certain nombre d'outils de mesure et de dépistage à l'égard du jeu pathologique ont été sélectionnés dans la littérature internationale, et ceci dans le but de mieux comprendre quels sont les critères privilégiés permettant de déterminer ou diagnostiquer un joueur à risque. Le présent rapport offre donc un éventail de ce que sont les jeux et de ce qu'ils représentent dans notre société et délivre des informations diverses sur leurs appréhensions tant au niveau individuel que médical et social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: comprendre que les connections cérébrales forment un réseau structurel complexe de grande taille, comprendre que l'organisation architecturale de ce réseau définit les propriétés fonctionnelles de ce dernier, comprendre qu'il y a une interdépendance intime entre la structure et la fonction , le métabolisme, comprendre que le réseau change au cours du développement ou lors de lésions ou maladie cérébrale. Messages à retenir: le cerveau est un réseau neuronal complexe qui peut être mesurer avec l'IRM, la connectivité cérébrale est inhomogène, la connectivité structurelle détermine largement la fonction cérébrale, les réseau neuronaux se modifient au cours de la vie et dans certaines maladies cérébrales. Résumé: La "connectomique" est un domaine émergeant et prometteur des neurosciences qui utilise l'IRM de diffusion en combinaison avec des traitements algorithmiques avancés afin de mesurer les trajectoires de faisceaux de fibres et la connectivité cérébrale permettant d'étudier l'organisation de la structure du réseau neuronal cérébral dans son ensemble. Lors de ce cours nous reverrons les méthodes rendant cette cartographie possible et exposerons les techniques d'analyse utilisées pour obtenir de nouvelles informations sur l'architecture cérébrale. Nous reverrons également un certains nombre d'exemple d'applications où la connectomique offre une nouvelle manière d'analyser et de comprendre le fonctionnement du cerveau normal ou malade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. - Le TBS ou Score Trabéculaire Osseux (TBS, Med- Imaps, France) est un index d'architecture osseuse apportant des informations indépendantes de la densité minérale osseuse (DMO), et calculé par la quantification des variations locales des niveaux de gris à partir d'examen de densitométrie (DXA) lombaire. Dans des études antérieures prospectives et cas-témoins, cet index a été considéré comme associé aux fractures. Nous avons comparé les effets du ranélate de strontium (RanSr) et de l'alendronate (ALN) sur l'architecture vertébrale à l'aide du TBS, chez des femmes ostéoporotiques ménopausées. Patients et méthodes. - Une analyse post hoc a été réalisée sur des DXA (Hologic and GE Lunar Devices) de 79 des 189 femmes incluses dans une étude en double aveugle et double placebo et réparties de façon randomisée entre un groupe à 2 g/jour de RanSr et un groupe à 70 mg/semaine d'ALN pendant 2 ans. Les paramètres de TBS ont été évalués en aveugle par TBS iNsight (v1,9) au niveau vertébral après 12 et 24 mois de traitement. Nous avons appliqué les règles de l'ISCD (International Society for Clinical Densitometry) pour chaque exclusion de vertèbre, de façon indépendante respectivement pour la DMO et le TBS. Des doubles mesures ayant été réalisées initialement, la reproductibilité est exprimée en % CV. Résultats. - Les caractéristiques initiales (moyenne ± DS) étaient identiques entre les groupes en termes d'âge, 69,2 ± 4,4 ans ; d'IMC, 23,8 ± 4,4 kg/m2 ; de T-score L1-L4, - 2,9 ± 0,9 et de TBS, 1,230 ± 0,09. Comme prévu, le coefficient de détermination entre la DMO et le TBS au niveau du rachis était très basse r2 = 0,12. Les reproductibilités brutes étaient respectivement de 1,1 et 1,6 % pour la DMO et le TBS au niveau vertébral. Après 1 et 2 ans, la DMO en L1-L4 a augmenté de façon significative de respectivement 5,6 % et 9 % dans le groupe RanSr et de respectivement 5,2 % et 7,6 % dans le groupe ALN. De même, le TBS au niveau vertébral a augmenté respectivement de 2,3 % (p < 0,001) et de 3,1 % (p < 0,001) dans le groupe RanSr et de 0,5 % (NS) et de 1 % (NS) dans le groupe ALN avec une différence entre groupe significative en faveur du RanSr (p = 0,04 et p = 0,03). Il n'y avait aucune corrélation entre la différence de DMO et de TBS à 1 ou 2 ans. Les deux traitements étaient bien tolérés. Discussion. - Ces résultats sur le TBS confortent des études précédentes qui sont en faveur de l'effet bénéfique du RanSr sur l'architecture osseuse. Conclusion. - Le ranélate de strontium a des effets plus importants que l'alendronate sur le score trabéculaire osseux, indice d'architecture osseuse au niveau vertébral, chez les femmes ayant une ostéoporose post-ménopausique, après 2 ans de traitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fin assemblage entre démarches théoriques et empiriques, l'ouvrage illustre les logiques sous-jacentes à la mondialisation du marché des footballeurs. Il présente des informations de première main sur le fonctionnement des réseaux de transfert, collectées par l'auteur au cours de dix années de recherches menées en Europe et en Afrique. Des données statistiques inédites, élaborées par l'Observatoire des footballeurs professionnels, et de nombreuses illustrations cartographiques rendent la lecture particulièrement agréable. L'analyse des réseaux et circuits migratoires des footballeurs permet de saisir le rôle décisif joué par de nombreux intermédiaires dans le développement d'un marché global de talents. L'ouvrage dévoile la manière dont agents, dirigeants de clubs et spéculateurs privés investissent sur des joueurs dans l'optique de mettre en place des chaînes de transferts à valeur ajoutée. Ce processus est exemplifié à travers l'étude du cas des footballeurs africains

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. - L'ostéoporose est caractérisée par une diminution de la DMO et une altération de la microarchitecture (MA). La MA est évaluable en routine clinique par la mesure du Trabecular Bone Score (TBS), par simple ré-analyse de l'image lombaire de la DMO. Le TBS a démontré sa valeur diagnostique et pronostique, partiellement indépendante des FRC et le la DMO. Le but de la cohorte OsteoLaus est de combiner en routine clinique les FRC et les informations données par la DXA (DMO, TBS, VFA) et FRAX pour mieux identifier les femmes à risque de fracture. Matériels et Méthodes. - Dans la cohorte OsteoLaus (1 500 femmes, 50 à 80 ans, Lausanne, Suisse) les FRC, la DMO lombaire et de la hanche, l'IVA, le TBS et le FRAX sont relevés. La sensibilité et la spécificité des différents outils pour prédire les fractures vertébrales (FxV) de grade 2/3 ont été calculées. Résultats. - Nous avons inclus 451 femmes : âge 67,4 ± 6,7 ans, IMC 26,1 ± 4,6, DMO lombaire 0,943 ± 0,168 (T-score -1,4 SD), TBS 1,271 ± 0,103. La corrélation entre DMO et TBS est faible (r2 = 0,16). La prévalence des FxV 2/3 est de 9,3 %. Conclusion. - L'IMC a un mauvais pouvoir discriminant dans notre cohorte. Ces résultats préliminaires confirment l'indépendance partielle entre le TBS et la DMO. Une approche combinant TBS et FRAX semble être le meilleur compromis en termes de sensibilité/spécificité pour identifier les femmes avec une FxV 2/3 prévalente qui aurait pu être mal classifiée par la DMO ou le TBS ou le FRAX seuls.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Swiss Haemophilia Registry of the Medical Committee of the Swiss Haemophilia Society was established in 2000. Primarily it bears epidemiological and basic clinical data (incidence, type and severity of the disease, age groups, centres, mortality). Two thirds of the questions of the WFH Global Survey can be answered, especially those concerning use of concentrates (global, per capita) and treatment modalities (on-demand versus prophylactic regimens). Moreover, the registry is an important tool for quality control of the haemophilia treatment centres. There are no informations about infectious diseases like hepatitis or HIV, due to non-anonymisation of the data. We plan to incorporate the results of the mutation analysis in the future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fortunato Bartolomeo De Felice (1723-1789) fut le maître d'oeuvre de l'Encyclopédie d'Yverdon (1770-1780), une refonte complète et originale de l'Encyclopédie de Diderot et d'Alembert. Inséré dans un vaste réseau scientifique et commercial, De Felice était en relation épistolaire avec de nombreux savants et libraires de l'Europe des Lumières. Restée presque entièrement inédite jusqu'à sa récente publication sous forme électronique, la correspondance de De Felice constitue une véritable mine d'informations : ces lettres apportent un éclairage précieux sur l'encyclopédisme, le marché du livre et la circulation des savoirs à la fin de l'Ancien Régime. La présente étude se propose de montrer en quoi cette riche correspondance documente de manière renouvelée la question des transferts culturels au XVIIIe siècle : à la lumière de cette source exceptionnelle, De Felice apparaît en effet comme un intermédiaire culturel de premier plan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En Suisse, la situation des requérants d'asile est réglementée depuis 1999 par la Loi sur l'Asile (LAsi) qui leur donnait droit jusqu'en 2008 à une aide sociale, que leur demande soit acceptée, refusée ou que les autorités responsables n'entrent pas en matière. Depuis janvier 2008, tout requérant d'asile ne recevant pas de réponse positive perd cette aide sociale au profit d'une aide dite « d'urgence », impliquant un durcissement des conditions de vie. Depuis lors, un Groupe de Travail « Critères de vulnérabilité » (GT-Vulnérabilité) se charge, sur mandat de l'Etablissement Vaudois d'Accueil des Migrants (EVAM), d'évaluer la situation de certaines personnes percevant l'aide d'urgence sur la base de rapports médicaux et psychiatriques. Il détermine premièrement si la personne doit être considérée comme « vulnérable » pour raison de santé et pose ensuite un préavis médical quant à la possibilité d'amélioration des conditions d'hébergement. Les personnes reconnues comme particulièrement vulnérables sont soumises à un régime différent, impliquant des avantages spécifiés dans l'aide d'urgence. Objectifs : Décrire l'état de santé physique mais surtout mental des personnes percevant l'Aide d'urgence, pour lesquelles une demande a été effectuée auprès de ce groupe et identifier des facteurs associés à cet état de santé. Présenter comment le système de soins organise sa prise en charge et explorer les implications sur la pratique médicale. Méthodologie : Revue exhaustive de la littérature afin de mieux comprendre le contexte social, le cadre légal et les questions éthiques qu'ils impliquent. A partir des dossiers traités par le GT- Vulnérabilité, établissement d'une base de données regroupant des informations d'ordre démographique, médical et anamnestique et analyse descriptive univariée. Résultats: De janvier 2008 à avril 2011, le GT-Vulnérabilité a traité 411 demandes. Parmi les personnes concernées, 52% viennent d'Afrique et sont principalement sans famille. Le GT- Vulnérabilité a pu rendre une décision dans 79% des cas, donnant un préavis en faveur du requérant d'asile pour 82% d'entre eux. On retrouve plus fréquemment une réponse positive lorsqu'il s'agit d'une femme, ou d'une personne avec sa famille. L'étude des dossiers contenant un rapport de généraliste, a montré la présence d'au moins deux diagnostics somatiques chez 42% des personnes, concernant notamment les maladies infectieuses et parasitaires et des atteintes du système nerveux. On retrouve au moins un trouble psychiatrique dans 74% des cas. Il s'agit en particulier de troubles de l'humeur unipolaires et de syndromes de stress post-traumatiques. Les rapports psychiatriques ont également permis d'identifier l'existence de traumatismes chez 81% des personnes, associés surtout à la guerre, à des maltraitance et violences, dans le pays d'origine, mais aussi en Suisse. Conclusion : La situation médicale des requérants d'asile soumis au régime de l'aide d'urgence est préoccupante. Elle met le système de santé et ses divers protagonistes face à des questionnements et des enjeux d'ordre éthique et demande une nécessaire réflexion en termes de santé publique et de politique sanitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] Description du Centre de gériatrie et des autres institutions assurant la prise en charge des personnes âgées. Analyse des informations disponibles sur la population âgée et sa prise en charge dans le canton de Genève. Les analyses du CEGER (Centre de Gériatrie, consultation ambulatoire). Les médecins généralistes et internistes installés dans le canton de Genève. Le CEGER et les médecins installés. Consultation de psycho-gériatrie (COPSY).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés par des schémas décrivant les relations entre les évènements et les entités d'intérêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'évènements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre important d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer à posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de décisions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessiter de consolider les méthodes pratiquées.