1000 resultados para Statistiques ethniques
Resumo:
La tomodensitométrie (CT) est une technique d'imagerie dont l'intérêt n'a cessé de croître depuis son apparition dans le début des années 70. Dans le domaine médical, son utilisation est incontournable à tel point que ce système d'imagerie pourrait être amené à devenir victime de son succès si son impact au niveau de l'exposition de la population ne fait pas l'objet d'une attention particulière. Bien évidemment, l'augmentation du nombre d'examens CT a permis d'améliorer la prise en charge des patients ou a rendu certaines procédures moins invasives. Toutefois, pour assurer que le compromis risque - bénéfice soit toujours en faveur du patient, il est nécessaire d'éviter de délivrer des doses non utiles au diagnostic.¦Si cette action est importante chez l'adulte elle doit être une priorité lorsque les examens se font chez l'enfant, en particulier lorsque l'on suit des pathologies qui nécessitent plusieurs examens CT au cours de la vie du patient. En effet, les enfants et jeunes adultes sont plus radiosensibles. De plus, leur espérance de vie étant supérieure à celle de l'adulte, ils présentent un risque accru de développer un cancer radio-induit dont la phase de latence peut être supérieure à vingt ans. Partant du principe que chaque examen radiologique est justifié, il devient dès lors nécessaire d'optimiser les protocoles d'acquisitions pour s'assurer que le patient ne soit pas irradié inutilement. L'avancée technologique au niveau du CT est très rapide et depuis 2009, de nouvelles techniques de reconstructions d'images, dites itératives, ont été introduites afin de réduire la dose et améliorer la qualité d'image.¦Le présent travail a pour objectif de déterminer le potentiel des reconstructions itératives statistiques pour réduire au minimum les doses délivrées lors d'examens CT chez l'enfant et le jeune adulte tout en conservant une qualité d'image permettant le diagnostic, ceci afin de proposer des protocoles optimisés.¦L'optimisation d'un protocole d'examen CT nécessite de pouvoir évaluer la dose délivrée et la qualité d'image utile au diagnostic. Alors que la dose est estimée au moyen d'indices CT (CTDIV0| et DLP), ce travail a la particularité d'utiliser deux approches radicalement différentes pour évaluer la qualité d'image. La première approche dite « physique », se base sur le calcul de métriques physiques (SD, MTF, NPS, etc.) mesurées dans des conditions bien définies, le plus souvent sur fantômes. Bien que cette démarche soit limitée car elle n'intègre pas la perception des radiologues, elle permet de caractériser de manière rapide et simple certaines propriétés d'une image. La seconde approche, dite « clinique », est basée sur l'évaluation de structures anatomiques (critères diagnostiques) présentes sur les images de patients. Des radiologues, impliqués dans l'étape d'évaluation, doivent qualifier la qualité des structures d'un point de vue diagnostique en utilisant une échelle de notation simple. Cette approche, lourde à mettre en place, a l'avantage d'être proche du travail du radiologue et peut être considérée comme méthode de référence.¦Parmi les principaux résultats de ce travail, il a été montré que les algorithmes itératifs statistiques étudiés en clinique (ASIR?, VEO?) ont un important potentiel pour réduire la dose au CT (jusqu'à-90%). Cependant, par leur fonctionnement, ils modifient l'apparence de l'image en entraînant un changement de texture qui pourrait affecter la qualité du diagnostic. En comparant les résultats fournis par les approches « clinique » et « physique », il a été montré que ce changement de texture se traduit par une modification du spectre fréquentiel du bruit dont l'analyse permet d'anticiper ou d'éviter une perte diagnostique. Ce travail montre également que l'intégration de ces nouvelles techniques de reconstruction en clinique ne peut se faire de manière simple sur la base de protocoles utilisant des reconstructions classiques. Les conclusions de ce travail ainsi que les outils développés pourront également guider de futures études dans le domaine de la qualité d'image, comme par exemple, l'analyse de textures ou la modélisation d'observateurs pour le CT.¦-¦Computed tomography (CT) is an imaging technique in which interest has been growing since it first began to be used in the early 1970s. In the clinical environment, this imaging system has emerged as the gold standard modality because of its high sensitivity in producing accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase of the number of CT examinations performed has raised concerns about the potential negative effects of ionizing radiation on the population. To insure a benefit - risk that works in favor of a patient, it is important to balance image quality and dose in order to avoid unnecessary patient exposure.¦If this balance is important for adults, it should be an absolute priority for children undergoing CT examinations, especially for patients suffering from diseases requiring several follow-up examinations over the patient's lifetime. Indeed, children and young adults are more sensitive to ionizing radiation and have an extended life span in comparison to adults. For this population, the risk of developing cancer, whose latency period exceeds 20 years, is significantly higher than for adults. Assuming that each patient examination is justified, it then becomes a priority to optimize CT acquisition protocols in order to minimize the delivered dose to the patient. Over the past few years, CT advances have been developing at a rapid pace. Since 2009, new iterative image reconstruction techniques, called statistical iterative reconstructions, have been introduced in order to decrease patient exposure and improve image quality.¦The goal of the present work was to determine the potential of statistical iterative reconstructions to reduce dose as much as possible without compromising image quality and maintain diagnosis of children and young adult examinations.¦The optimization step requires the evaluation of the delivered dose and image quality useful to perform diagnosis. While the dose is estimated using CT indices (CTDIV0| and DLP), the particularity of this research was to use two radically different approaches to evaluate image quality. The first approach, called the "physical approach", computed physical metrics (SD, MTF, NPS, etc.) measured on phantoms in well-known conditions. Although this technique has some limitations because it does not take radiologist perspective into account, it enables the physical characterization of image properties in a simple and timely way. The second approach, called the "clinical approach", was based on the evaluation of anatomical structures (diagnostic criteria) present on patient images. Radiologists, involved in the assessment step, were asked to score image quality of structures for diagnostic purposes using a simple rating scale. This approach is relatively complicated to implement and also time-consuming. Nevertheless, it has the advantage of being very close to the practice of radiologists and is considered as a reference method.¦Primarily, this work revealed that the statistical iterative reconstructions studied in clinic (ASIR? and VECO have a strong potential to reduce CT dose (up to -90%). However, by their mechanisms, they lead to a modification of the image appearance with a change in image texture which may then effect the quality of the diagnosis. By comparing the results of the "clinical" and "physical" approach, it was showed that a change in texture is related to a modification of the noise spectrum bandwidth. The NPS analysis makes possible to anticipate or avoid a decrease in image quality. This project demonstrated that integrating these new statistical iterative reconstruction techniques can be complex and cannot be made on the basis of protocols using conventional reconstructions. The conclusions of this work and the image quality tools developed will be able to guide future studies in the field of image quality as texture analysis or model observers dedicated to CT.
Resumo:
Rapport de synthèse : Enjeux et contexte Etant le seul agent hypnotique à avoir des effets hémodynamiques négligeables, l'étomidate est souvent considéré comme l'agent anesthésique d'induction de choix lors de l'anesthésie de patients hémodynamiquement instables Cependant, une dose unique de cet hypnotique imidazolé inhibe la 11-ß hydroxylase, une enzyme mitochondriale de la phase terminale de la synthèse du cortisol. Au Centre Hospitalier Universitaire Vaudois, tout patient candidat à une chirurgie cardiaque reçoit de l'étomidate à l'induction de l'anesthésie. L'objectif de cette étude a été de déterminer l'incidence de dysfonction surrénalienne chez les patients subissant une chirurgie cardiaque et présentant un état de choc postopératoire nécessitant de hautes doses de noradrénaline. t Méthodes Une étude rétrospective et descriptive a été réalisée dans le service de médecine intensive adulte du Centre Hospitalier Universitaire Vaudois. Soixante-trois patients admis en réanimation après chirurgie cardiaque nécessitant plus de 0.2 νg/kg/min de noradrénaline au cours des premières 48 heures postopératoires ont été étudiés. L'insuffisance surrénalienne absolue a été définie par un cortisol basal inférieur à 414mmo/L, l'insuffisance surrénalienne relative par un cortisol basal entre 414mmo/L et 938nmo/L avec augmentation de la cortisolémie (à 60 minute .après un test de stimulation par 250Ng of corticotropine de synthèse) inférieure à 250mmo/L. Statistiques Les résultats ont été rapportés en médianes et extrêmes. Les comparaisons entre les groupes ont été réalisées, lorsque cela était indiqué, par un test Chi 2 ou un test de Wilcoxon. Pour les comparaisons répétées des taux de cortisol et des doses de noradrénaline, une correction de Bonferroni a été appliquée. Une valeur de p<0,05 a été considérée comme significative. Résultats : Quatorze patients [22%] ont présenté une fonction surrénalienne normale, 10 [16%] une insuffisance surrénalienne absolue et 39 [62%] une insuffisance surrénalienne relative. Tous les patients ont reçu une substitution stéroïdienne, sans aucune différence d'évolution clinique entre les différents groupes. Conclusions : L'incidence d'insuffisance surrénalienne chez les patients qui ont reçu un bolus d'étomidate à l'induction, subi une chirurgie cardiaque avec circulation extra-corporelle et présenté une défaillance circulatoire postopératoire est élevée. Il convient probablement de garder à l'esprit qu'une telle insuffisance peut contribuer à l'état de choc du patient. Dans de telles circonstances, l'exploration de la fonction surrénalienne et la suppléance par stéroïdes d'une éventuelle insuffisance surrénalienne en attendant les résultats des examens endocrinologiques devraient être discutés.
Resumo:
Le débat qui s'est instauré autour de l'évaluation de la dangerosité par des outils statistiques actuariels s'inscrit dans une évolution préoccupante des pratiques pénales et des attentes sociales. L'instauration de privations de liberté à durée indéterminée et l'utilisation de l'évaluation psychiatrique pour déterminer cette privation peuvent conduire à utiliser ces outils d'évaluation comme facteurs de stigmatisation et d'exclusion. Outils cliniques lorsqu'ils ont été créés, ils sont souvent utilisés comme supports de nouveaux modes de gestion des populations pénales. Ils peuvent aussi contribuer à un renforcement de la stigmatisation sociale à l'égard de la maladie psychique en assimilant celle-ci à un risque de violence. L'évaluation du risque de violence doit donc rester une pratique avant tout clinique où l'usage d'instruments d'aide à la réflexion garde sa pertinence, mais doit faire l'objet d'une interrogation éthique et de définition de règles de bonne pratique.
Resumo:
SUMMARY Heavy metal presence in the environment is a serious concern since some of them can be toxic to plants, animals and humans once accumulated along the food chain. Cadmium (Cd) is one of the most toxic heavy metal. It is naturally present in soils at various levels and its concentration can be increased by human activities. Several plants however have naturally developed strategies allowing them to grow on heavy metal enriched soils. One of them consists in the accumulation and sequestration of heavy metals in the above-ground biomass. Some plants present in addition an extreme strategy by which they accumulate a limited number of heavy metals in their shoots in amounts 100 times superior to those expected for a non-accumulating plant in the same conditions. Understanding the genetic basis of the hyperaccumulation trait - particularly for Cd - remains an important challenge which may lead to biotechnological applications in the soil phytoremediation. In this thesis, Thlaspi caerulescens J. & C. Presl (Brassicaceae) was used as a model plant to study the Cd hyperaccumulation trait, owing to its physiological and genetic characteristics. Twenty-four wild populations were sampled in different regions of Switzerland. They were characterized for environmental and soil parameters as well as intrinsic characteristics of plants (i.e. metal concentrations in shoots). They were as well genetically characterized by AFLPs, plastid DNA polymorphism and genes markers (CAPS and microsatellites) mainly developed in this thesis. Some of the investigated genes were putatively linked to the Cd hyperaccumulation trait. Since the study of the Cd hyperaccumulation in the field is important as it allows the identification of patterns of selection, the present work offered a methodology to define the Cd hyperaccumulation capacity of populations from different habitats permitting thus their comparison in the field. We showed that Cd, Zn, Fe and Cu accumulations were linked and that populations with higher Cd hyperaccumulation capacity had higher shoot and reproductive fitness. Using our genetic data, statistical methods (Beaumont & Nichols's procedure, partial Mantel tests) were applied to identify genomic signatures of natural selection related to the Cd hyperaccumulation capacity. A significant genetic difference between populations related to their Cd hyperaccumulation capacity was revealed based on somè specific markers (AFLP and candidate genes). Polymorphism at the gene encoding IRTl (Iron-transporter also participating to the transport of Zn) was suggested as explaining part of the variation in Cd hyperaccumulation capacity of populations supporting previous physiological investigations. RÉSUMÉ La présence de métaux lourds dans l'environnement est un phénomène préoccupant. En effet, certains métaux lourds - comme le cadmium (Cd) -sont toxiques pour les plantes, les animaux et enfin, accumulés le long de la chaîne alimentaire, pour les hommes. Le Cd est naturellement présent dans le sol et sa concentration peut être accrue par différentes activités humaines. Certaines plantes ont cependant développé des stratégies leur permettant de pousser sur des sols contaminés en métaux lourds. Parmi elles, certaines accumulent et séquestrent les métaux lourds dans leurs parties aériennes. D`autres présentent une stratégie encore plus extrême. Elles accumulent un nombre limité de métaux lourds en quantités 100 fois supérieures à celles attendues pour des espèces non-accumulatrices sous de mêmes conditions. La compréhension des bases génétiques de l'hyperaccumulation -particulièrement celle du Cd - représente un défi important avec des applications concrètes en biotechnologies, tout particulièrement dans le but appliqué de la phytoremediation des sols contaminés. Dans cette thèse, Thlaspi caerulescens J. & C. Presl (Brassicaceae) a été utilisé comme modèle pour l'étude de l'hyperaccumulation du Cd de par ses caractéristiques physiologiques et génétiques. Vingt-quatre populations naturelles ont été échantillonnées en Suisse et pour chacune d'elles les paramètres environnementaux, pédologique et les caractéristiques intrinsèques aux plantes (concentrations en métaux lourds) ont été déterminés. Les populations ont été caractérisées génétiquement par des AFLP, des marqueurs chloroplastiques et des marqueurs de gènes spécifiques, particulièrement ceux potentiellement liés à l'hyperaccumulation du Cd (CAPS et microsatellites). La plupart ont été développés au cours de cette thèse. L'étude de l'hyperaccumulation du Cd en conditions naturelles est importante car elle permet d'identifier la marque, éventuelle de sélection naturelle. Ce travail offre ainsi une méthodologie pour définir et comparer la capacité des populations à hyperaccumuler le Cd dans différents habitats. Nous avons montré que les accumulations du Cd, Zn, Fe et Cu sont liées et que les populations ayant une grande capacité d'hyperaccumuler le Cd ont également une meilleure fitness végétative et reproductive. Des méthodes statistiques (l'approche de Beaumont & Nichols, tests de Martel partiels) ont été utilisées sur les données génétiques pour identifier la signature génomique de la sélection naturelle liée à la capacité d'hyperaccumuler le Cd. Une différenciation génétique des populations liée à leur capacité d'hyperaccumuler le Cd a été mise en évidence sur certains marqueurs spécifiques. En accord avec les études physiologiques connues, le polymorphisme au gène codant IRT1 (un transporteur de Fe impliqué dans le transport du Zn) pourrait expliquer une partie de la variance de la capacité des populations à hyperaccumuler le Cd.
Resumo:
Les objectifs de cette étude sont: 1) une étude de faisabilité concernant l'utilisation des statistiques hospitalières suisses pour les Diagnosis Related Groups (DRG); - 2) une étude de la pertinence des DRG appliqués à l'activité hospitalière suisse; 3) une estimation des coûts par DRG; 4) le développement de quelques exemples d'application des DRG.
Resumo:
Rapport de synthèse :Les individus HIV-positifs constituent une population à risque pour les maladies cardiovasculaires telles que |'infarctus cardiaque ou cérébrale. Celles-ci découlent d'une formation accélérée d'athéroscIérose. Ces pathologies s'expliquent en grande partie par une dyslipidémie observée au sein de cette population et qui sont dues à des facteurs externes tels que : l'immunosuppression avancée, la virémie non-contrôlée, et les effets de la thérapie antirétrovirale. Récemment, des polymorphismes nucléotidiques simples (SNP) associés à la dyslipidémie ont été mis en évidence d'une manière globale par des Genome-Wide Association Studies (GWAS). Le but principal de cette étude est d'éva|uer et de valider |'effet cumulatif des SNP identifiés dans ces GWAS pour la dyslipidémie chez des patients HIV-positifs. De plus, |'identification des facteurs non-génétiques qui contribuent à la dyslipidémie démontrent |'importance des facteurs externes, tels que mentionnés ci- dessus, et en particulier à ceux de la thérapie antirétrovirale.Les participants de l'étude proviennent de trois groupes: 426 personnes sélectionnées pour une étude précédente, 222 personnes sélectionnées de façon arbitraire dans la "Cohorte HIV Suisse" et 103 personnes sélectionnées avec un "New-Onset Diabetes mellitus" identifiées lors d'études précédentes. Ces individus ont contribué à plus de 34'000 mesures de lipides sur une durée moyenne supérieure à 7 ans. Pour l'étude, 33 SNP identifiés dans des GWAS et 9 SNP identifiés dans d'autres études publiées dans la littérature non-couverte par des GWAS ont été repris. Le génotypage a été complété pour 745 (99.2%) des 751 participants. Pour les analyses statistiques, les thérapies antirétrovirales ont été divisées en trois groupes (favorisant peu, moyennement et fortement la dyslipidémie), et trois scores génétiques ont été créés (profil favorable, moyennement favorable, non favorable/favorisant la dyslipidémie). Dans un premier temps, l'effet sur la valeur des lipides d'un ou deux allèles variants a été analysé au moyen d'un modèle de régression pour chaque SNP en ajustant le modèle pour les variables non- génétiques. Dans un deuxième temps, les SNP ayant une valeur p >= à 0.2 ont été repris dans un model Multi-SNP, ce modèle est également ajusté pour les variables non-génétiques. Puisque cette étude se base sur des SNP précédemment identifiés, celle-ci évalue uniquement l'association établie entre chaque SNP et les critères qui ont été établis au préalable, tels que : Cholestérol totale, HDL Cholestérol, non-HDL Cholestérol ou Triglycérides. Les résultats trouvés lors de |'étude confirment les résultats de la littérature. Cette étude montre que les SNP associés à la dyslipidémie doivent être analysés dans le contexte d'une thérapie antirétrovirale en tenant compte de la démographie et en considérant les valeurs du HIV (CD4+, virémie). Ces SNP montrent une tendance à prédire une dyslipidémie prolongée chez l'individu. En effet, un patient avec une thérapie antirétrovirale favorisant la dyslipidémie et un patrimoine génétique non-favorable a un risque qui est 3-f0is plus important d'avoir un Non-HDL- Cholestérol élevé, 5-fois plus important d'avoir un HDL-Cholestérol abaissé, et 4 à 5-fois plus important d'avoir une hypertriglycéridémie qu'un patient qui suit une thérapie antirétrovirale favorisant peu la dyslipidémie qui a un patrimoine génétique favorable. Vu la corrélation entre les SNP et la thérapie antirétrovirale, les cliniciens devraient intégrer les informations génétiques afin de choisir une thérapie antirétrovirale en fonction du patrimoine génétique.
Resumo:
RESUME En faisant référence à la notion de préjugé idéologique, ce travail s'intéresse à la manifestation d'une croyance qui oppose la culture à la nature lors de la classification et l'évaluation des individus. Nous proposons que cette croyance se manifeste par l'attribution de traits spécifiques aux groupes (traits culturels et naturels) et que sa fonction est de justifier la suprématie de l'homme bourgeois blanc occidental sur autrui. Ainsi, nous abordons la perception de plusieurs groupes ethniques de la part d'individus suisses. Notre travail est organisé en trois parties. La première partie présente une étude exploratoire dont l'objectif est de cerner les phénomènes étudiés. Les résultats mettent en évidence que l'attribution de traits culturels .positifs aux groupes ethniques est relativement indépendante de l'attribution de traits naturels positifs àceux-ci: les groupes perçus comme les plus culturels sont également perçus comme les plus naturels. De plus, l'attribution de traits naturels positifs semble sous-tendre une attitude favorable envers les groupes. La deuxième partie reprend les critères qu'identifient les notions de culture et de nature. Les études 2, 3 et 4 ont mis en évidence qu'il y au continuum dans la signification des traits par rapport à .l'être humain et à l'animal. Cela nous a amené sélectionner des traits attribués uniquement à l' être humain (culture) et des traits attribués davantage à l' animal qu'à l'être humain (nature). Les études 5 et 6 de la troisième partie montrent que, lorsqu'il est question de groupes ethniques, l'endogroupe dominant et ses alliés sont associés à la culture positive, alors que des exogroupes spécifiques sont associés à la nature positive (des exogroupes sujets au paternalisme). L'étude 7 confirme les résultats concernant l'endogroupe dominant et ses alliés avec des groupes fictifs et il met en évidence que les membres du groupe dominant utilisent la notion de culture positive pour hiérarchiser les groupes. L'attribution de nature positive n'est pas prise en compte pour hiérarchiser des groupes fictifs. Pour conclure, les études montrent qu'il n'y a pas d'opposition entre la culture et la nature (positives): les membres du groupe ethnique dominant utilisent la notion de culture pour classifier et évaluer les individus sur une hiérarchie de valeurs. La notion de nature n'est pas utilisée pour hiérarchiser les groupes, mais elle identifie des exogroupes spécifiques.
Resumo:
Rapport de synthèse : L'histoire familiale reflète non seulement la susceptibilité génétique d'un individu à certaines maladies mais également ses comportements et habitudes, notamment partagées au sein d'une famille. L'hypertension artérielle, le diabète et l'hypercholestérolémie sont des facteurs de risque cardio-vasculaire modifiables hautement prévalent. L'association entre l'histoire familiale d'hypertension artérielle ou de diabète et le risque accru de développer de l'hypertension artérielle ou du diabète, respectivement, a été préalablement établie. Par contre, le lien entre l'histoire familiale de facteurs de risque cardio-vasculaire et les traits continus correspondants n'avaient jamais été mis clairement en évidence. De même, la signification d'une histoire familiale inconnue n'avait jusqu'alors pas été décrite. Ce travail, effectué dans le cadre de l'étude Colaus (Cohorte Lausannoise), une cohorte regroupant un échantillon composé de 6102 participants âgés de 35 à 75 ans sélectionnés au hasard dans la population lausannoise, a permis de décrire en détail la relation entre l'histoire familiale des facteurs de risque cardio-vasculaires et les trait correspondants dans la population étudiée. Les différentes analyses statistiques ont permis de mettre en évidence une relation forte entre l'histoire familiale d'hypertension artérielle, de diabète ainsi que de l'hypercholestérolémie et leurs traits dichotomique et continu correspondants. Les anamnèses des frères et soeurs avaient des valeurs prédictives positives plus élevées que les anamnèses parentales. Ceci signifie que les programmes de dépistage ne prenant en compte que l'histoire familiale des frères et soeurs seraient probablement plus efficaces que ceux qui comportent l'évaluation des anamnèses paternelle et maternelle. Plus de 40% des participants ignoraient l'histoire familiale d'hypertension d'au moins un des membres de leur famille. Ceux-ci avaient des valeurs de tension artérielle systolique plus élevées que ceux dont l'histoire familiale était négative, permettant de souligner la valeur prédictive du fait de ne pas connaître l'histoire familiale d'hypertension artérielle. Ces résultats montrent également que, lors d'analyses de la relation entre l'anamnèse familiale de facteurs de risque cardiovasculaires et leurs traits correspondants, les participants donnant des réponses négatives doivent être distingués de ceux qui ne connaissent pas leur anamnèse familiale. Les résultats de cette étude confirment la place centrale qu'occupe l'anamnèse familiale dans l'évaluation du risque cardio-vasculaire auprès de la population générale. L'importance de cet outil prédictif simple et bon marché ne va cesser d'augmenter avec la disponibilité croissante d'information génétique détaillée pour les maladies cardiovasculaires communes.
Resumo:
Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.
Resumo:
Dans une étude précédente, nous avons démontré qu'un soutieninformatique rappelant les Recommandations de Pratiques Cliniques(RPC) améliore la gestion de la douleur aiguë aux urgences à moyenterme (JEUR 2009;22:A88). Par contre, son acceptation par lessoignants et son impact sur leurs connaissances des RPC sontinconnus. But de l'étude: mesurer l'impact du logiciel en termesd'acceptation et connaissance des RPC par l'équipe soignante.Méthode: analyse de 2 questionnaires remplis par les médecins etinfirmiers: le 1er administré en pré-, post-déploiement et 6 mois plustard (phases P1, P2 et P3) qui a évalué: a) l'appréciation subjective desconnaissances des RPC par échelle de Lickert à 5 niveaux; b) lesconnaissances objectives des RPC à l'aide de 7 questions théoriques(score max. 7 points); le 2ème administré en P2 et P3, l'utilité perçue dulogiciel (échelle à 4 niveaux). Analyses statistiques par test de chi2outest exact de Fisher; p bilatéral <0.05 significatif. Résultats: la proportiondes soignants estimant avoir une bonne connaissance des RPC apassé de 48% (45/94) en P1, à 73% (83/114) puis 84% (104/124) en P2et P3, respectivement (p <0.0001). Score des connaissances: cftableau. Entre P2 et P3, l'appréciation globale de l'utilité du logiciel s'estaméliorée: la proportion des avis favorables a passé de 59% (47/79) à82% (96/117) (p = 0.001). Conclusion: ce logiciel a été bien accepté et apermis une amélioration significative des connaissances des RPC parles soignants.
Resumo:
L'objet de la thèse est l'étude de l'endecasillabo dans l'oeuvre poétique de Giacomo Leopardi. D'un point de vue méthodologique, ce travail s'appuie sur la recherche de Marco Praloran et Arnaldo Soldani dédiée à l'endecasillabo de Pétrarque. L'auteur a comparé les Canti de Leopardi avec la production des plus grands écrivains de la fin du XIXème siècle et du début du XXème siècle Melchiorre Cesarotti (Poesie di Ossian), Giuseppe Parini (Il Mattino), Vittorio Alfieri (Le Rime e il Saul), Vincenzo Monti (l'ouvre poétique), Ugo Foscolo (Le Rime) et Alessandro Manzoni (l'oeuvre poétique). Nous avons là un répertoire de plusieurs milliers de vers qui ont été scandés non pas par l'intermédiaire d'un ordinateur, mais un à un en fonction de leur intonation. La première partie de la thèse est dédiée à l'analyse du rythme des différents auteurs, à des statistiques générales qui permettent de comparer ces données entre elles et avec les anciens auteurs italiens tels Dante, Pétrarque, Arioste, etc. De cette façon, nous pouvons avoir une vision globale de la prosodie italienne des origines jusqu'au XIXème siècle -vision qui permet de focaliser de manière exhaustive la technique de Leopardi. Dans la deuxième partie, l'auteur propose texte après texte la scansion de toute l'oeuvre poétique de Leopardi. Nous avons donc une lecture interprétative du rythíne de tous les poèmes qui tient compte de l'année de composition et les différentes typologies métriques des textes : par exemple, les canzoni, les idilli, les canti pisano-recanatesi. Dans cette deuxième partie, il faut souligner l'effort de lier la partition du rythme au contenu des différents textes.
Resumo:
Résumé : Ce travail jette un regard nouveau sur l'information documentaire publique. A travers l'analyse des régulations qui régissent l'archivage, la préservation du patrimoine documentaire et la gestion des documents au niveau national en Suisse, il propose en effet l'application d'un concept d'analyse fédérateur, habituellement exploité pour la compréhension du fonctionnement des res¬sources naturelles. Après avoir exposé que la création, la gestion et la préservation de l'information sont historiquement liées à l'exercice du pouvoir, au système politique en place et au développement des technologies de l'information, ce travail montre que - à la suite des importants changements dus au développe¬ment de la société du savoir et des nouvelles technologies de l'information - les politiques concernées en Suisse sont en train de converger. Ce mouve¬ment, signe de la lente reconnaissance de l'existence d'une ressource unique, va de pair avec le développement d'un système de règles. Cette ressource, désignée par le terme générique d'information, est en train de devenir un enjeu politique et économique fondamental : comme les ressources natu¬relles, elle exige de la part des acteurs publics une prise en charge appropriée afin d'assurer sa durabilité - c'est-à-dire sa capacité de renouvellement - en régulant les rivalités entre usages compétitifs, qui risquent de mettre cette ressource en péril. Ainsi, par l'application d'un modèle d'analyse appelé Régime institutionnel des ressources (RIR), ce travail évalue la durabilité de la ressource information en vérifiant l'existence et la mise en oeuvre de règles pour cha¬cun des usages identifiés de cette ressource. A partir des huit études de cas (consacrées aux archives d'Etat, aux Helvetica, aux données météoro¬logiques et climatologiques, aux données statistiques, aux données d'observation des sols, aux données de la mensuration officielle, aux don¬nées d'état civil et aux données de la taxe sur la valeur ajoutée), notre analyse qualitative montre que, si la durabilité de la ressource est assurée à court terme, elle ne l'est pas sur le long terme. En effet, en dépit des progrès significatifs qui ont été faits ces dernières années, notamment en termes de gestion des documents, le régime institu¬tionnel de la ressource information présente des failles : les principales rivalités existantes ne sont pas contrôlées par des régulations spécifiques. Ainsi, l'identification des informations disponibles, la traçabilité de celles-ci, la sélection de celles qu'il convient de préserver à long terme et, enfin, leur conservation physique continueront à poser problème à l'avenir. Le document se clôt sur l'encouragement à poursuivre les travaux scienti¬fiques et politiques dans ce domaine, dans le but de bénéficier enfin d'une compréhension plus approfondie des mécanismes qui le régissent.
Resumo:
[Sommaire] Résumé. 1. Introduction. 2. Mandat et méthode. 3. Description et analyse de la permanence téléphonique 0800 801 381 (Fonctionnement - Evolution des appels - Analyse de la clientèle en 2010 - Synthèse des données statistiques - Stratégies de promotion de la permanence - Statistiques du site www.sos-jeu.ch). 4. Autres lignes d'aide en Suisse. 5. Autres type d'offres en Suisse romande pour les personnes dépendantes au jeu. 6. Lignes téléphoniques d'aide dédiées au jeu au niveau international. 7. Réponses aux questions d'évaluation et recommandations. Annexes. Bibliogr. p. 79
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.