41 resultados para Calculs DFT
em Université de Lausanne, Switzerland
Resumo:
La lithiase rénale est une pathologie connue depuis très longtemps. Elle est très intéressante d'un point de vue épidémiologique car elle est présente dans le monde entier et reflète les habitudes alimentaires, les conditions sanitaires et le niveau de vie des populations. En effet, sa localisation, sa nature et son âge d'apparition sont associés au niveau économique d'une population donnée. Dans les pays ayant un niveau socioéconomique bas, les enfants jusqu'à 10 ans sont plus touchés que les adultes, avec un rapport garçons/filles très élevé, atteignant plus de 10. La localisation des calculs rénaux est surtout vésicale et ils sont composés majoritairement de phosphate ou d'acide urique. Par contre, dans les populations avec un niveau socioéconomique plus élevé comme c'est le cas actuellement en Europe, les adultes entre 30 et 50 ans sont majoritairement touchés avec un rapport hommes/femmes situé entre 1.5 et 2.5. La lithiase est essentiellement rénale et composée d'oxalate de calcium. Actuellement, dans la plupart des pays du monde, le calcul a une localisation rénale et est de nature oxalo-calcique, reflétant une amélioration des conditions de vie et un meilleur niveau de médicalisation. Peu de pays possèdent les moyens d'effectuer de larges études pour estimer la prévalence de la lithiase rénale. Cependant, toutes les études effectuées confirment que les calculs rénaux sont en progression dans le monde entier. Une forte augmentation de la prévalence de la lithiase rénale a notamment été observée depuis la fin de la deuxième guerre mondiale avec une mise sur le marché plus importante ainsi qu'une consommation croissante de boissons sucrées, de protéines animales et de chocolat riche en oxalate avec en parallèle une diminution de la consommation de produits laitiers et une sédentarisation de la population. La lithiase rénale comprend en effet des facteurs de risques environnementaux et sa progression est donc en grande partie due aux changements des habitudes de vie. Au cours des dernières décennies, les changements de mode de vie ont également favorisé l'augmentation de l'hypertension artérielle, de l'obésité ainsi que du diabète dans la population générale, eux-mêmes associés à la lithiase rénale. Différentes études illustrent la prévalence croissante des calculs rénaux. Des études scandinaves datant de 1970-1980 démontrent que 19% des hommes de plus de 60 ans avaient des antécédents de lithiase urinaire. Aux États-Unis, l'étude de Stamatelou et al. (1) a démontré une progression de la lithiase rénale de 3.2% entre 1976 et 1980 et de 5.2% entre 1988 et 1994. En Allemagne, la prévalence de la lithiase rénale a augmenté de 17% entre 1980 et 2000. En 2001 en Espagne, 10% des sujets de plus de 60 ans avaient une lithiase rénale. L'étude française SU.VI.MAX a notamment révélé une prévalence de calculs rénaux de 9.5% chez les personnes de plus de 45 ans avec une prédominance masculine, 13.6% chez les hommes et 7.6% chez les femmes. Le rapport hommes/femmes était de 2.35 avec une tendance à la baisse. L'âge du premier calcul était en moyenne à 35 ans chez les hommes et à 30 ans chez les femmes. Plus de la moitié des patients lithiasiques de l'étude SU.VI.MAX récidivent au cours de leur vie, 54% des hommes et 52% des femmes. Le nombre d'épisodes dans la vie d'une personne ayant eu une fois un calcul rénal était en moyenne de 3, avec un intervalle moyen de 3.5 ans entre deux récidives.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.
Resumo:
Résumé de la thèse L'évolution des systèmes policiers donne une place prépondérante à l'information et au renseignement. Cette transformation implique de développer et de maintenir un ensemble de processus permanent d'analyse de la criminalité, en particulier pour traiter des événements répétitifs ou graves. Dans une organisation aux ressources limitées, le temps consacré au recueil des données, à leur codification et intégration, diminue le temps disponible pour l'analyse et la diffusion de renseignements. Les phases de collecte et d'intégration restent néanmoins indispensables, l'analyse n'étant pas possible sur des données volumineuses n'ayant aucune structure. Jusqu'à présent, ces problématiques d'analyse ont été abordées par des approches essentiellement spécialisées (calculs de hot-sports, data mining, ...) ou dirigées par un seul axe (par exemple, les sciences comportementales). Cette recherche s'inscrit sous un angle différent, une démarche interdisciplinaire a été adoptée. L'augmentation continuelle de la quantité de données à analyser tend à diminuer la capacité d'analyse des informations à disposition. Un bon découpage (classification) des problèmes rencontrés permet de délimiter les analyses sur des données pertinentes. Ces classes sont essentielles pour structurer la mémoire du système d'analyse. Les statistiques policières de la criminalité devraient déjà avoir répondu à ces questions de découpage de la délinquance (classification juridique). Cette décomposition a été comparée aux besoins d'un système de suivi permanent dans la criminalité. La recherche confirme que nos efforts pour comprendre la nature et la répartition du crime se butent à un obstacle, à savoir que la définition juridique des formes de criminalité n'est pas adaptée à son analyse, à son étude. Depuis près de vingt ans, les corps de police de Suisse romande utilisent et développent un système de classification basé sur l'expérience policière (découpage par phénomène). Cette recherche propose d'interpréter ce système dans le cadre des approches situationnelles (approche théorique) et de le confronter aux données « statistiques » disponibles pour vérifier sa capacité à distinguer les formes de criminalité. La recherche se limite aux cambriolages d'habitations, un délit répétitif fréquent. La théorie des opportunités soutien qu'il faut réunir dans le temps et dans l'espace au minimum les trois facteurs suivants : un délinquant potentiel, une cible intéressante et l'absence de gardien capable de prévenir ou d'empêcher le passage à l'acte. Ainsi, le délit n'est possible que dans certaines circonstances, c'est-à-dire dans un contexte bien précis. Identifier ces contextes permet catégoriser la criminalité. Chaque cas est unique, mais un groupe de cas montre des similitudes. Par exemple, certaines conditions avec certains environnements attirent certains types de cambrioleurs. Deux hypothèses ont été testées. La première est que les cambriolages d'habitations ne se répartissent pas uniformément dans les classes formées par des « paramètres situationnels » ; la deuxième que des niches apparaissent en recoupant les différents paramètres et qu'elles correspondent à la classification mise en place par la coordination judiciaire vaudoise et le CICOP. La base de données vaudoise des cambriolages enregistrés entre 1997 et 2006 par la police a été utilisée (25'369 cas). Des situations spécifiques ont été mises en évidence, elles correspondent aux classes définies empiriquement. Dans une deuxième phase, le lien entre une situation spécifique et d'activité d'un auteur au sein d'une même situation a été vérifié. Les observations réalisées dans cette recherche indiquent que les auteurs de cambriolages sont actifs dans des niches. Plusieurs auteurs sériels ont commis des délits qui ne sont pas dans leur niche, mais le nombre de ces infractions est faible par rapport au nombre de cas commis dans la niche. Un système de classification qui correspond à des réalités criminelles permet de décomposer les événements et de mettre en place un système d'alerte et de suivi « intelligent ». Une nouvelle série dans un phénomène sera détectée par une augmentation du nombre de cas de ce phénomène, en particulier dans une région et à une période donnée. Cette nouvelle série, mélangée parmi l'ensemble des délits, ne serait pas forcément détectable, en particulier si elle se déplace. Finalement, la coopération entre les structures de renseignement criminel opérationnel en Suisse romande a été améliorée par le développement d'une plateforme d'information commune et le système de classification y a été entièrement intégré.
Resumo:
Summary (in English) Computer simulations provide a practical way to address scientific questions that would be otherwise intractable. In evolutionary biology, and in population genetics in particular, the investigation of evolutionary processes frequently involves the implementation of complex models, making simulations a particularly valuable tool in the area. In this thesis work, I explored three questions involving the geographical range expansion of populations, taking advantage of spatially explicit simulations coupled with approximate Bayesian computation. First, the neutral evolutionary history of the human spread around the world was investigated, leading to a surprisingly simple model: A straightforward diffusion process of migrations from east Africa throughout a world map with homogeneous landmasses replicated to very large extent the complex patterns observed in real human populations, suggesting a more continuous (as opposed to structured) view of the distribution of modern human genetic diversity, which may play a better role as a base model for further studies. Second, the postglacial evolution of the European barn owl, with the formation of a remarkable coat-color cline, was inspected with two rounds of simulations: (i) determine the demographic background history and (ii) test the probability of a phenotypic cline, like the one observed in the natural populations, to appear without natural selection. We verified that the modern barn owl population originated from a single Iberian refugium and that they formed their color cline, not due to neutral evolution, but with the necessary participation of selection. The third and last part of this thesis refers to a simulation-only study inspired by the barn owl case above. In this chapter, we showed that selection is, indeed, effective during range expansions and that it leaves a distinguished signature, which can then be used to detect and measure natural selection in range-expanding populations. Résumé (en français) Les simulations fournissent un moyen pratique pour répondre à des questions scientifiques qui seraient inabordable autrement. En génétique des populations, l'étude des processus évolutifs implique souvent la mise en oeuvre de modèles complexes, et les simulations sont un outil particulièrement précieux dans ce domaine. Dans cette thèse, j'ai exploré trois questions en utilisant des simulations spatialement explicites dans un cadre de calculs Bayésiens approximés (approximate Bayesian computation : ABC). Tout d'abord, l'histoire de la colonisation humaine mondiale et de l'évolution de parties neutres du génome a été étudiée grâce à un modèle étonnement simple. Un processus de diffusion des migrants de l'Afrique orientale à travers un monde avec des masses terrestres homogènes a reproduit, dans une très large mesure, les signatures génétiques complexes observées dans les populations humaines réelles. Un tel modèle continu (opposé à un modèle structuré en populations) pourrait être très utile comme modèle de base dans l'étude de génétique humaine à l'avenir. Deuxièmement, l'évolution postglaciaire d'un gradient de couleur chez l'Effraie des clocher (Tyto alba) Européenne, a été examiné avec deux séries de simulations pour : (i) déterminer l'histoire démographique de base et (ii) tester la probabilité qu'un gradient phénotypique, tel qu'observé dans les populations naturelles puisse apparaître sans sélection naturelle. Nous avons montré que la population actuelle des chouettes est sortie d'un unique refuge ibérique et que le gradient de couleur ne peux pas s'être formé de manière neutre (sans l'action de la sélection naturelle). La troisième partie de cette thèse se réfère à une étude par simulations inspirée par l'étude de l'Effraie. Dans ce dernier chapitre, nous avons montré que la sélection est, en effet, aussi efficace dans les cas d'expansion d'aire de distribution et qu'elle laisse une signature unique, qui peut être utilisée pour la détecter et estimer sa force.
Resumo:
Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.
Resumo:
Cet article présente une méthode de calculs pour évaluer le potentiel éolien moyen annuel dans une topographie accidentée à partir de méthodes d'écoulements tridimensionnels. Cette méthode a été testée avec succès dans 2 régions du Jura suisse et elle permet d'identifier les sites les mieux ventilés et les plus rentables pour l'énergie éolienne sur un vaste domaine.
Resumo:
Célèbre est devenu le concept d'empreinte écologique qui se présente comme un indicateur composite supposé nous renseigner sur l'espace utilisé par les hommes pour produire les ressources qu'ils consomment et les déchets qu'ils rejettent, le mettre en regard de la capacité écologique de la planète (la biocapacité), donc le revenu écologique à disposition des hommes. Lorsque l'empreinte écologique excède la biodiversité, cela signifie que la planète est en danger. Le succès de cet indicateur élaboré par le Global Footprint Network (GFN) tient sans doute aux conclusions sensationnelles qui se dégagent des calculs effectués : par exemple, la propagation à la planète du mode de vie nord-américain exigerait à elle seule cinq planètes... Il est donc important de comprendre comment a été élaboré cet indicateur, quelle est sa fiabilité et quels enseignements peuvent en être tirés en vue de l'adoption d'une politique de développement durable. Tel est le premier objectif de cet article qui en explique la philosophie, montre comment est conçu cet indicateur et comment sont opérés les calculs. Mais les auteurs ne s'arrêtent pas là. Ils rappellent certaines impasses faites consciemment par le GFN, puis les critiques déjà adressées à cet indicateur qui, précisément en raison de son caractère composite, agrège des données hétérogènes et procède à des calculs et des pondérations sujets à caution dont les enseignements sont donc contestables ? par exemple lorsqu'il suggère que certains pays auraient intérêt à remplacer leurs forêts pour accroître les surfaces cultivables, alors même que l'espace bâti (amputant lui aussi des terres arables) n'est absolument pas remis en question. Au-delà même de ces réserves, les auteurs prolongent et approfondissent la critique de l'empreinte écologique. Ainsi soulignent-ils, par exemple, que l'empreinte carbone compte pour la moitié de l'empreinte totale et que, si on se contentait de mesurer celle-ci en quantité physique plutôt qu'en usant d'un artefact (l'hectare global), le calcul serait sans doute plus robuste et les conclusions non moins alarmistes puisqu'il faudrait cette fois 11 planètes si d'aventure le mode de vie nord-américain devait s'étendre au monde entier. Même s'il peut paraître parfois un peu ardu, cet article est à lire absolument car ses auteurs y mettent en évidence un certain nombre de problèmes majeurs que nul ne saurait ignorer.
Je t'aide moi non plus: biologique, comportemental ou psychologique, l'altruisme dans tous ses états
Resumo:
« Je t'aime moi non plus », le titre de la fameuse chanson de Gainsbourg reflète de manière exquise ce que la vie a de beau et d'amer à la fois. A défaut de traiter d'amour, cet ouvrage analyse les méandres de l'aide à sens unique. L'altruisme, ce comportement de don sans attente de retour de service, est abordé ici de manière scientifique et philosophique plutôt que poétique et littéraire. Un objectif est d'en traquer les mécanismes sous-jacents, ceux qui échappent à tout romantisme et se traduisent souvent en calculs de coûts et bénéfices. Il s'agit également d'approfondir les diverses manières de comprendre et de pratiquer l'altruisme. Souvent considéré comme une des plus grandes vertus humaines, l'objet de nombreux écrits philosophiques et psychologiques, l'altruisme peut-il se trouver chez les abeilles et les marmottes ? Posez la question à un biologiste de l'évolution et il vous répondra « Mais oui, évidemment ! ». A première vue, une telle réponse est consternante mais nous verrons qu'à y regarder de plus près, les philosophes et les biologistes ne parlent pas exactement de la même chose en utilisant le même terme. L'hétérogénéité des disciplines intéressées à l'altruisme et des contextes théoriques dans lesquels il est utilisé en ont fait une notion extrêmement complexe et difficile à saisir. Au sein des différentes sciences sociales et du vivant, l'altruisme est un élément pivot dans trois débats dont cet ouvrage prend le temps de retracer les contours. Tantôt, l'altruisme se profile en danger (apparent) pour la théorie de l'évolution darwinienne (chap. 1), tantôt, il sert de cheval de bataille dans la croisade contre l'idéal de l'homo economicus si souvent prôné en économie (chap. 2 et 3), tantôt il est une énigme à découvrir dans les méandres de nos motivations intimes (chap. 3). Dans le cadre de ces différents débats, la notion d'altruisme prend des significations sensiblement différentes. Pour en rendre compte, l'ensemble de l'ouvrage s'articule autour d'une triple distinction fondamentale : l'altruisme peut être compris au sens biologique, comportemental ou psychologique. Chacune de ces notions est utilisée dans un contexte spécifique au sein de sciences qui ont leurs propres traditions et leurs propres débats internes. La structure de l'ouvrage est organisée en fonction de cette triple distinction. Le premier chapitre est consacré à l'altruisme biologique, définit en termes de valeur de survie et de reproduction (fitness) : un comportement est altruiste s'il a pour effet d'augmenter la fitness d'autrui aux dépens de sa propre fitness. L'observation de comportements altruistes au sein du monde animal a posé un des plus grands défis à la théorie de l'évolution depuis la publication de l'Origine des espèces. Des générations de biologistes se sont attelés à la tâche d'expliquer comment un comportement qui augmente la fitness biologique d'autres organismes aux dépends de la fitness de l'agent a pu être sélectionnée au fil de l'évolution. Nous verrons que c'est grâce aux travaux de William Hamilton et d'autres que cette difficulté a pu être résolue. Le deuxième chapitre retrace les attaques d'une frange d'économistes (supportés dans leur effort critique par des théoriciens des jeux et anthropologues évolutionnistes), contre le modèle classique de l'homo economicus. Leur objectif est de montrer que des personnes ordinaires ne se comportement souvent pas en maximisateurs rationnels de leurs gains propres, comme le prédirait la théorie économique néo-classique. Dans le cadre de ce débat, c'est du comportement social spécifiquement humain et plus particulièrement de l'altruisme humain dont il est question. Le terme d'altruisme est alors utilisé dans un sens plus lâche que ne le font les biologistes ; ce que l'on appellera l'altruisme comportemental comprend les actions coûteuses pour l'agent et avantageuses pour autrui. La particularité humaine fournira également l'occasion de traiter la délicate question des rapports entre l'évolution génétique et la culture. Nous verrons que l'étude du comportement animal fournit les premiers éléments d'explication de l'altruisme humain, mais ce dernier ne peut être pleinement compris qu'au terme d'une analyse qui tient compte des capacités qui nous sont propres. Cette analyse nous permettra de saisir pourquoi les êtes humains sont à la fois plus sociaux et plus opportunistes (la contradiction n'est qu'apparente) que les autres espèces animales. Malgré leurs différences, les versions biologique et comportementale de l'altruisme sont très proches au sens où elles traitent des conséquences de comportements. Ces notions ne reflètent qu'imparfaitement la conception ordinaire que nous nous faisons de l'altruisme. L'altruisme tel qu'il est utilisé dans le langage courant correspond davantage à l'image que s'en font les philosophes et les psychologues. Pour déceler les actions altruistes, ces derniers se demandent généralement si elles ont été causées par un motif dirigé vers le bien d'autrui. En ce sens, on parle d'altruisme psychologique qui réfère aux causes plutôt qu'aux effets des actions d'aide. Le troisième chapitre est consacré aux débats qui font rage autour de la question de savoir si les êtres humains sont capables d'agir de manière altruiste psychologique, c'est-à-dire en fonction de motifs exclusivement dirigés vers le bien-être d'autrui. Nous verrons à quel point cette tâche est ardue à moins d'accepter de reformuler la question en termes de motivation primaire à l'action. Au terme de l'analyse, il apparaitra que les trois notions d'altruisme se croisent sans se recouper dans un enchevêtrement de liens plus ou moins complexes. Nous verrons par exemple que l'altruisme biologique (voire comportemental) pourrait bien être une condition nécessaire à l'évolution de l'altruisme psychologique ; des liens tangibles peut ainsi être tissés entre ces différentes notions. Les diverses approches du phénomène de l'altruisme retracées dans cet ouvrage fournissent également des clefs de compréhension des méandres du comportement social animal et plus particulièrement humain. De manière générale, sans apporter de solutions toutes faites, cet écrit peut servir de guide sémantique et initie le lecteur à une littérature interdisciplinaire émergeante, foisonnante, passionnante quoique encore souvent parsemée de confusions et de contradictions.
Resumo:
Introduction. - En Suisse, la prescription de produits biologiqueschez les patients souffrant de polyarthrite rhumatoïde (PR) n'est nilimitée à des centres hospitaliers de rhumatologie, ni soumise à desdirectives strictes éditées par les autorités sanitaires sur le type oule nombre de traitements de fond préalables. La notion d'échec auxtraitements de fond n'est pas non plus précisément définie, et enparticulier l'activité de la maladie ne doit pas répondre à des critèresstricts, notamment en terme de valeurs de DAS, et ce contrairementà de nombreux autres pays où l'impact de ces restrictions aété publié récemment (1, 2).Le registre SCQM peut être considéré comme un bon reflet de lapopulation suisse avec PR, aussi bien pour la population suivie pardes centres hospitaliers que par les practiciens en cabinet privé, eton estime qu'environ 30 % des patients avec PR recevant des traitementsbiologiques en Suisse sont inclus dans ce registre.L'objectif primaire de cette étude est de comparer les caractéristiquesdes patients de notre registre à l'initiation et après un an de traitementbiologique avec celles de registres du même type dans des pays avecun accès plus restreint aux traitements biologiques. Les objectifssecondaires sont de comparer les patients traités en milieu hospitalieret ceux pris en charge en cabinet privé, et aussi d'examiner s'il existedes tendances temporelles (avant et après 2005).Patients et Méthodes. - Les données sont extraites du registre suissede PR (SCQM) qui comprend 4 500 patients inclus entre 1997 et2011. 2 715 patients bénéficient d'un traitement biologique, dont2 427 avec des données à l'introduction du traitement : DAS28/VS,DAS28/CRP, HAQ, durée de la maladie, nbre de tttt préalables, comorbidités,etc. Les principales données démographiques sont : âgemoyen 55 ans, 77 % de femmes 72 % FR+, médecins prescripteurs :62 % en cabinet, 21 % en centre hospitaliers et 16 % en centres universitaires.Nous avons calculés les moyennes (+/- écart type) pourdifférents paramètres de l'activité de la maladie.Résultats. - La moyenne du DAS28/VS à l'introduction du traitement(4,4 +/- 1,3) est nettement inférieur aux valeurs publiées pard'autres registres européens ou canadien (5,3 < > 6,6 ; 1,2). Il en ende même pour le HAQ (1 versus 1,4). Les biologiques sont introduitsaprès en moyenne 1,1 +/- 1 DMARD préalable contre > 3 en Suède,au Danemark ou au Canada.Les caractéristiques démographiques, le degré d'activité et les traitementsprodigués sont similaires entre les patients traités encabinet privé ou en milieu hospitalier, hormis pour une proportionmoindre de traitements iv en cabinet (20 % versus 40 %). Après2005, les traitements biologiques sont introduits beaucoup plusprécocemment, avec une durée médiane de maladie avant l'introductionde thérapies biologiques diminuant de 96 à 51 mois. Onnote également une répartition entre les divers produits biologiquesqui se diversifie. Même si les traitements sont introduits à undegré d'activité similaire (DAS28/VS moyen à 4,4 +/- 1,3) onobserve de meilleurs résultats à 1 an avec un DAS moyen à 1 an :3,5 +/- 1,4 avant 2005 contre 3,1 +/- 1,3 après 2005 (p = 0.0001).Conclusion. - Les données du registre suisse des PR (SCQM) suggèrentque, en l'absence de critères restrictifs d'accès aux traitements biologiques,ceux-ci sont prescrits à des scores d'activité de la maladie(DAS et HAQ) inférieurs, et plus précocemement en terme de nombrede DMARD préalables. Cette tendance se confirme dans le temps, etse retrouve aussi bien en milieu hospitalier qu'en cabinet.En terme de résultats, après 2005, plus de 50 % des patients atteignentun bas degré d'activité de la maladie en terme de DAS aprèsun an de traitement, chiffre qui semble justifier ce type de systèmepeu restrictif favorisant certainement une approche thérapeutiqueplus proche des nouveaux paragidmes de traitement avec une stratégiede type « treat to target ».Références[1] Curtis J R et al. Semin Arthritis Rheum. 40:2-14,2009.[2] Pease C, Pope JE, Truong D et al. Semin Arthritis Rheum, December2010.
Resumo:
Les imaginaires explorés par ce livre ont ceci de commun qu'ils tentent de s'en tenir à la matérialité du monde, de ses corps, de ses images, de ses lois. Ils affirment chacun à sa manière le monde et sa fable. Ils y construisent la figure d'un à-côté, d'une fuite, d'une déviation ou d'un renversement. Un coup d'oeil persan. Lois et calculs ; clôtures et braconnages ; lignes de fuites ; histoire(s). Les noms que ce livre convoque forment des cristaux, quelque(s) cristallographie(s). La lumière s'y dévie, s'y diffracte, révèle ses palettes de couleur, butte contre les grains obscurs de la matière, comme une matière elle-même concentrée et diffractée. Cette constellation se rend visible autant par la littérature (Kawabata, Kafka, Proust, etc.) que par la peinture (Bosch, Velàzquez, etc.), comme autant d'images projetées. Cette lumière prend des corps et une écriture, rythmicité opaque et clarifiante, sans mystères. Les cristaux qu'elle traverse sont des corps imaginaires, politiques, érotiques : la lumière s'y projette en corps à corps, à peau contre peau. Blessante, coupante, rasante, douce ou crue. Les catastrophes conceptuelles s'y aggravent ou en diffèrent. De Montesquieu à Valéry, de Certeau à Deleuze et à Foucault, les imaginaires (d'émancipation, de liberté, d'invention en jeux d'obsessions, de confrontations, de contraintes et de problèmes) se croisent et s'interrogent, se reflètent autrement (Spinoza, Kofman, Agamben, Malabou, Nietzsche, Derrida) se regardent sans se répondre, par des jeux de miroirs superposés. Une autre manière de partager, en rythmes et en images, quelques pratiques d'écriture et de pensée.
Resumo:
Introduction: L'évaluation de la fonction de l'épaule à l'aide de capteurscinématiques embarqués produit des mesures discriminatives etsensibles au changement. Cependant, la réalisation pratique reste tropcomplexe pour l'utilisation courante. L'objectif de cette étude était dedévelopper une méthode d'évaluation cinématique simplifié et efficace.Méthode : Une analyse secondaire a été effectuée sur les donnéesd'un score de référence, basé sur la réalisation de 7 mouvements.Trente-cinq patients ont été mesurés à l'aide d'accéléromètreset de gyroscopes en préopératoire, ainsi qu'à 3, 6 et 12mois après chirurgie de l'épaule. Les mouvements essentiels ontété identifiés à l'aide une analyse en composantes principales(ACP). Une méthode d'évaluation simplifiée a ensuite été élaboréeen effectuant des régressions multiples des mouvementssélectionnées versus le score de référence à 3 mois. Les résultatsdu score simplifié ont été comparés au score de référence paranalyse statistique (ANOVA à mesure double répétées, régressionlinéaire, taille de l'effet, limite de l'agrément et corrélationaux échelles cliniques).Resultats : Une composante d'élévation et une composante de rotationreprésentant plus de 62 % de la variance ont été identifiées.Des modèles simplifiés d'évaluation ont donc été calculés avec desrégressions multiples incluant des combinaisons de mouvementsde rotation et d'élévation : dos-tête, dos-abduction, dos-épaule, dosplafond.La comparaison du score de référence et des scores simplifiésmontrait à tous les stades : une relation fortement linéaire (R2> 0,96), une taille de l'effet comparable (d de Cohen 1,33 à 1,51 versus1,33 pour le score de référence) et une corrélation comparable avecles scores cliniques (r = 0,22 à 0,8). La différence entre les scoresse situait entre - 6,28 et + 2,78. La limite de l'agrément variait de 13à 24 %. Parmi les scores simplifiés, seul le score « dos-plafond » nemontrait pas de différence avec le score de référence pour l'interactiontemps*score (p > 0,5).Discussion-Conclusion : Un score cinématique de l'épaule comprenantuniquement deux mouvements a été développé. Plusieursmodèles de score simplifiés produisent des résultats comparablesau score de référence pour l'évaluation de groupes de patients. Lescore moyen « dos-plafond » présente un profil d'évolution dans letemps en relation étroite avec le score de référence. Par contre, ladiscordance des résultats entre le score de référence et les scoressimplifiés lors de mesures individuelles doit être prise en considérationavant une éventuelle application à des études de cas clinique.Implications : Cette nouvelle méthode d'évaluation présente desavantages pratiques pour l'évaluation objective de l'épaule. Cecipourrait favoriser l'utilisation de méthodes d'analyse informatiséedu mouvement en clinique et pour la recherche. Les résultats confirmentégalement que l'on peut obtenir une bonne appréciation de lafonction de l'épaule en demandant au patient de mettre la main dansle dos, puis de lever le bras.
Resumo:
RAPPORT DE SYNTHESE : Introduction : les patients obèses morbides présentent un risque majeur de développer des calculs biliaires en raison d'une sécrétion accrue de cholestérol dans la bile. Ce risque, davantage élevé dans la phase de perte pondérale rapide consécutive à la chirurgie bariatrique ou lors de régimes amaigrissants, est souvent la cause de nombreux symptômes, voire de complications biliaires. Aussi l'association d'une cholécystectomie à la chirurgie bariatrique, notamment le bypass gastrique laparoscopique a-t-elle été proposée afin d'éviter ces complications parfois redoutables dans cette population fragile. Ce concept a cependant fait l'objet de démentis dans de récentes études où ce risque apparaîtrait moins élevé, et la cholécystectomie durant le by- pris gastrique laparoscopique pourrait être grevée de difficultés et présenter des risques opératoires non négligeables pour le patient. Patients et méthodes : notre série comporte 772 patients opérés entre 2000 et 2007 par by-pass gastrique laparoscopique, avec montage d'une anse en Y selon Roux. Ces patients obèses morbides avaient été sélectionnés sur la base d'une anamnèse concluante, d'un examen anthropométrique, d'un bilan sanguin et d'un ultrason abdominal. Une analyse rétrospective des résultats d'ultrason abdominal préopératoire et des rapports histopathologiques des vésicules biliaires en postopératoire a été réalisée chez les patients opérés avant 2004. Résultats : 58 patients (7,5 %) avaient déjà eu une cholécystectomie. L'US abdominal a révélé des calculs ou de la boue biliaire chez 81 patients (11,3 %), un polype chez un patient et une vésicule biliaire normale chez les patients restants. La cholécystectomie a été réalisée concomitamment au by-pass gastrique chez 66S patients (91,7 %) et des calculs biliaires retrouvés à l'examen per-opératoire des vésicules biliaires chez 25 patients (3,9 %), rapportant alors la prévalence de la cholélithiase à 21,2 % dans cette population. L'âge des patients porteurs de calculs biliaires était significativement plus élevé que celui des patients sans calculs biliares (43,5 contre 38,7 ans, P < 0,0001). A l'examen histopathologique, des anomalies ont été décrites dans 81,8 % des vésicules biliaires, consistant pour la plupart en cholécystite chronique et cholestérolose. Aucune complication post-opératoire n'a été associée à la cholécystectomie et le prolongement du temps opératoire était en moyenne de 19 minutes (4 - 45 minutes) sans aucun impact sur le séjour hospitalier. La cholécystectomie n'a pas été réalisée chez 59 patients (8,3 %) en raison de conditions opératoires défavorables, notamment une exposition insuffisante. Un traitement d'acide ursodésoxycholique a été prescrit sur une période de 6 mois et aucun de ces patients n'a manifesté de symptômes biliaires. Conclusion : la cholécystectomie peut être réalisée à titre prophylactique et en toute sécurité au cours du by-pass gastrique laparoscopique. Cet acte opératoire supplémentaire sans conséquence sur le séjour hospitalier, constitue selon la présente étude une forme de prophylaxie recommandable dans la prévention de la formation des calculs biliaires dans la phase de perte pondérale post-opératoire. Sa supériorité ou non par rapport à la prophylaxie médicamenteuse à l'acide ursodésoxycholique n'a pas encore été établie. Des études prospectives randomisées seraient nécessaires afin de confirmer l'avantage de l'une ou l'autre de ces deux alternatives.
Resumo:
Résumé: Un des domaines de prédilection de la recherche préventive en ostéoporose, est l'alimentation. L'étude « EVANIBUS » s'inscrit dans le cadre de cette recherche. Un de ses buts est de cibler à travers un questionnaire de fréquence alimentaire chez une population féminine âgée de plus de 75 ans, l'alimentation à risque pour l'ostéoporose. Le choix du questionnaire pour cette étude s'est porté sur le «Food Frequency Questionnaire», élaboré et validé sur une population pré-ménopausique écossaise par Susan New. Ce questionnaire se répartit en différents groupes et sous-groupes alimentaires. A l'aide de tables nutritionnelles les principaux micronutriments essentiels à la santé osseuse contenus dans lés sous-groupes alimentaires ont été calculés. Avant d'utiliser un questionnaire de fréquence alimentaire dans une population différente, il est nécessaire de procéder à une adaptation et une nouvelle validation du questionnaire. Cependant, cette procédure nécessite la collaboration d'un spécialiste en nutrition. Pour cette raison, seule la reproductibilité du questionnaire a été testée. Le test choisi est la première et deuxième étape du test de Bland-Altman. La reproductibilité s'établit entre les 2 mesures (1 mois d'intervalle) de la fréquence moyenne de consommation obtenue pour chaque item (groupes et sous-groupes alimentaires). Les résultats montrent que seule une minorité d'item présente une acceptation des 2 étapes du test de Bland-Altman. Pour expliquer cette mauvaise reproductibilité, les biais systématiques ont été mis en évidence et analysés en détails. Les erreurs dues à la méthodologie sont également analysées. Ces dernières sont en principe évitables. C'est l'absence d'adaptation du questionnaire qui semble en être la cause principale. A cet effet des mesures de correction sont proposées, telles qu'un pilotage du questionnaire dans un échantillon de la population cible. L'analyse du questionnaire relève également une diminution globale de la consommation lors de la deuxième mesure. On émet alors, l'hypothèse d'une influence météorologique par l'intermédiaire d'une hausse des températures.