669 resultados para Variabilité climatique
Resumo:
Les médicaments anticancéreux sont souvent caractérisés par une importante variabilité pharmacocinétique interindividuelle, des relations entre concentration et réponse clinique et une marge thérapeutique étroite. Pourtant, le suivi thérapeutique des concentrations de ces médicaments (TDM) est encore rare en oncologie. Les bases scientifiques justifiant un TDM des nouvelles thérapies ciblées orales sont encore très hétérogènes. Cependant, d'assez solides évidences existent pour l'imatinib et certaines apparaissent progressivement pour d'autres composés. A côté de cela, le TDM est aussi pratiqué dans des situations spécifiques de traitement par certaines chimiothérapies conventionnelles. Des efforts considérables restent toutefois à réaliser pour mieux caractériser la pharmacocinétique de ces médicaments, pour préciser leurs relations concentration-effet et pour conduire des études prospectives randomisées évaluant le bénéfice clinique de l'approche TDM en oncologie.
Resumo:
Cet article présente une étude, commencée en 2007, sur le développement de l'edelweiss dans deux alpages du val Ferret (VS). A moyen terme, cette étude vise à estimer la capacité de résistance à la pâture des moutons de l'espèce et à mieux connaître la dynamique de ses populations dans l'idée d'améliorer sa conservation. L'article présente les deux sites d'études (conditions écologiques, importance des populations d'edelweiss) et s'intéresse principalement à la composition du tapis végétal. Cette première étape est avant tout descriptive mais elle est d'importance primordiale pour pouvoir interpréter les observations de multiplication et de colonisation de l'edelweiss in situ. Des méthodes de l'écologie numérique sont utilisées pour explorer la variabilité de la composition spécifique des parcelles d'étude, subdivisées en groupes homogènes. On cherche ensuite les variables environnementales qui expliquent le mieux la composition floristique des groupes retenus.
Resumo:
Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
The present dissertation analyzed the construct of attachment at different time points, specifically focusing on two phases of adoptive family life that have so far received little attention from investigators. Study 1 focused on the first months of adoption, and analyzed the development of the attachment relationship to new caregivers. The sample was composed of a small but homogeneous group (n=6) of Korean-born children, adopted by Italian parents. The Parent Attachment Diary (Dozier & Stovall, 1997) was utilized to assess the child's attachment behavior. We assessed these behavior for the first 3 months after placement into adoption. Results showed a double variability of attachment behavior: within subjects during the 3-months, and between subjects, with just half of the children developing a stable pattern of attachment. In order to test the growth trajectories of attachment behavior, Hierarchical Linear Models (Bryk & Raudenbush, 1992) were also applied, but no significant population trend was identified. Study 2 analyzed attachment among adoptees during the sensitive period of adolescence. Data was derived from an international collection (n= 104, from Belgium Italy, and Romania) of semi-structured clinical interviews (with adolescents and with their adoptive parents), as well as from questionnaires. The purpose of this study was to detect the role played by risk and protective factors on the adoptee's behavioral and socio-emotional outcomes. In addition, we tested the possible interactions between the different attachment representations within the adoptive family. Results showed that pre-adoptive risk predicted the adolescent's adjustment; however, parental representations constituted an important moderator of this relationship. Moreover, the adolescent's security of attachment partially mediated the relationship between age at placement and later behavioral problems. In conclusion, the two present attachment studies highlighted the notable rate of change of attachment behavior over time, which showed its underlying plasticity, and thus the possible reparatory value of the adoption practice. Since parents have been proven to play an important role, especially in adolescence, the post-adoption support acquires even more importance in order to help parents promoting a positive and stable relational environment over time. - L'objectif de cette thèse est de décrire la formation des relations d'attachement chez les enfants et les adolescents adoptés, lors de deux phases particulières de la vie de la famille adoptive, qui ont été relativement peu étudiées. L'Étude 1 analyse les premiers mois après l'adoption, avec le but de comprendre si, et comment, une relation d'attachement aux nouveaux parents se développe. L'échantillon est composé d'un petit groupe (n = 6) d'enfants provenant de Corée du Sud, adoptés par des parents Italiens. A l'aide du Parent Attachment Diary (Dozier & Stovall, 1997), des observations des comportements d'attachement de l'enfant ont été recueillies chaque jour au cours des 3 premiers mois après l'arrivée. Les résultats montrent une double variabilité des comportements d'attachement: au niveau inter- et intra-individuel ; au premier de ces niveaux, seuleme la moitié des enfants parvient à développer un pattern stable d'attachement ; au niveau intra-individuel, les trajectoires de développement des comportements d'attachement ont été testées à l'aide de Modèles Linéaires Hiérarchiques (Bryk et Raudenbush, 1992), mais aucune tendance significative n'a pu être révélée. L'Étude 2 vise à analyser l'attachement chez des enfants adoptés dans l'enfance, lors de la période particulièrement sensible de l'adolescence. Les données sont issues d'un base de données internationale (n = 104, Belgique, Italie et Roumanie), composée d' entretiens cliniques semi-structurées (auprès de l'adolescents et des ses parents adoptifs), ainsi que de questionnaires. Les analyses statistiques visent à détecter la présence de facteurs de risque et de protection relativement à l'attachement et aux problèmes de comportement de l'enfant adopté. En outre, la présence d'interactions entre les représentations d'attachement des membres de la famille adoptive est évaluée. Les résultats montrent que les risques associés à la période pré-adoptive prédisent la qualité du bien-être de l'adolescent, mais les représentations parentales constituent un modérateur important de cette relation. En outre, la sécurité de l'attachement du jeune adopté médiatise partiellement la relation entre l'âge au moment du placement et les problèmes de comportement lors de l'adolescence. En conclusion, à l'aide de multiples données relatives à l'attachement, ces deux études soulignent son évolution notable au fil du temps, ce qui sous-tend la présence d'une certaine plasticité, et donc la possible valeur réparatrice de la pratique de l'adoption. Comme les parents semblent jouer un rôle important de ce point de vue, surtout à l'adolescence, cela renforce la notion d'un soutien post-adoption, en vue d'aider les parents à la promotion d'un environnement relationnel favorable et stable. - Il presente lavoro è volto ad analizzare l'attaccamento durante le due fasi della vita della famiglia adottiva che meno sono state indagate dalla letteratura. Lo Studio 1 aveva l'obiettivo di analizzare i primi mesi che seguono il collocamento del bambino, al fine di capire se e come una relazione di attaccamento verso i nuovi genitori si sviluppa. Il campione è composto da un piccolo gruppo (n = 6) di bambini provenienti dalla Corea del Sud e adottati da genitori italiani. Attraverso il Parent Attachment Diary (Stovall e Dozier, 1997) sono stati osservati quotidianamente, e per i primi tre mesi, i comportamenti di attaccamento del bambino. I risultati hanno mostrato una duplice variabilità: a livello intraindividuale (nell'arco dei 3 mesi), ed interindividuale, poiché solo la metà dei bambini ha sviluppato un pattern stabile di attaccamento. Per verificare le traiettorie di sviluppo di tali comportamenti, sono stati applicati i Modelli Lineari Gerarchici (Bryk & Raudenbush, 1992), che però non hanno stimato una tendenza significativa all'interno della popolazione. Obiettivo dello Studio 2 è stato quello di esaminare l'attaccamento nelle famiglie i cui figli adottivi si trovavano nella delicata fase adolescenziale. I dati, provenienti da una raccolta internazionale (n = 104, Belgio, Italia e Romania), erano costituiti da interviste cliniche semi-strutturate (con gli adolescenti e i propri genitori adottivi) e da questionari. Le analisi hanno indagato il ruolo dei fattori di rischio sullo sviluppo socio-emotivo e sugli eventuali problemi comportamentali dei ragazzi. Inoltre, sono state esaminate le possibili interazioni tra le diverse rappresentazioni di attaccamento dei membri della famiglia adottiva. I risultati hanno mostrato che il rischio pre-adottivo predice l'adattamento dell'adolescente, sebbene le rappresentazioni genitoriali costituiscano un importante moderatore di questa relazione. Inoltre, la sicurezza dell'attaccamento dell'adolescente media parzialmente la relazione tra età al momento dell'adozione e problemi comportamentali in adolescenza. In conclusione, attraverso i molteplici dati relativi all'attaccamento, i due studi ne hanno evidenziato il cambiamento nel tempo, a riprova della sua plasticità, e pertanto sottolineano il possibile valore riparativo dell'adozione. Dal momento che i genitori svolgono un ruolo importante, soprattutto in adolescenza, il supporto nel post- adozione diventa centrale per aiutarli a promuovere un ambiente relazionale favorevole e stabile nel tempo.
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
Les coûts de traitement de certains patients s'avèrent extrêmement élevés, et peuvent faire soupçonner une prise en charge médicale inadéquate. Comme I'évolution du remboursement des prestations hospitalières passe à des forfaits par pathologie, il est essentiel de vérifier ce point, d'essayer de déterminer si ce type de patients peut être identifié à leur admission, et de s'assurer que leur devenir soit acceptable. Pour les années 1995 et 1997. les coûts de traitement dépassant de 6 déviations standard le coût moyen de la catégorie diagnostique APDRG ont été identifiés, et les dossiers des 50 patients dont les coûts variables étaient les plus élevés ont été analysés. Le nombre total de patients dont I'hospitalisation a entraîné des coûts extrêmes a passé de 391 en 1995 à 328 patients en 1997 (-16%). En ce qui concerne les 50 patients ayant entraîné les prises en charge les plus chères de manière absolue, les longs séjours dans de multiples services sont fréquents, mais 90% des patients sont sortis de l'hôpital en vie, et près de la moitié directement à domicile. Ils présentaient une variabilité importante de diagnostics et d'interventions, mais pas d'évidence de prise en charge inadéquate. En conclusion, les patients qualifiés de cas extrêmes sur un plan économique, ne le sont pas sur un plan strictement médical, et leur devenir est bon. Face à la pression qu'exercera le passage à un mode de financement par pathologie, les hôpitaux doivent mettre au point un système de revue interne de I'adéquation des prestations fournies basées sur des caractéristiques cliniques, s'ils veulent garantir des soins de qualité. et identifier les éventuelles prestations sous-optimales qu'ils pourraient être amenés à délivrer. [Auteurs] Treatment costs for some patients are extremely high and might let think that medical care could have been inadequate. As hospital financing systems move towards reimbursement by diagnostic groups, it is essential to assess whether inadequate care is provided, to try to identify these patients upon admission, and make sure that their outcome is good. For the years 1995 and 1997, treatment costs exceeding by 6 standard deviations the average cost of their APDRG category were identified, and the charts of the 50 patients with the highest variable costs were analyzed. The total number of patients with such extreme costs diminished from 391 in 1995 to 328 in 1997 (-16%). For the 50 most expensive patients, long stays in several services were frequent, but 90% of these patients left the hospital alive, and about half directly to their home. They presented an important variation in diagnoses and operations, but no evidence for inadequate care. Thus, patients qualified as extreme from an economic perspective cannot be qualified as such from a medical perspective, and their outcome is good. To face the pressure linked with the change in financing system, hospitals must develop an internal review system for assessing the adequacy of care, based on clinical characteristics, if they want to guarantee good quality of care and identify potentially inadequate practice.
Resumo:
Les précipitations moyennes et les nombres de jours de pluie par saison et par an ont été analysés pour 151 séries de mesures pluviométriques en Suisse de 1900 à 2009. Ces analyses révèlent que les précipitations moyennes ont augmenté durant le 20ème siècle pour toutes les saisons, sauf en été. Cette hausse est la plus marquée en hiver, surtout dans le Nord des Alpes et en Valais. Les nombres de jours de pluie ont également augmenté en hiver, mais moins fortement que les précipitations moyennes, alors qu'ils tendent à diminuer très légèrement durant les autres saisons. On en déduit que l'intensité moyenne des précipitations s'est accrue en Suisse durant le 20ème siècle en toutes saisons.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
ABSTRACT : Ostracods are benthic microcrustaceans enclosed in low-Mg calcite bivalves. Stable isotope compositions, Mg/Ca, and Sr/Ca ratios of ostracod fossil valves have proven useful to reconstruct past environmental conditions. Yet, several discrepancies persist and the influence of many factors remains unclear. It is the aim of this study to improve the use of ostracod valve geochemistry as palaeoenvironmental proxies by examining the extent of isotope fractionation and trace element partitioning during valve calcification. To achieve this, the environmental parameters (pH, temperature) and chemical composition of water (C-and O-isotope composition and calcium, magnesium, and strontium content) were measured at sites where living ostracods were sampled. The sampling was on a monthly basis over the course of one year at five different water depths (2, 5, 13, 33, and 70 m) in Lake Geneva, Switzerland. The one-year sampling enabled collection of environmental data for bottom and interstitial pore water. In littoral to sublittoral zones, C-isotope composition of DIC and the Mg/Ca and Sr/Ca ratios of water are found to vary concomitantly with water temperature. This is due to the precipitation of calcite, which is induced by higher photosynthetic activity as temperature and/or solar radiation intensify in summer. In deeper zones, environmental parameters remain largely constant throughout the year. Variations of pH, DIC concentrations and C-isotope compositions in interstitial water result from aerobic as well as anaerobic respiration, calcite dissolution and methanogenesis. Bathymetric distribution, life cycles, and habitats were derived for 15 ostracod species and are predominantly related to water temperature and sediment texture. O-isotope compositions of ostracod valves in Lake Geneva reflect that of water and temperature. However, offsets of up to 3 permil are observed in comparison with proposed inorganic calcite precipitation equilibrium composition. Deprotonation of HCO3- and/or salt effect at crystallisation sites may explain the disequilibrium observed for O-isotopic compositions. C-isotope compositions of ostracod valves are not as well constrained and appear to be controlled by a complex interaction between habitat preferences and seasonal as well as spatial variations of the DIC isotope composition. For infaunal forms, C-isotope compositions reflect mainly the variation of DIC isotope composition in interstitial pore waters. For epifaunal forms, C-isotope compositions reflect the seasonal variation of DIC isotope compositions. C-isotope compositions of ostracod valves is at equilibrium with DIC except for a small number of species (L. inopinata, L. sanctipatricii and possibly C. ophtalmica, and I. beauchampi). Trace element uptake differs considerably from species to species. For most epifaunal forms, trace element content follows the seasonal cycle, recording temperature increases and/or variations of Mg/Ca and Sr/Ca ratios of water. In contrast, infaunal forms are predominantly related to sediment pore water chemistry. RÉSUMÉ EN FRANÇAIS : Les ostracodes sont de petits crustacés benthiques qui possèdent une coquille faite de calcite à faible teneur en magnésium. La composition isotopique et les rapports Mg/Ca et Sr/Ca d'ostracodes fossiles ont été utilisés maintes fois avec succès pour effectuer des reconstructions paléoenvironnementales. Néanmoins, certains désaccords persistent sur l'interprétation de ces données. De plus, l'influence de certains facteurs pouvant biaiser le signal reste encore inconnue. Ainsi, le but de cette étude est de rendre plus performant l'emploi de la composition géochimique des ostracodes comme indicateur paléoenvironnemental. Pour réaliser cela, cinq sites situés dans le Léman à 2, 5, 13, 33 et 70 m de profondeur ont été choisis pour effectuer les échantillonnages. Chaque site a été visité une fois par mois durant une année. Les différents paramètres environnementaux (pH, température) ainsi que la composition géochimique de l'eau (composition isotopique de l'oxygène et du carbone ainsi que teneur en calcium, magnésium et strontium) ont été déterminés pour chaque campagne. Des ostracodes vivants ont été récoltés au cinq sites en même temps que les échantillons d'eau. Ce travail de terrain a permis de caractériser la géochimie de l'eau se trouvant juste au-dessus des sédiments ainsi que celle de l'eau se trouvant dans les interstices du sédiment. Dans les zones littorales à sublittorales, la composition isotopique du carbone inorganique dissout (CID) ainsi que les rapports Mg/Ca et Sr/Ca de l'eau varient linéairement avec la température. Ceci peut être expliqué par la précipitation de calcite qui est contrôlée par l'activité photosynthétique, variant elle même linéairement avec la température. Dans les zones plus profondes, les paramètres environnementaux restent relativement constants tout au long de l'année. Les variations du pH, de la concentration et de la composition isotopique du CID dans les sédiments résultent de la libération de carbone engendrée par la dégradation de la matière organique avec présence d'oxygène ou via réduction de nitrates et de sulfates, par la dissolution de carbonates, ainsi que par la méthanogenèse. La distribution bathymétrique, le cycle de vie ainsi que l'habitat de 15 espèces ont été déterminés. Ceux-ci sont principalement reliés à la température de l'eau et à la texture des sédiments. La composition isotopique de l'oxygène des valves d'ostracodes reflète celle de l'eau et la température qui régnait lors de la calcification. Néanmoins, des écarts pouvant aller jusqu'à 3 0/00 par rapport à l'équilibre théorique ont été obtenus. La déprotonation de HCO3 ou un 'effet de sel' pourrait être à l'origine du déséquilibre observé. La composition isotopique du carbone des valves d'ostracodes n'est pas aussi bien cernée. Celle-ci semble être principalement contrôlée par une interaction complexe entre l'habitat des ostracodes et les variations saisonnières et spatiales de la composition isotopique du CID. Pour les espèces endofaunes, la composition isotopique du carbone reflète principalement la variation de la composition isotopique du CID à l'intérieur des sédiments. Pour les formes épifaunes, c'est la variation saisonnière de la composition du CID qui contrôle celle de la coquille des ostracodes. En général, la composition isotopique du carbone des valves d'ostracodes est en équilibre avec celle de CID, hormis pour quelques rares espèces (L. inopinata, L. sanctipatricii et peut-être C. ophtalmica et I. beauchampi). L'incorporation des éléments traces diffère passablement d'une espèce à l'autre. Pour la plupart des espèces épifaunes, la teneur en éléments traces des coquilles reflète les variations saisonnières. Ces espèces semblent enregistrer les variations soit de la température soit des rapports Mg/Ca et Sr/Ca de l'eau. La teneur en élément traces des formes infaunales, au contraire, est principalement reliée à la chimie de l'eau interstitielle. RÉSUMÉ GRAND-PUBLIC : La connaissance de l'évolution du climat dans le futur est primordiale pour notre société, car elle permet de développer différentes stratégies pour faire face aux problèmes engendrés pas le changement climatique : stratégies environnementale, humanitaire, ou encore économique. Cette problématique est actuellement, à juste titre, sujet d'une vive préoccupation. La géologie peut-elle contribuer à l'effort communautaire entrepris? Naturellement, ce sont les climatologues qui sont sur le devant de la scène. Il n'empêche que ces derniers, pour pouvoir prédire l'avenir, doivent s'appuyer sur le passé. La géologie est alors d'un grand intérêt car c'est effectivement la seule science qui permette d'estimer les variations climatiques à grande échelle sur de longues périodes. Ainsi, voulant moi-même contribuer aux recherches menées dans ce domaine, je me suis tourné à la fin de mes études vers la paléoclimatologie, science qui a pour but de reconstruire le climat des temps anciens. Nous nous sommes rendu compte que l'évolution climatique de la région où nous habitons n'avait pas encore fait le sujet d'études approfondies. Il est pourtant important de connaître la variation locale des changements climatiques pour obtenir des modèles climatiques fiables. En conséquence, un vaste projet a vu le jour : reconstruire, à l'aide des sédiments du lac Léman, les variations paléoclimatiques et paléo-environnementales depuis le retrait du Glacier de Rhône, il y a environ 15'000 ans, jusqu'à nos jours. Pour ce genre de travail, la géochimie, qui est une forme de chimie, utilisée en science de la terre regroupant la chimie classique et la chimie isotopique, est une alliée particulièrement efficace. Elle permet en effet, via différentes mesures faites sur des archives géologiques (par exemple des fossiles ou des sédiments) d'obtenir des informations, souvent quantitatives, sur les conditions (le climat, la flore ou encore la bio productivité, etc...) qui régnaient il y a fort longtemps. Les coquilles d'ostracodes, qui sont de petits animaux vivant au fond des lacs, sont une des archives les plus prometteuses. Ces animaux sont des petits crustacés s'entourant d'une coquille calcaire qu'ils sécrètent eux-mêmes. A la mort de l'animal, la coquille est intégrée dans les sédiments et reste intacte à travers les âges. Des études ont montré qu'en analysant la géochimie de ces coquilles fossiles, il est possible de reconstruire les conditions environnementales qui régnaient à l'époque de vie de ces fossiles. Cette démarche nécessite qu'une condition bien précise soit remplie: la composition géochimique de la coquille doit enregistrer de manière fidèle la chimie de l'eau et/ou la température de l'eau présentes au moment de la sécrétion de la coquille. Le but spécifique de notre recherche a précisément été d'étudier la façon dont la chimie de l'eau ainsi que sa température sont enregistrées dans la coquillé des ostracodes. Une fois les relations entre ces divers paramètres dans l'étant actuel du système établies, il sera alors possible de les utiliser pour interpréter des données issues de coquilles fossiles. Pour ce faire, nous avons mesuré la température de l'eau de manière continue et récolté mensuellement des échantillons d'eau et des ostracodes vivants pendant une année. Cinq sites situés à 2, 5, 13, 33 et 70 mètres de profondeur ont été choisis pour effectuer ces échantillonnages dans le Léman. Le travail de terrain nous a amené à étudier la biologie de 15 espèces. Nous avons pu établir la profondeur à laquelle vivent ces animaux, leur période de développement ainsi que leur habitat respectifs. Ces résultats ont permis de mieux cerner la relation qu'il existe entre la chimie de l'eau, sa température et la composition géochimique des coquilles d'ostracodes. Nous avons ainsi pu confirmer que les coquilles d'ostracodes enregistrent de manière fidèle la composition chimique et isotopique de l'eau. De même, nous avons pu établir de manière plus précise l'effet de la température sur la géochimie des coquilles. Néanmoins, les relations trouvées entre ces trois éléments sont plus complexes pour certaines espèces, cette complexité étant souvent liée à un caractère spécifique de leur écologie. Nous avons mis en lumière certains effets qui biaisent les résultats et défini précisément les conditions dans lesquelles on peut s'attendre à avoir des difficultés dans leur interprétation. Maintenant que nous avons établi les relations entre le climat actuel et la composition géochimique des coquilles d'ostracodes actuels, nous pouvons, sur la base de ce modèle, reconstruire le climat depuis le retrait du Glacier du Rhône jusqu'à nos jours à l'aide d'ostracodes fossiles. Mais cela est une autre histoire et fera, je l'espère, le sujet de nos futures recherches.
Resumo:
Introduction: Bien que l'imatinib (Glivec®) ait révolutionné le traitement de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST), ses relations pharmacocinétique-pharmacodynamique (PK-PD) ont été peu étudiées. De par ses caractéristiques pharmacocinétiques (PK), ce médicament pourrait toutefois représenter un candidat à un programme de suivi thérapeutique (TDM). Objectif: Cette étude observationnelle visait à explorer ces relations PK-PD, et à évaluer l'influence spécifique du génotype de la tumeur dans la population GIST. Méthode: Des données de 59 patients ont été collectées durant une étude pharmacocinétique précédente. Sur la base du modèle de population développé alors, les paramètres PK ont été obtenus par estimation bayésienne et ont permis d'estimer l'exposition au médicament (AUC; aire sous la courbe). Les paramètres se rapportant à la fraction libre de l'imatinib ont été déduits d'un modèle intégrant les taux plasmatiques d'alpha1-glycoprotéine acide. L'association entre l'AUC (ou la clairance) et la réponse ou la toxicité a été explorée par régression logistique. L'influence du génotype de la tumeur (gène KIT) sur la réponse a également été évaluée chez des patients GIST. Résultats: L'exposition du médicament totale et libre est corrélée au nombre d'effets indésirables (ex: OR 2.9 ± 0.6 pour un accroissement d'AUC d'un facteur 2; p<0.001). Une relation avec la réponse n'est par contre pas évidente (les bons répondeurs recevant souvent des doses plus faibles que les mauvais répondeurs). Cependant, chez les patients GIST, une AUC libre plus élevée prédit une meilleure réponse (OR 1.9 ± 0.6; p<0.001), notamment chez les patients présentant des mutations sur l'exon 9 du gène cible KIT (ou un gène wild-type). Un tel profile génétique est connu pour diminuer la sensibilité à l'imatinib, par opposition à des mutations sur l'exon 11. Discussion-conclusion: Ces résultats, associés à la grande variabilité PK observée, représentent des arguments pour évaluer, pour l'imatinib, le bénéfice d'un programme de TDM. Nos données suggèrent également qu'une stratification des patients selon le génotype de la tumeur est important.
Resumo:
Introduction.- La bérylliose chronique est une granulomatose pulmonaire pour laquelle le diagnostic est rarement posé en raison d'une méconnaissance du risque d'exposition professionnelle au béryllium.En outre, le tableau clinique, les signes radiologiques et les symptômes ressemblent a` une sarcoïdose. Ainsi, la fréquence de la maladie est probablement sous-estimée malgré l'utilisation de béryllium dans la fabrication de nombreux produits industriels et techniques en Suisse, tels que ressorts, prothèses dentaires, micro-électronique... Comme aide au diagnostic, un test de prolifération lymphocytaire au béryllium (BeLPT) a été développé pour évaluer la réponse immunocellulaire spécifique au béryllium. Mais celui-ci présente des inconvénients : utilisation de produits radioactifs, variabilité interlaboratoire importante, valeur prédictive contesteé. L'utilisation de l'Elispot, évaluant également la réponse lymphocytaire pourrait être une alternative au BeLPT. Objectifs.- Les objectifs de l'étude sont, d'une part, de déceler parmi les cas de sarcoïdose du registre SIOLD (Swiss Group for Interstitial and Orphan Lung Diseases) des cas de bérylliose sous-diagnostiqués et, d'autre part, d'améliorer les tests de de´pistage (questionnaire et test immunologique) de sensibilisation et de diagnostic. Méthode.- Cent soixante autoquestionnaires évaluant l'exposition professionnelle au béryllium ont été adressés à des patients référencés dans le registre SIOLD, souffrant de sarcoïdose. Les patients relatant dans l'autoquestionnaire un contact professionnel avec le béryllium ont bénéficié d'une visite médicale à l'Institut universitaire romand de santé au travail (IST) comportant une anamnèse professionnelle, un questionnaire spécifique à l'exposition au béryllium (questionnaire de Cherry) et une prise de sang. Par la suite, le sang a été analysé par Elispot pour évaluer la possibilité d'une sensibilisation au béryllium. En parallèle, des patients déjà diagnostiqués pour une bérylliose par un BeLPT ont servi de cas contrôle positifs pour la mise en place du test. Résultats.- Cinquante pour cents des autoquestionnaires adressés aux patients du registre SIOLD ont été renvoyés. Parmi ceux-ci, 33 %(26 personnes) rapportaient une exposition professionnelle possible au béryllium et ont été reçus a` l'IST pour compléter l'anamnèse professionnelle et répondre au questionnaire adapté de Cherry. Il ressort de ce questionnaire que 3 personnes ont effectivement travaillé avec du béryllium au cours de leur carrière professionnelle et que 4 ont potentiellement été exposées dans le contexte de leur environnement professionnel. Tous les patients ont été testés par Elispot, mais aucun n'a montré de prolifération évoquant une sensibilisation au béryllium. Des résultats supplémentaires devraient être disponibles dès février. Conclusion.- Au vu de ces résultats où seules 7 personnes sur les 80 ayant répondu au questionnaire (8 %) sont suspectées d'avoir été exposées directement ou indirectement au béryllium au cours de leur activité professionnelle, il est possible que le risque d'exposition au béryllium soit anecdotique, malgré une utilisation importante de ce métal dans certaines régions de Suisse. Une hypothèse envisageable est que la population de l'étude ne soit pas représentative de la population exposée. En outre, le fait que les tests lymphocytaires effectués sur les 7 personnes ayant rapporté une exposition au béryllium soient revenus négatifs peut être expliqué de 2 manières : soit que chez ces personnes, la maladie pulmonaire n'est pas due au béryllium, même si l'anamnèse professionnelle est positive et qu'il s'agit bien d'une sarcoïdose, soit que la prise de corticoïdes modifie la réponse immunitaire, soit que le test n'est pas suffisamment sensible.
Resumo:
Rapport de synthèseEnjeux et contexteL'épidémie d'obésité est un enjeu majeur de santé publique, et l'augmentation parallèle du nombre de patients obèses admis aux soins intensifs appelle à une meilleure connaissance des spécificités de la physiopathologie de cette population. De nombreuses anomalies physiologiques associées à l'obésité sont connues, notamment une inflammation sub-clinique chronique. Cependant, les connaissances concernant la réponse inflammatoire lors d'une agression des sujets obèses sont pour l'heure assez limitées. Bien que les réponses inflammatoires in vitro du tissu adipeux soient augmentées, les données in vivo sont pour l'instant non-conclusives.L'injection intraveineuse d'endotoxine est un test hautement reproductible provoquant une inflammation de durée limitée. Il s'agit d'un test validé pour l'étude in vivo lors des réponses inflammatoires. L'endotoxine est un lipopolysaccharide contenu dans les membranes externes des bactéries gram- négatives, notamment de E.Coli. Notre équipe possède une expérience de ces tests avec endotoxine acquise lors d'une série de recherches sur les propriétés modulatrices de l'inflammation des acides gras polyinsaturés oméga-3.Lors de l'élaboration de ce projet, la réponse du sujet obèse à l'endotoxine restait méconnue. L'objectif de l'essai est d'étudier les spécificités des réponses à l'endotoxine, notre hypothèse étant que les réponses physiologiques, métaboliques et endocrines sont amplifiées chez cette catégorie de sujets.Présentation de l'étudeAfin de tester notre hypothèse, nous avons conçu une étude prospective randomisée, avec 2 procédures (injection d'endotoxine vs de placebo) en cross-over: le protocole d'investigation durait chaque fois 8h. Huit volontaires obèses grade I (BMI médian de 33.8 kg/m2) sans morbidité ont été enrôlés. Les variables étudiées étaient: les fréquences cardiaque et respiratoire, la température, la tension artérielle, le débit cardiaque et la saturation veineuse en oxygène, ainsi qu'une calorimétrie indirecte en continu. Les symptômes tels que myalgie, céphalée et nausée ont également été consignés. Des marqueurs hormonaux et inflammatoires (Cortisol, ACTH, catécholamines, insuline, glucose, glucagon, leptine, TNF-alpha, IL-6 et CRP) ont été dosés de manière répétée.Statistiques : Pour limiter les effets de la variabilité inter-individuelle et permettre une comparaison des réponses, le calcul des aires sous la courbe (AUC) selon la méthode trapézoïdale a été utilisé. Le groupe étudié étant de « petite taille », bien ceci soit habituel pour les études de physiologie, et les réponses n'étant pas normalement distribuées, des tests non-paramétriques ont été appliqués : nous savons que la puissance statistique de notre étude est limitée. Considérant les désagréments majeurs (bien que rapidement réversibles) vécus par les volontaires soumis à des infections d'endotoxine, leurs réponses ont été comparées de manières qualitative à celles des non-obèse mesurés lors de précédentes études pour éviter de répliquer ces expériences désagréables et parfaitement prévisibles.Les résultats de cette étude sont parfaitement superposables à celles trouvées chez les sujets de BMI normal, invalidant notre hypothèse de départ d'une éventuelle réponse exacerbée.Conclusions et perspectivesCette étude est la première publication concernant la réponse du patient obèse à un test d'endotoxine. La similitude des résultats chez les patients obèses et non-obèses montre que l'obésité n'est pas en soi un facteur augmentant les réponses inflammatoires.Ces résultats concernent des sujets obèses sains et ne peuvent pas être extrapolés aux sujets obèses avec comorbidités, appelant à de futures investigations chez cette catégorie de patients.
Resumo:
Introduction : Le lipofilling s'est développé au cours du 20ème siècle, mais nécessite encore d'être amélioré, notamment à cause de sa grande variabilité. Dans cette revue de littérature, nous tenterons de déterminer les caractéristiques et les rôles de la centrifugation dans le transfert graisseux autologue. Méthodes : La discussion est fondée sur les 14 articles (Pubmed) qui traitent directement ou non de la centrifugation et ses implications. Discussion : Quelques auteurs s'accordent à penser que la centrifugation crée un gradient de cellules stromales le long du tube centrifugé et statuent que cette sous-couche dense de la phase graisseuse est la plus viable. La centrifugation apparaît donc délétère pour la partie peu dense du tissu prélevé, mais semble, pour certains, améliorer la survie de la sous-couche dense, puisqu'elle est enrichie en ADSC's/MSC's. Conclusion : Dans la mesure où le prélèvement est traumatique pour le tissu graisseux, son taux de survie est relativement faible. Mais si toutes les mesures sont prises en influant sur les déterminants de la prise de greffe, la survie s'optimise et les résultats sont meilleurs.
Resumo:
AbstractCancer treatment has shifted from cytotoxic and nonspecific chemotherapy to chronic treatment with targeted molecular therapies. These new classes of drugs directed against cancer-specific molecules and signaling pathways, act at a particular level of the tumor cell development. However, in both types of therapeutic approaches (standard cytotoxic chemotherapy and targeted signal transduction inhibitions), toxicity and side effects can occur. The aim of this thesis was to investigate various approaches to improve the activity and tolerability of cancer treatment, in a clinical setting, a) by molecular targeting through the use of tyrosine kinase inhibitors (TKIs), whose dosage can be adapted to each patient according to plasma levels, and, b) in a preclinical model, by tissue targeting with locoregional administration of cytotoxic chemotherapy to increase drug exposure in the target tissue while reducing systemic toxicity of the treatment.A comprehensive program for the Therapeutic Drug Monitoring (TDM) of the new class of targeted anticancer drugs of TKIs in patient's blood has been therefore initiated comprising the setting up, validation and clinical application of a multiplex assay by liquid chromatography coupled to tandem mass spectrometry of TKIs in plasma from cancer patients. Information on drugs exposure may be clinically useful for an optimal follow-up of patients' anticancer treatment, especially in case of less than optimal clinical response, occurrence of adverse drug reaction effects and the numerous risks of drug-drug interactions. In this context, better knowledge of the potential drug interactions between TKIs and widely prescribed co- medications is of critical importance for clinicians, to improve their daily care of cancer patients. For one of the first TKI imatinib, TDM interpretation is nowadays based on total plasma concentrations but, only the unbound (free) form is likely to enter cell to exert its pharmacological action. Pharmacokinetic analysis of the total and free plasma level of imatinib measured simultaneously in patients have allowed to refine and validate a population pharmacokinetic model integrating factors influencing in patients the exposure of pharmacological active species. The equation developed from this model may be used for extrapolating free imatinib plasma concentration based on the total plasma levels that are currently measured in TDM from patients. Finally, the specific influence of Pglycoprotein on the intracellular disposition of TKIs has been studies in cell systems using the siRNA silencing approach.Another approach to enhance the selectivity of anticancer treatment may be achieved by the loco-regional administration of a cytostatic agent to the target organ while sparing non- affected tissues. Isolated lung perfusion (ILP) was designed for the treatment of loco-regional malignancies of the lung but clinical results have been so far disappointing. It has been shown in a preclinical model in rats that ILP with the cytotoxic agent doxorubicin alone allows a high drug uptake in lung tissue, and a low systemic toxicity, but was characterized by a high spatial tissular heterogeneity in drug exposure and doxorubicin uptake in tumor was comparatively smaller than in normal lung tissue. Photodynamic therapy (PDT) is a new approach for the treatment of superficial tumors, and implies the application of a sensitizer activated by a laser light at a specific wavelength, that disrupts endothelial barrier of tumor vessels to increase locally the distribution of cytostatics into the tumor tissue. PDT pre-treatment before intravenous administration of liposomal doxorubicin was indeed shown to selectively increase drug uptake in tumors in a rat model of sarcoma tumors to the lung.RésuméLe traitement de certains cancers s'est progressivement transformé et est passé de la chimiothérapie, cytotoxique et non spécifique, au traitement chronique des patients avec des thérapies moléculaires ciblées. Ces médicaments ont une action ciblée en interférant à un niveau spécifique du développement de la cellule tumorale. Dans les deux types d'approches thérapeutiques (chimiothérapie cytotoxique et traitements ciblés), on est confronté à la présence de toxicité et aux effets secondaires du traitement anticancéreux. Le but de cette thèse a donc été d'étudier diverses approches visant à améliorer l'efficacité et la tolérabilité du traitement anticancéreux, a) dans le cadre d'une recherche clinique, par le ciblage moléculaire grâce aux inhibiteurs de tyrosines kinases (TKIs) dont la posologie est adaptée à chaque patient, et b) dans un modèle préclinique, par le ciblage tissulaire grâce à l'administration locorégionale de chimiothérapie cytotoxique, afin d'augmenter l'exposition dans le tissu cible et de réduire la toxicité systémique du traitement.Un programme de recherche sur le suivi thérapeutique (Therapeutic Drug Monitoring, TDM) des inhibiteurs de tyrosine kinases a été ainsi mis en place et a impliqué le développement, la validation et l'application clinique d'une méthode multiplex par chromatographie liquide couplée à la spectrométrie de masse en tandem des TKIs chez les patients souffrant de cancer. L'information fournie par le TDM sur l'exposition des patients aux traitements ciblés est cliniquement utile et est susceptible d'optimiser la dose administrée, notamment dans les cas où la réponse clinique au traitement des patients est sous-optimale, en présence d'effets secondaires du traitement ciblé, ou lorsque des risques d'interactions médicamenteuses sont suspectés. Dans ce contexte, l'étude des interactions entre les TKIs et les co-médications couramment associées est utile pour les cliniciens en charge d'améliorer au jour le jour la prise en charge du traitement anticancéreux. Pour le premier TKI imatinib, l'interprétation TDM est actuellement basée sur la mesure des concentrations plasmatiques totales alors que seule la fraction libre (médicament non lié aux protéines plasmatiques circulantes) est susceptible de pénétrer dans la cellule pour exercer son action pharmacologique. L'analyse pharmacocinétique des taux plasmatiques totaux et libres d'imatinib mesurés simultanément chez les patients a permis d'affiner et de valider un modèle de pharmacocinétique de population qui intègre les facteurs influençant l'exposition à la fraction de médicament pharmacologiquement active. L'équation développée à partir de ce modèle permet d'extrapoler les concentrations libres d'imatinib à partir des concentrations plasmatiques totales qui sont actuellement mesurées lors du TDM des patients. Finalement, l'influence de la P-glycoprotéine sur la disposition cellulaire des TKIs a été étudiée dans un modèle cellulaire utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments.Une autre approche pour augmenter la sélectivité du traitement anticancéreux consiste en une administration loco-régionale d'un agent cytostatique directement au sein de l'organe cible tout en préservant les tissus sains. La perfusion isolée du poumon (ILP) a été conçue pour le traitement loco-régional des cancers affectant les tissus pulmonaires mais les résultats cliniques ont été jusqu'à ce jour décevants. Dans des modèles précliniques chez le rat, il a pu être démontré que l'ILP avec la doxorubicine, un agent cytotoxique, administré seul, permet une exposition élevée au niveau du tissu pulmonaire, et une faible toxicité systémique. Toutefois, cette technique est caractérisée par une importante variabilité de la distribution dans les tissus pulmonaires et une pénétration du médicament au sein de la tumeur comparativement plus faible que dans les tissus sains.La thérapie photodynamique (PDT) est une nouvelle approche pour le traitement des tumeurs superficielles, qui consiste en l'application d'un agent sensibilisateur activé par une lumière laser de longueur d'onde spécifique, qui perturbe l'intégrité physiologique de la barrière endothéliale des vaisseaux alimentant la tumeur et permet d'augmenter localement la pénétration des agents cytostatiques.Nos études ont montré qu'un pré-traitement par PDT permet d'augmenter sélectivement l'absorption de doxorubicine dans les tumeurs lors d'administration i.v. de doxorubicine liposomale dans un modèle de sarcome de poumons de rongeurs.Résumé large publicDepuis une dizaine d'année, le traitement de certains cancers s'est progressivement transformé et les patients qui devaient jusqu'alors subir des chimiothérapies, toxiques et non spécifiques, peuvent maintenant bénéficier de traitements chroniques avec des thérapies ciblées. Avec les deux types d'approches thérapeutiques, on reste cependant confronté à la toxicité et aux effets secondaires du traitement.Le but de cette thèse a été d'étudier chez les patients et dans des modèles précliniques les diverses approches visant à améliorer l'activité et la tolérance des traitements à travers un meilleur ciblage de la thérapie anticancéreuse. Cet effort de recherche nous a conduits à nous intéresser à l'optimisation du traitement par les inhibiteurs de tyrosines kinases (TKIs), une nouvelle génération d'agents anticancéreux ciblés agissant sélectivement sur les cellules tumorales, en particulier chez les patients souffrant de leucémie myéloïde chronique et de tumeurs stromales gastro-intestinales. L'activité clinique ainsi que la toxicité de ces TKIs paraissent dépendre non pas de la dose de médicament administrée, mais de la quantité de médicaments circulant dans le sang auxquelles les tumeurs cancéreuses sont exposées et qui varient beaucoup d'un patient à l'autre. A cet effet, nous avons développé une méthode par chromatographie couplée à la spectrométrie de masse pour mesurer chez les patients les taux de médicaments de la classe des TKIs dans la perspective de piloter le traitement par une approche de suivi thérapeutique (Therapeutic Drug Monitoring, TDM). Le TDM repose sur la mesure de la quantité de médicament dans le sang d'un patient dans le but d'adapter individuellement la posologie la plus appropriée: des quantités insuffisantes de médicament dans le sang peuvent conduire à un échec thérapeutique alors qu'un taux sanguin excessif peut entraîner des manifestations toxiques.Dans une seconde partie préclinique, nous nous sommes concentrés sur l'optimisation de la chimiothérapie loco-régionale dans un modèle de sarcome du poumon chez le rat, afin d'augmenter l'exposition dans la tumeur tout en réduisant la toxicité dans les tissus non affectés.La perfusion isolée du poumon (ILP) permet d'administrer un médicament anticancéreux cytotoxique comme la doxorubicine, sélectivement au niveau le tissu pulmonaire où sont généralement localisées les métastases de sarcome. L'administration par ILP de doxorubicine, toxique pour le coeur, a permis une forte accumulation des médicaments dans le poumon, tout en épargnant le coeur. Il a été malheureusement constaté que la doxorubicine ne pénètre que faiblement dans la tumeur sarcomateuse, témoignant des réponses cliniques décevantes observées avec cette approche en clinique. Nous avons ainsi étudié l'impact sur la pénétration tumorale de l'association d'une chimiothérapie cytotoxique avec la thérapie photodynamique (PDT) qui consiste en l'irradiation spécifique du tissu-cible cancéreux, après l'administration d'un agent photosensibilisateur. Dans ce modèle animal, nous avons observé qu'un traitement par PDT permet effectivement d'augmenter de façon sélective l'accumulation de doxorubicine dans les tumeurs lors d'administration intraveineuse de médicament.