251 resultados para Algorithmes Parallèles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMELes troubles des conduites alimentaires atypiques (TCAA) représentent une catégorie diagnostique émergente, relativement peu décrite. Ils regroupent des tableaux cliniques ne satisfaisant pas entièrement aux critères des troubles alimentaires typiques anorexie et boulimie. Désignés par le terme de EDNOS' dans le DSM-IV2 (American Psychiatrie Association, 1994), ils sont appelés troubles atypiques dans la CIM-103 (World Health Organization, 1993).Les TCAA représentent la majorité des demandes dans les consultations pour troubles alimentaires, concernent une grande proportion de la population non-consultante et constituent un enjeu de santé publique prioritaire.Cette étude se penche sur le parcours de 24 jeunes filles présentant de tels troubles, qui ont été suivies dans le cadre d'un groupe thérapeutique à l'UMSA (Unité Multidisciplinaire de Santé des Adolescents, CHUV, Lausanne). Elle a pour but de mieux connaître ces troubles alimentaires atypiques.Deux axes de questions de recherche organisent ce travail: le premier, orienté autour du trouble alimentaire atypique, de sa définition (avec les questions de classification diagnostique) et de son évolution (avec les questions de passages d'une catégorie à une autre), le second autour du groupe thérapeutique, de son utilité et de ses indications.1. Résultats cliniquesLes résultats de l'analyse thématique décrivent un trouble important, qui induit une souffrance plus intense que ne tendraient à le laisser penser la relative banalité de la présentation clinique en comparaison des troubles typiques ainsi que la catégorisation en tant que troubles résiduels. Des moyens compensatoires -qui visent au maintien d'un poids stable en dépit des crises alimentaires ainsi qu'à la perte de poids, soit par des méthodes non-purgatives (restrictions massives, diètes, jeûnes, pratique du sport à outrance), soit par des méthodes purgatives (vomissements auto-induits, usage de laxatifs, diurétiques) - sont présents chez 15 participantes, sous forme de vomissements chez 6 d'entre elles. Seize participantes ont présenté des troubles des menstruations. Des difficultés de la lignée anxio-dépressive sont relevées chez la moitié des participantes, alliées à un perfectionnisme important. L'estime de soi apparaît globalement basse, excessivement influencée par l'insatisfaction attachée au poids et aux formes corporelles. L'analyse fait clairement apparaître le lien complexe unissant les attitudes face à l'alimentation et le désir de maigrir aux crises de frénésie alimentaire. Les crises permettent aux patientes de moduler leurs émotions, tant .positives que négatives. Le vécu de la maladie et des préoccupations pour le corps et l'alimentation semble généralisable. et «transcatégorique», bien que les troubles alimentaires de l'ordre de l'anorexie atypique restrictive, du fait de l'absence de crises de frénésie, semblent appartenir à un registre différent des troubles avec perte de contrôle sur l'alimentation et crises, notamment en termes d'implications dans la vie quotidienne.Lorsque les participantes sont revues (au minimum un an après la sortie du groupe thérapeutique), 15 d'entre elles sont indemnes de tout symptôme, 5 présentent encore un TCAA type boulimie atypique, et 4 ont parfois des crises résiduelles. Des préoccupations pour l'alimentation et le poids subsistent. Le pronostic d'évolution n'apparaît lié ni à la durée de participation au groupe, ni uniquement à la catégorie diagnostique ou aux seuls éléments de co-morbidité, mais davantage à un investissement rapidement positif du groupe, ainsi qu'à la qualité des prises en charge parallèles en présence d'éléments de co-morbidité importants ou d'antécédents d'autres troubles alimentaires.Notre collectif atteste de passages d'une catégorie de trouble à une autre (anorexie puis boulimie, comme décrit dans la littérature) et de changements d'intensité (trouble typique puis atypique) au cours de la maladie, confirmant un continuum possible, tant entre les troubles typiques, qu'entre les troubles typiques et atypiques. Néanmoins, la multiplicité des parcours possibles dans la maladie, ainsi que l'existence de formes stables, sans passages d'une catégorie à une autre, incite à la prudence et ne permet pas de confirmer en tout point l'hypothèse de la nature dimensionnelle (même nature, intensité différente) des troubles alimentaires.Le trouble atypique représente parfois une étape dans l'évolution à partir d'un trouble typique, pouvant être envisagé comme moment sur le chemin de la guérison, ce qui pose la question des critères de guérison.2. Nature des troubles alimentaires atypiquesDu collectif émergent 4 catégories diagnostiques de troubles alimentaires atypiques: hyperphagie boulimique, boulimie atypique non-purgative, boulimie atypique purgative et anorexie atypique restrictive. Le tableau clinique.de l'hyperphagie boulimique comporte des crises de boulimie, mais peu de préoccupations concernant le poids et les formes corporelles en compá= raison des 3 autres catégories, et pas de moyens de compensation des crises, ce qui induit fréquemment un surpoids voire une obésité pour les patientes concernées. Les moyens de compensation des crises de boulimie demeurent non-purgatives (jeûne, sport) dans la boulimie atypique non-purgative, alors que vomissements et usage de laxatifs suite aux crises caractérisent la boulimie atypique purgative. Le tableau clinique de l'anorexie atypique restrictive ne présente ni crises de boulimie ni moyens de compensation purgatifs type vomissements. Ces catégories sont retrouvées dans la littérature.Nos résultats rejoignent la littérature actuelle qui envisage la nécessité d'une reclassification des troubles alimentaires en vue du DSM-V. Dans l'intervalle, adopter la classification de la CIM et parler d'anorexie atypique, de -type restrictif ou avec crises, de boulimie atypique, purgative ou non, et y ajouter l'hyperphagie boulimique, rendrait mieux compte de la réalité clinique des troubles alimentaires atypiques que ne le fait la classe des EDNOS du DSM, peu différenciée, mêlant des tableaux très divers et au final insatisfaisante.3. Utilité et indication du groupeLe groupe recèle un fort pouvoir thérapeutique pour les patientes qui s'y impliquent. L'étayage sur les autres émerge comme facteur thérapeutique principal, ainsi que le décrit la littérature. Cette prise en charge thérapeutique convient particulièrement à des patientes présentant un trouble alimentaire sur le versant boulimique, comprenant l'hyperphagie boulimique, la boulimie atypique, purgative ou non, ainsi que certaines boulimies de moyenne gravité. Les patientes du collectif qui présentent des difficultés de l'ordre de l'anorexie atypique restrictive bénéficient moins du groupe que les participantes qui expérimentent des pertes de contrôle sur la nourriture.4. ImplicationsL'intensité de la souffrance, la complexité des tableaux symptomatiques, la diversité des parcours et les multiples répercussions sur la vie sociale démontrent l'importance de repérer et prendre en charge ces troubles alimentaires qui demeurent souvent banalisés. Dans cette perspective, la formation au dépistage, à l'évaluation et à la prise en charge des divers intervenants confrontés à ces troubles représente un enjeu majeur. .Enfin, dénoncer les pressions socioculturelles à la minceur et le dictat des régimes, promouvoir une notion de bien-être et une bonne estime de soi qui ne soient pas liées à l'apparence contribuera à prévenir les troubles alimentaires atypiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La décision de traiter ou non repose sur le risque fracturaired'un patient, son adhésion à la prise en charge, l'efficacité dutraitement et son profil d'effets indésirables, et sur le remboursementde ce dernier. Différents algorithmes, dont l'outil FRAX,permettent d'évaluer le risque fracturaire. Ce dernier outil aquelques limites: absence de quantification du type de fracturesantérieures, mauvaise appréciation du risque lié à une corticothérapiesystémique active, absence de validation prospective.Le seuil thérapeutique peut être fixe indépendant de l'âgeou varier avec l'âge. Les analyses coût-efficacité montrent quepour un même profil de risque, plus la personne est âgée, plusgrand est le bénéfice économique. Le jugement clinique peutnous guider dans certaines situations. La fracture non traumatique,l'âge avancé, la corticothérapie, un T-score abaissé sontles principaux facteurs de risque utilisés en pratique. Dans l'approchediagnostique, la recherche de la fracture vertébrale sousjacenteest impérative, idéalement par IVA. Les quelques exemplesci-dessous montrent les limites des algorithmes et dujugement clinique.Sans facteur de risque pour l'ostéoporose, mais avec un T-scoreà -3.2 DS, à quel âge va-t-on débuter un traitement chez cettefemme ? Avant ou après 60 ans ? Certaines situations cliniquessemblent claires et posent l'indication à traiter: la fracture de lahanche, la fracture vertébrale spontanée, la corticothérapie aulong cours. Mais si pour ces trois situations la densitométrieosseuse donne un T-score à -0.5 DS, ou si le patient a 35 ans,est-ce que chaque clinicien sera d'accord de traiter ? On saitpar exemple que le risque fracturaire sous corticothérapie aulong cours semble faible chez la femme préménopausée et chezl'homme avant 50 ans. Que faire après une fracture du poignetà 50 ans : ne pas traiter si le T-score est à -1.5 DS et traiter si leT-score est à -3 DS ? L'antécédent de fracture du poignet n'estpas un facteur de risque aussi fort de la fracture subséquenteque la hanche, la vertèbre ou l'humérus. Et chez cette femme de80 ans ayant eu une fracture de côte sur un effort de toux, avecun T-score à -2.5 DS ? Ou cette autre femme de 83 ans, sansfacteur de risque particulier pour l'ostéoporose mais avec unT-score à -3.1 DS ? Ces deux dernières femmes bénéficient d'untraitement en terme économique et le praticien respecte les indicationsau remboursement. Mais certains modèles préconisentde ne pas traiter les personnes très âgées si leur risque fracturairen'est pas très élevé.Dans toutes ces situations, le partage de la décision entre lepraticien et son patient prime sur les éventuelles propositionsissues d'algorithmes qui doivent encore être améliorés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomodensitométrie (CT) est une technique d'imagerie dont l'intérêt n'a cessé de croître depuis son apparition dans le début des années 70. Dans le domaine médical, son utilisation est incontournable à tel point que ce système d'imagerie pourrait être amené à devenir victime de son succès si son impact au niveau de l'exposition de la population ne fait pas l'objet d'une attention particulière. Bien évidemment, l'augmentation du nombre d'examens CT a permis d'améliorer la prise en charge des patients ou a rendu certaines procédures moins invasives. Toutefois, pour assurer que le compromis risque - bénéfice soit toujours en faveur du patient, il est nécessaire d'éviter de délivrer des doses non utiles au diagnostic.¦Si cette action est importante chez l'adulte elle doit être une priorité lorsque les examens se font chez l'enfant, en particulier lorsque l'on suit des pathologies qui nécessitent plusieurs examens CT au cours de la vie du patient. En effet, les enfants et jeunes adultes sont plus radiosensibles. De plus, leur espérance de vie étant supérieure à celle de l'adulte, ils présentent un risque accru de développer un cancer radio-induit dont la phase de latence peut être supérieure à vingt ans. Partant du principe que chaque examen radiologique est justifié, il devient dès lors nécessaire d'optimiser les protocoles d'acquisitions pour s'assurer que le patient ne soit pas irradié inutilement. L'avancée technologique au niveau du CT est très rapide et depuis 2009, de nouvelles techniques de reconstructions d'images, dites itératives, ont été introduites afin de réduire la dose et améliorer la qualité d'image.¦Le présent travail a pour objectif de déterminer le potentiel des reconstructions itératives statistiques pour réduire au minimum les doses délivrées lors d'examens CT chez l'enfant et le jeune adulte tout en conservant une qualité d'image permettant le diagnostic, ceci afin de proposer des protocoles optimisés.¦L'optimisation d'un protocole d'examen CT nécessite de pouvoir évaluer la dose délivrée et la qualité d'image utile au diagnostic. Alors que la dose est estimée au moyen d'indices CT (CTDIV0| et DLP), ce travail a la particularité d'utiliser deux approches radicalement différentes pour évaluer la qualité d'image. La première approche dite « physique », se base sur le calcul de métriques physiques (SD, MTF, NPS, etc.) mesurées dans des conditions bien définies, le plus souvent sur fantômes. Bien que cette démarche soit limitée car elle n'intègre pas la perception des radiologues, elle permet de caractériser de manière rapide et simple certaines propriétés d'une image. La seconde approche, dite « clinique », est basée sur l'évaluation de structures anatomiques (critères diagnostiques) présentes sur les images de patients. Des radiologues, impliqués dans l'étape d'évaluation, doivent qualifier la qualité des structures d'un point de vue diagnostique en utilisant une échelle de notation simple. Cette approche, lourde à mettre en place, a l'avantage d'être proche du travail du radiologue et peut être considérée comme méthode de référence.¦Parmi les principaux résultats de ce travail, il a été montré que les algorithmes itératifs statistiques étudiés en clinique (ASIR?, VEO?) ont un important potentiel pour réduire la dose au CT (jusqu'à-90%). Cependant, par leur fonctionnement, ils modifient l'apparence de l'image en entraînant un changement de texture qui pourrait affecter la qualité du diagnostic. En comparant les résultats fournis par les approches « clinique » et « physique », il a été montré que ce changement de texture se traduit par une modification du spectre fréquentiel du bruit dont l'analyse permet d'anticiper ou d'éviter une perte diagnostique. Ce travail montre également que l'intégration de ces nouvelles techniques de reconstruction en clinique ne peut se faire de manière simple sur la base de protocoles utilisant des reconstructions classiques. Les conclusions de ce travail ainsi que les outils développés pourront également guider de futures études dans le domaine de la qualité d'image, comme par exemple, l'analyse de textures ou la modélisation d'observateurs pour le CT.¦-¦Computed tomography (CT) is an imaging technique in which interest has been growing since it first began to be used in the early 1970s. In the clinical environment, this imaging system has emerged as the gold standard modality because of its high sensitivity in producing accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase of the number of CT examinations performed has raised concerns about the potential negative effects of ionizing radiation on the population. To insure a benefit - risk that works in favor of a patient, it is important to balance image quality and dose in order to avoid unnecessary patient exposure.¦If this balance is important for adults, it should be an absolute priority for children undergoing CT examinations, especially for patients suffering from diseases requiring several follow-up examinations over the patient's lifetime. Indeed, children and young adults are more sensitive to ionizing radiation and have an extended life span in comparison to adults. For this population, the risk of developing cancer, whose latency period exceeds 20 years, is significantly higher than for adults. Assuming that each patient examination is justified, it then becomes a priority to optimize CT acquisition protocols in order to minimize the delivered dose to the patient. Over the past few years, CT advances have been developing at a rapid pace. Since 2009, new iterative image reconstruction techniques, called statistical iterative reconstructions, have been introduced in order to decrease patient exposure and improve image quality.¦The goal of the present work was to determine the potential of statistical iterative reconstructions to reduce dose as much as possible without compromising image quality and maintain diagnosis of children and young adult examinations.¦The optimization step requires the evaluation of the delivered dose and image quality useful to perform diagnosis. While the dose is estimated using CT indices (CTDIV0| and DLP), the particularity of this research was to use two radically different approaches to evaluate image quality. The first approach, called the "physical approach", computed physical metrics (SD, MTF, NPS, etc.) measured on phantoms in well-known conditions. Although this technique has some limitations because it does not take radiologist perspective into account, it enables the physical characterization of image properties in a simple and timely way. The second approach, called the "clinical approach", was based on the evaluation of anatomical structures (diagnostic criteria) present on patient images. Radiologists, involved in the assessment step, were asked to score image quality of structures for diagnostic purposes using a simple rating scale. This approach is relatively complicated to implement and also time-consuming. Nevertheless, it has the advantage of being very close to the practice of radiologists and is considered as a reference method.¦Primarily, this work revealed that the statistical iterative reconstructions studied in clinic (ASIR? and VECO have a strong potential to reduce CT dose (up to -90%). However, by their mechanisms, they lead to a modification of the image appearance with a change in image texture which may then effect the quality of the diagnosis. By comparing the results of the "clinical" and "physical" approach, it was showed that a change in texture is related to a modification of the noise spectrum bandwidth. The NPS analysis makes possible to anticipate or avoid a decrease in image quality. This project demonstrated that integrating these new statistical iterative reconstruction techniques can be complex and cannot be made on the basis of protocols using conventional reconstructions. The conclusions of this work and the image quality tools developed will be able to guide future studies in the field of image quality as texture analysis or model observers dedicated to CT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : During the evolutionary diversification of organisms, similar ecological constraints led to the recurrent appearances of the same traits (phenotypes) in distant lineages, a phenomenon called convergence. In most cases, the genetic origins of the convergent traits remain unknown, but recent studies traced the convergent phenotypes to recurrent alterations of the same gene or, in a few cases, to identical genetic changes. However, these cases remain anecdotal and there is a need for a study system that evolved several times independently and whose genetic determinism is well resolved and straightforward, such as C4 photosynthesis. This adaptation to warm environments, possibly driven by past atmospheric CO2 decreases, consists in a CO2-concentrating pump, created by numerous morphological and biochemical novelties. All genes encoding C4 enzymes already existed in C3 ancestors, and are supposed to have been recruited through gene duplication followed by neo-functionalization, to acquire the cell specific expression pattern and altered kinetic properties that characterize Ca-specific enzymes. These predictions have so far been tested only in species-poor and ecologically marginal C4 dicots. The monocots, and especially the grass family (Poaceae), the most important C4 family in terms of species number, ecological dominance and economical importance, have been largely under-considered as suitable study systems. This thesis aimed at understanding the evolution of the C4 trait in grasses at a molecular level and to use the genetics of C4 photosynthesis to infer the evolutionary history of the C4 phenotype and its driving selective pressures. A molecular phylogeny of grasses and affiliated monocots identified 17 to 18 independent acquisitions of the C4 pathway in the grass family. A relaxed molecular clock was used to date these events and the first C4 evolution was estimated in the Chloridoideae subfamily, between 32-25 million years ago, at a period when atmospheric CO2 abruptly declined. Likelihood models showed that after the COZ decline the probability of evolving the C4 pathway strongly increased, confirming low CO2 as a likely driver of C4 photosynthesis evolution. In order to depict the genetic changes linked to the numerous C4 origins, genes encoding phopshoenolpyruvate carboxylase (PEPC), the key-enzyme responsible for the initial fixation of atmospheric CO2 in the C4 pathway, were isolated from a large sample of C3 and C4 grasses. Phylogenetic analyses were used to reconstruct the evolutionary history of the PEPC multigene family and showed that the evolution of C4-specific PEPC had been driven by positive selection on 21 codons simultaneously in up to eight C4 lineages. These selective pressures led to numerous convergent genetic changes in many different C4 clades, highlighting the repeatability of some evolutionary processes, even at the molecular level. PEPC C4-adaptive changes were traced and used to show multiple appearances of the C, pathway in clades where species tree inferences were unable to differentiate multiple C4 appearances and a single appearance followed by C4 to C3 reversion. Further investigations of genes involved in some of the C4 subtypes only (genes encoding decarboxylating enzymes NADP-malic enzyme and phosphoenolpyruvate carboxykinase) showed that these C4-enzymes also evolved through strong positive selection and underwent parallel genetic changes during the different Ca origins. The adaptive changes on these subtype-specific C4 genes were used to retrace the history of the C4-subtypes phenotypes, which revealed that the evolution of C4-PEPC and C4-decarboxylating enzymes was in several cases disconnected, emphasizing the multiplicity of the C4 trait and the gradual acquisition of the features that create the CO2-pump. Finally, phylogenetic analyses of a gene encoding the Rubisco (the enzyme responsible for the fixation of CO2 into organic compounds in all photosynthetic organisms) showed that C4 evolution switched the selective pressures on this gene. Five codons were recurrently mutated to adapt the enzyme kinetics to the high CO2 concentrations of C4 photosynthetic cells. This knowledge could be used to introgress C4-like Rubisco in C3 crops, which could lead to an increased yield under predicted future high CO2 atmosphere. Globally, the phylogenetic framework adopted during this thesis demonstrated the widespread occurrence of genetic convergence on C4-related enzymes. The genetic traces of C4 photosynthesis evolution allowed reconstructing events that happened during the last 30 million years and proved the usefulness of studying genes directly responsible for phenotype variations when inferring evolutionary history of a given trait. Résumé Durant la diversification évolutive des organismes, des pressions écologiques similaires ont amené à l'apparition récurrente de certains traits (phénotypes) dans des lignées distantes, un phénomène appelé évolution convergente. Dans la plupart des cas, l'origine génétique des traits convergents reste inconnue mais des études récentes ont montré qu'ils étaient dus dans certains cas à des changements répétés du même gène ou, dans de rares cas, à des changements génétiques identiques. Malgré tout, ces cas restent anecdotiques et il y a un réel besoin d'un système d'étude qui ait évolué indépendamment de nombreuses fois et dont le déterminisme génétique soit clairement identifié. La photosynthèse dite en Ça répond à ces critères. Cette adaptation aux environnements chauds, dont l'évolution a pu être encouragé par des baisses passées de la concentration atmosphérique en CO2, est constituée de nombreuses nouveautés morphologiques et biochimiques qui créent une pompe à CO2. La totalité des gènes codant les enzymes Ç4 étaient déjà présents dans les ancêtres C3. Leur recrutement pour la photosynthèse Ç4 est supposé s'être fait par le biais de duplications géniques suivies par une néo-fonctionnalisation pour leur conférer l'expression cellule-spécifique et les propriétés cinétiques qui caractérisent les enzymes C4. Ces prédictions n'ont jusqu'à présent été testées que dans des familles C4 contenant peu d'espèces et ayant un rôle écologique marginal. Les graminées (Poaceae), qui sont la famille C4 la plus importante, tant en termes de nombre d'espèces que de dominance écologique et d'importance économique, ont toujours été considérés comme un système d'étude peu adapté et ont fait le sujet de peu d'investigations évolutives. Le but de cette thèse était de comprendre l'évolution de la photosynthèse en C4 chez les graminées au niveau génétique et d'utiliser les gènes pour inférer l'évolution du phénotype C4 ainsi que les pressions de sélection responsables de son évolution. Une phylogénie moléculaire de la famille des graminées et des monocotylédones apparentés a identifié 17 à 18 acquisitions indépendantes de la photosynthèse chez les graminées. Grâce à une méthode d'horloge moléculaire relâchée, ces évènements ont été datés et la première apparition C4 a été estimée dans la sous-famille des Chloridoideae, il y a 32 à 25 millions d'années, à une période où les concentrations atmosphériques de CO2 ont décliné abruptement. Des modèles de maximum de vraisemblance ont montré qu'à la suite du déclin de CO2, la probabilité d'évoluer la photosynthèse C4 a fortement augmenté, confirmant ainsi qu'une faible concentration de CO2 est une cause potentielle de l'évolution de la photosynthèse C4. Afin d'identifier les mécanismes génétiques responsables des évolutions répétées de la photosynthèse C4, un segment des gènes codant pour la phosphoénolpyruvate carboxylase (PEPC), l'enzyme responsable de la fixation initiale du CO2 atmosphérique chez les plantes C4, ont été séquencés dans une centaine de graminées C3 et C4. Des analyses phylogénétiques ont permis de reconstituer l'histoire évolutive de la famille multigénique des PEPC et ont montré que l'évolution de PEPC spécifiques à la photosynthèse Ça a été causée par de la sélection positive agissant sur 21 codons, et ce simultanément dans huit lignées C4 différentes. Cette sélection positive a conduit à un grand nombre de changements génétiques convergents dans de nombreux clades différents, ce qui illustre la répétabilité de certains phénomènes évolutifs, et ce même au niveau génétique. Les changements sur la PEPC liés au C4 ont été utilisés pour confirmer des évolutions indépendantes du phénotype C4 dans des clades où l'arbre des espèces était incapable de différencier des apparitions indépendantes d'une seule apparition suivie par une réversion de C4 en C3. En considérant des gènes codant des protéines impliquées uniquement dans certains sous-types C4 (deux décarboxylases, l'enzyme malique à NADP et la phosphoénolpyruvate carboxykinase), des études ultérieures ont montré que ces enzymes C4 avaient elles-aussi évolué sous forte sélection positive et subi des changements génétiques parallèles lors des différentes origines de la photosynthèse C4. Les changements adaptatifs sur ces gènes liés seulement à certains sous-types C4 ont été utilisés pour retracer l'histoire des phénotypes de sous-types C4, ce qui a révélé que les caractères formant le trait C4 ont, dans certains cas, évolué de manière déconnectée. Ceci souligne la multiplicité du trait C4 et l'acquisition graduelle de composants participant à la pompe à CO2 qu'est la photosynthèse C4. Finalement, des analyses phylogénétiques des gènes codant pour la Rubisco (l'enzyme responsable de la fixation du CO2 en carbones organiques dans tous les organismes photosynthétiques) ont montré que l'évolution de la photosynthèse Ça a changé les pressions de sélection sur ce gène. Cinq codons ont été mutés de façon répétée afin d'adapter les propriétés cinétiques de la Rubisco aux fortes concentrations de CO2 présentes dans les cellules photosynthétiques des plantes C4. Globalement, l'approche phylogénétique adoptée durant cette thèse de doctorat a permis de démontré des phénomène fréquents de convergence génétique sur les enzymes liées à la photosynthèse C4. Les traces génétiques de l'évolution de la photosynthèse C4 ont permis de reconstituer des évènements qui se sont produits durant les derniers 30 millions d'années et ont prouvé l'utilité d'étudier des gènes directement responsables des variations phénotypiques pour inférer l'histoire évolutive d'un trait donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'objectif de cette thèse est d'approfondir la compréhension de la transformation des conflits liés à l'utilisation et la répartition des ressources foncières, de l'eau ainsi que des ressources politiques en région aride ou semi-aride. Cette thèse se concentre en particulier sur la façon dont les acteurs et les institutions résolvent les conflits dans un espace dominé par un mode de vie pastoral au sein des pays de la Corne de l'Afrique. Celle-ci réunit des zones périphériques mal contrôlée et caractérisée par une faible administration publique qui coexiste avec des instances coutumières et d'autres autorités. Le cas de la région Somali d'Ethiopie (ou Ogaden) nous démontre que les disputes et les pratiques de gestion des conflits existantes sont encastrées dans les normes, les politiques et les relations de pouvoir locales. Par conséquent, ce travail réfute le déterminisme causal de la littérature des conflits dits environnementaux en soulignant l'existence d'une vaste palette de stratégies de résolution des conflits. Il démontre empiriquement la capacité des éleveurs, des paysans et d'autres utilisateurs de ressources en propriété commune («common- pool resources », CPRs) à coopérer plutôt qu'à se disputer. De la même façon, la préférence idéologique de la plupart des études sur les CPRS pour des groupes d'utilisateurs homogènes et des systèmes de ressources d'utilisation simple est remise en question. En effet, l'existence de multiples ressources naturelles et politiques dans la région Somali d'Ethiopie justifie cette remise en cause. En soulignant l'économie politique dans laquelle se situent les conflits pastoraux et leur gestion cette thèse critique l'approche dépolitisée sur l'utilisation des ressources en propriété commune ainsi que les perspectives technocratiques sur les processus de construction des institutions. Les résultats de recherche marquent le rôle central et souvent inattendu de l'état dans la formation des conflits et la gestion des ressources dans sa périphérie pastorale. Avec |'introduction du fédéralisme ethnique éthiopien et la décentralisation administrative, la construction de l'état à pris une tournure nouvelle dans la région Somali depuis |991 - la période analysée dans cette étude. Ce processus fut accompagné de trois dynamiques parallèles (1) L'expansion des ressources étatiques dans les zones rurales les plus reculées, (2) la politisation des liens de parenté et (3) la redéfinition de la relation entre l'homme et son environnement naturel. En ce qui concerne l'atténuation des conflits, la thèse révèle que le rôle de l'état est spatialement différentié, que l'incorporation des autorités coutumières dans les gouvernements locaux est politiquement ambiguë, et que l'appui sur les lois coutumières ne « gèle » pas forcement les traditions. Les institutions mixtes qui allient règles coutumières et bureaucratiques sont souvent efficaces dans la gestion et la résolution des conflits liés aux ressources en milieu rural, mais pas dans la prévention et la transformation de ces conflits sur le long terme. En ce qui concerne la gestion des ressources, l'étude souligne le fait que les politiques publiques institutionnelles qui ignorent les variations saisonnières de l'utilisation des ressources, la multiplicité des revendications par les utilisateurs des ressources et les droits de propriété non exclusif ne font qu'aggraver des tensions entre divers groupes plutôt que de les atténuer. C'est précisèrent le cas de la décentralisation selon la logique « ethnique » de l'Ethiopie et d'autres politiques publiques sectorielles dont le but est de promouvoir la sédentarisation en incitant les groupes pastoraux à réclamer et occuper les territoires de manière permanente. En conclusion, cette thèse insiste sur (1) l'importance du renforcement du système de régulation au sein du régime institutionnel de ressources pastorales, (2) l'élaboration de nouvelles normes qui produisent des arrangements fonciers reconnus à la fois par les communautés et l'état, (3) la conception de politique publiques qui prennent en compte le périmètre des écosystèmes en place plutôt que des entités ethniques ou politiques et (4) le besoin d'un processus de démocratisation des projets de développement et de la représentation politique en périphéries semi-aride. L'étude est composée des chapitres suivants. Le chapitre 1 introduit les éléments clés des systèmes d'élevage dans la Corne de l'Afrique et les transitions économiques, écologiques et politiques dans lesquelles se situe le pastoralisme nomade. Quelques thèmes récurrents sont ici résumés dont le déclin des économies de cheptel, l'érosion de la gestion des terres arides et l'expansion de l'insécurité physique. Le chapitre 2 dissèque de manière critique le concept de conflit environnemental et les théories de la propriété commune en tant qu'explications théoriques des conflits dits pastoraux. Tandis que le premier décrit la violence comme une réaction à la raréfaction des ressources naturelles due aux pressions démographiques et au changement climatique, les secondes considèrent les confits comme l'expression d'un échec institutionnel de droits de propriété insuffisamment définis. Ce chapitre expose les défauts de ces deux explications et propose une approche alternative qui tient compte des relations de pouvoir, des institutions de gestion des conflits et des ressources naturelles, et de l'écologie non-équilibrée des régions arides. Le chapitre 3 élabore un cadre conceptuel qui rassemble des perspectives empruntées à la littérature portant sur la gestion des ressources naturelles, les techniques de médiation des conflits, les nouvelles théories « new range ecology » et les régimes institutionnels de ressources naturelles. Trois hypothèses décrivent les conditions requises pour prévenir, résoudre ou transformer les conflits liés à l'utilisation multiple des ressources dans les zones pastorales. Elles concernent (1) l'inclusion de partis tiers dans les processus de gestion de confits, (2) l'intégration de règles bureaucratiques et coutumières dans la gestion des ressources et des conflits et (3) le régime institutionnel de ressources naturelles qui concilie des revendications multiples aux ressources CPRs de manière flexible et inclusive. Le chapitre 4 présente les méthodes et la philosophie de recherche qui sous-tendent l'argumentation et l'analyse de la thèse. Il détaille l'opérationnalisation du cadre conceptuel et la sélection des études de cas, le processus de collecte des données et se penche sur les expériences de recherches de terrain de l'auteur. Le chapitre 5 décrit les conflits fonciers dans le district de Harshin où une expansion incontrôlée de clôtures des pâturages a encouragé la prolifération de conflits violents parmi les éleveurs Isaaq depuis la fin des années 1980. L'hétérogénéisation de l'utilisation des ressources, la multiplication des règles de gestion et l'incapacité des anciens à imposer un retour à la propriété commune des pâturages sont les points centraux de cette étude de cas. Le chapitre 6 passe en revue la compétition féroce autour de l'eau le long de la berge très peuplée et fertile du Wabi Shabelle dans le district de K'elafo. L'étude de cas reflète les interactions généalogiques complexes entre les groupes "nobles" et les « communs », la dépendance des cultivateurs Rer Barre du capital et de la technologie, pour les pompes à eaux par exemple, et l'importance continue des pratiques coutumières de gestion de l'agriculture. Le chapitre 7 démontre les rivalités autour du gâteau fiscal dans la capitale de la région Somali, Jijiga, où les partis politiques, les anciens claniques et les technocrates manoeuvrent pour le partage du pouvoir et des positions au sein de l'administration régionale. L'étude de cas rend compte de l'usage politisé du budget public, de l'expansion des ressources étatiques dans les zones rurales à travers la décentralisation, et de l'importance des agents intermédiaires entre les niveaux fédéral, régional et local dans l'allocation des ressources. Le chapitre 8 analyse les rôles et contributions respectifs des anciens et des acteurs étatiques dans la gestion de conflits violents entre les différents groupes dans la région Somali. En révélant les points forts et faibles des processus de paix basés sur les compensations de sang, ce chapitre propose une appréciation nuancée de la proposition (1) concernant l'inclusion de partis tiers dans la gestion de conflit. Le chapitre conclut en soulignant les contradictions et les effets associés à la délégation aux autorités coutumières par l'état Ethiopien de la résolution des conflits et de la maintenance de la sécurité. Le chapitre 9 se concentre sur l'impact des projets de développement financés par l'état et des politiques publiques qui régulent la propriété des terres communes dans les régions pastorales de l'Ethiopie. Ni les politiques publiques sectorielles existantes ni les principes institutionnels du fédéralisme ethnique ne reconnaissent les revendications et utilisations multiples qui se font des ressources dans la région aride et semi- aride, ce qui valide la proposition (3) sur le besoin d'un régime institutionnel de ressources différencié et flexible. Le chapitre attire l'attention sur les aspects contre-productifs d'une administration et d'une représentation politique basées sur un concept territorial, ce qui encourage une occupation permanente des ressources pour des bénéfices politiques. Le chapitre 10 conclut en évaluant la proposition (2) qui concerne l'efficacité de la gestion et de la transformation des conflits basés sur l'intégration des règles et lois coutumières et bureaucratiques. Ce chapitre souligne le rôle controversé mais décisif de la construction et de l'expansion graduelle de l'état dans les périphéries pastorales. Finalement, quelques recommandations sont proposées en vue de l'amélioration de la gestion des conflits et des ressources en milieu pastoral clans la région Somali et des espaces comparables dans la Corne de l'Afrique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'index de consommation du glucose, SUV pour standardized uptake value, est largement utilisé en tomographie par émission de positons (TEP) pour quantifier la concentration relative de [18F]2-fluoro-2-désoxy-D-glucose (18F-FDG) dans les tissus. Cependant, cet indice dépend de nombreux facteurs méthodologiques et biologiques et son utilisation fait débat. Il est donc primordial d'instaurer un contrôle qualité régulier permettant d'assurer la stabilité de la mesure des indices quantitatifs. Dans cette optique, un fantôme spécifique avec inserts cylindriques de différentes tailles a été développé. L'objectif de cette étude est de montrer la sensibilité et l'intérêt de ce fantôme. Méthodes. - La sensibilité du fantôme a été étudiée à travers la mesure des SUV et des coefficients de recouvrement (RC). Plusieurs méthodes de mesure ont été utilisées. Les données ont été reconstruites en utilisant les algorithmes de routine clinique. Nous avons étudié la variation des RC en fonction de la taille des cylindres et le changement relatif de fixation, en utilisant des activités différentes. Le fantôme a ensuite été testé sur l'appareil d'un autre centre. Résultats. - Pour toutes les méthodes de mesure, une forte variation des RC avec la taille des cylindres, de l'ordre de 50 %, a été obtenue. Ce fantôme a également permis de mesurer un changement relatif de fixation qui s'est révélé être indépendant de la méthode de mesure. Malgré un étalonnage des deux systèmes TEP/TDM, des différences de quantification d'environ 20 % ont subsisté. Conclusion. - Les résultats obtenus montrent l'intérêt de ce fantôme dans le cadre du suivi des mesures quantitatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n'est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu'elle permet de quantifier l'exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d'études sur les animaux, et les données chez l'humain sont limitées.Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l'exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d'intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l'acide phtalique, dans le plasma et l'urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant desvolontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l'acide phtalique qui a été mesuré seulement dans l'urine; iii) de valider les biomarqueurs d'exposition sélectionnés et d'évaluer l'exposition réelle des travailleurs et les voies prédominantes d'exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d'activités de traitement et d'effeuillage pendant sept jours consécutifs.Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l'exposition au captan et au folpet, respectivement, chez l'humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d'ailleurs une élimination rapide, avec une demi-vie d'élimination dans l'urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu'une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d'exposition. Des profils parallèles sont aussi observés entre le PI et l'acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d'acide phtalique que de PI. Quant à l'étude des agriculteurs, elle montre que la voie principale d'exposition de ces travailleurs est la voiecutanée. Il est aussi souligné qu'il est important 1) de favoriser les collectes d'urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d'associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s'appliquer à d'autres fongicides, voire d'autres substances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chapitre 149, description des buttes de l’Occident. Première section de deux vignettes, avec deux divinités momiformes, à la tête de chacal pour la première, à tête de faucon pour la deuxième, suivie d’une colonne de hiératique.Deuxième section de douze colonnes, constituées chacune d’une vignette surmontant le texte. Chacune de ces colonnes est consacrée à une butte.Une bande horizontale contient le titre des formules en rouge, très effacé.La troisième section est constituée d’un tableau à 16 cases, reprenant le nom des buttes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this discussion, after a few general comments, I will propose a systems reading of the intervention so elegantly described by Kaija Puura. I will draw parallels between the therapeutic and the family groups as framing-developing systems and formalize the steps taken by the family toward healing under the influence of the therapist's team. En esta discusión, después de algunos comentarios generales, propongo una lectura sistemática de la intervención tan elegantemente descrita por Kaija Puura. Buscaré paralelos entre los grupos terapéuticos y de familia como sistemas de desarrollo enmarcado y formalizaré los pasos tomados por la familia hacia la cicatrización bajo la influencia del equipo del terapista. Après quelques commentaires généraux, je proposerai dans cette discussion une lecture systémique de l'intervention si élégamment décrite par Kaija Puura. J'établirai des parallèles entre les groupes thérapeutiques et familiaux en tant que systèmes d'encadrement-développement et je formaliserai les étapes de guérison franchies par la famille grâce à l'influence de l'équipe thérapeutique. In dieser Diskussion, werde ich nach einigen allgemeineren Aussagen, eine systemische Lesart der von Kaija Puura so eingängig beschriebenen Intervention vorschlagen. Ich werde darin Parallelen zwischen der therapeutischen und Rahmengebenden Familiengruppen ziehen, und die Schritte der Familien hin zu einer Heilung unter dem Einfluss des Therapeutenteams formalisieren.