471 resultados para Problèmes de localisation
Resumo:
Résumé Le mammifère adulte possède des capacités de régénération tissulaire beaucoup plus limitées que celles des mammifères à l'âge foetal, ou d'autres vertébrés adultes comme les amphibiens urodèles et anuriens. Le mode de réparation tissulaire généralement utilisé par le mammifère adulte est la cicatrisation. Celle-ci suit un déroulement physio-pathologique très reproductible, qui a été le mieux décrit dans la peau, mais est également applicable à d'autres tissus comme le coeur en cas d'infarctus. Toutefois, le coeur de mammifère adulte semble posséder un certain potentiel régénérateur, bien qu'insuffisant pour réparer une lésion d'infarctus; en particulier, il contient des populations de cellules exprimant des marqueurs de surface des cellules souches hématopoiétiques comme l'antigène de cellules souches (stem cell antigen; Sca-1) ou le récepteur pour le facteur de cellules souches (stem cell factor; SCF), c-kit. Le comportement de ces cellules ressemble à de nombreux égards à celui de cellules souches adultes résidentes. D'autre part, un modèle mammifère adulte de régénération tissulaire, la souris NIRL, a été décrit ,récemment ; si cette souris répare. l'infarctus ischémique du ventricule gauche par cicatrisation, elle est par contre capable de régénérer complètement le myocarde après cryoinfarctus du ventricule droit, sans former la moindre cicatrice. Le but de cette thèse a été l'exploration par différentes approches des potentiels régénérateurs cardiaques après infarctus chez le mammifère adulte. La première approche choisie a été l'étude de la régénération myocardique chez la souris MRL. Il s'agissait de comprendre pourquoi la souris MRL régénère le coeur après cryoinfarctus du ventricule droit, et pas après infarctus ischémique du ventricule gauche, ainsi que d'élucider les mécanismes à la base de la régénération cardiaque chez cette souris. En utilisant le protocole original d'infarctus cryogénique du ventricule droit, nous n'avons pas observé de régénération cardiaque chez la souris MRL, qui a réparé l'infarctus par cicatrisation.- Nous avons ensuite modifié la sévérité du stimulus cryogénique, la localisation de la lésion cardiaque, et le type de lésion lui-même (infarctus ischémique induit par ligature coronarienne). En théorie, ces aspects expérimentaux sont les principaux facteurs pouvant influencer la réparation tissulaire. En utilisant cinq protocoles expérimentaux différents, nous n'avons pas observé de régénération cardiaque chez la souris MRL. Nous avons également analysé la prolifération cellulaire dans trois régions différentes du coeur à 15 et 40 jours après infarctus, et n'avons pas observé de différence entre la souris MRL et la souris contrôle C57B1/6. Quant à la composition en collagène de la cicatrice, elle est la même chez les deux souches de souris. Nos résultats ne peuvent donc pas confirmer la validité de ce modèle marin de régénération cardiaque récemment publié. Nous nous sommes alors tournés vers une deuxième approche d'étude du potentiel régénérateur du coeur de mammifère adulte, celle des cellules souches adultes résidentes. Nous avons isolé et purifié la population de cellules cardiaques qui expriment le marqueur de surface Sca-1 ;nous les avons maintenues en cultures pendant plusieurs dizaines de passages, et les avons ré-injectées dans le myocarde. Cette deuxième approche .ouvre la voie à l'étude de cellules souches cardiaques adultes candidates, ainsi qu'à la thérapie cellulaire de l'infarctus du myocarde. Summary Adult mammals possess limited tissue regeneration capacities as compared to foetal mammals or other adult vertebrates such as anurian and urodele amphibians. Usually, adult mammals heal tissues by scarring. The process of scarring is characterized by physiopathological events which have been best studied in skin; but which also occur in other organs like the heart. Nevertheless, the adult mammalian heart seems to possess a certain regenerative potential, though insufficient to efficiently repair infarct lesions. It indeed contains cell populations expressing haematopoietic stem cell surface markers such as Scat or c-kit. These cells behave in many ways like resident adult. stem cells. On the other hand; an adult mammalian model of tissue regeneration, the MRL mouse, has been recently described; although this mouse repairs an ischemic infarct of the left ventricle by scarring, it is able of fully regenerating a cryoinfarction of the right ventricle without scanning . The goal of this thesis was to explore the regenerative potential of the adult mammalian heart after infarction by using different approaches. A first approach was to study the myocardial regeneration in the MRL mouse. It was about understanding why this mouse regenerates a right ventricular cryoinfarction and not an ischemic infarction of the left ventricle, as well as elucidating the mechanisms underlying myocardial regeneration in this model. By using the original protocol of right ventricular cryoinfarction, we did not observe any heart regeneration in the MRL mouse, which healed the infarct by scarring. We then modified the intensity of the cryogenic stimulus, the site of lesion, and -the type of lesion itself (ischemic infarction by coronary artery ligation). In theory, these experimental aspects are the main factors likely to influence tissue repair. Although. we used five different protocols, we did not observe any regeneration in the MRL mouse. We also analysed cell proliferation in three different regions of the heart, at 15 and 40 days after infarction, and did not see any difference between the MRL and C57B1/6 mouse. Collagen content of the scar was shown to be the same in both strains. Our results cannot confirm the validity of this recently published model. We then chose another way to study the adult mammalian heart regenerative potential, by taking the adult resident stem cells approach. We isolated and purified a cardiac cell population expressing the Sca-1 surface marker; we kept these cells in culture for over 30 passages, and re-injected them into the myocardium. This second approach opens the way to candidate adult cardiac stem cell study, as well as cell therapy.
Resumo:
Rapport de synthèse : Les tumeurs de la paroi thoracique sont des pathologies graves dont le traitement principal consiste en une résection chirurgicale. L'enjeu majeur de cette intervention ontologique est de réséquer la totalité de la tumeur, ce qui nécessite une planification préopératoire minutieuse. Classiquement, l'identification et la localisation de la tumeur se fait à l'aide de la tomodensitométrie (computed tomography, CT) ou de l'imagerie par résonnance magnétique (1RM). Actuellement, l'imagerie nucléaire fonctionnelle par tomographie par émission de positons (positron emission tomography, PET) qui peut être couplée au CT (PET/CT) est de plus en plus appliquée aux patients présentant une tumeur maligne. Son efficacité a fréquemment été démontrée. Le but de la présente étude est d'évaluer la valeur du PET dans la planification de la résection des tumeurs de la paroi thoracique. Une analyse rétrospective de dix-huit patients opérés entre 2004 et 2006 a été réalisée; Dans ce groupe de patient, la taille de la tumeur mesurée sur la pièce opératoire réséquée a été comparée à la taille de la tumeur mesurée sur le CT et le PET. Les résultats démontrent que le CT surestimait de manière consistante la taille réelle de la tumeur par rapport au PET (+64% par rapport à +1%, P<0.001). De plus, le PET s'est avéré particulièrement performant pour prédire la taille des tumeurs de plus de 5.5 cm de diamètre par rapport au CT (valeur prédictive positive 80% par rapport à 44% et spécificité 93% par apport à 64%, respectivement). Cette étude démontre que le PET permettrait de mesurer la taille des tumeurs de la paroi thoracique de manière plus précise que le CT. Cette nouvelle modalité diagnostique s'avèrerait donc utile pour planifier les résections chirurgicales de telles tumeurs. A notre connaissance, aucune publication ne décrit la valeur du PET dans ce domaine. Les performances accrues du PET permettraient une meilleure délimitation des tumeurs ce qui améliorerait la précision de la résection chirurgicale. En conclusion, cette étude préliminaire rétrospective démontre la faisabilité du PET pour les tumeurs de la paroi thoracique. Ces résultats devraient être confirmés par une étude prospective incluant un plus grand nombre de patients avec la perspective de juger l'impact clinique réel du PET sur la prise en charge thérapeutique des patients.
Resumo:
Le travail d'un(e) expert(e) en science forensique exige que ce dernier (cette dernière) prenne une série de décisions. Ces décisions sont difficiles parce qu'elles doivent être prises dans l'inévitable présence d'incertitude, dans le contexte unique des circonstances qui entourent la décision, et, parfois, parce qu'elles sont complexes suite à de nombreuse variables aléatoires et dépendantes les unes des autres. Etant donné que ces décisions peuvent aboutir à des conséquences sérieuses dans l'administration de la justice, la prise de décisions en science forensique devrait être soutenue par un cadre robuste qui fait des inférences en présence d'incertitudes et des décisions sur la base de ces inférences. L'objectif de cette thèse est de répondre à ce besoin en présentant un cadre théorique pour faire des choix rationnels dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. L'inférence et la théorie de la décision bayésienne satisfont les conditions nécessaires pour un tel cadre théorique. Pour atteindre son objectif, cette thèse consiste de trois propositions, recommandant l'utilisation (1) de la théorie de la décision, (2) des réseaux bayésiens, et (3) des réseaux bayésiens de décision pour gérer des problèmes d'inférence et de décision forensiques. Les résultats présentent un cadre uniforme et cohérent pour faire des inférences et des décisions en science forensique qui utilise les concepts théoriques ci-dessus. Ils décrivent comment organiser chaque type de problème en le décomposant dans ses différents éléments, et comment trouver le meilleur plan d'action en faisant la distinction entre des problèmes de décision en une étape et des problèmes de décision en deux étapes et en y appliquant le principe de la maximisation de l'utilité espérée. Pour illustrer l'application de ce cadre à des problèmes rencontrés par les experts dans un laboratoire de science forensique, des études de cas théoriques appliquent la théorie de la décision, les réseaux bayésiens et les réseaux bayésiens de décision à une sélection de différents types de problèmes d'inférence et de décision impliquant différentes catégories de traces. Deux études du problème des deux traces illustrent comment la construction de réseaux bayésiens permet de gérer des problèmes d'inférence complexes, et ainsi surmonter l'obstacle de la complexité qui peut être présent dans des problèmes de décision. Trois études-une sur ce qu'il faut conclure d'une recherche dans une banque de données qui fournit exactement une correspondance, une sur quel génotype il faut rechercher dans une banque de données sur la base des observations faites sur des résultats de profilage d'ADN, et une sur s'il faut soumettre une trace digitale à un processus qui compare la trace avec des empreintes de sources potentielles-expliquent l'application de la théorie de la décision et des réseaux bayésiens de décision à chacune de ces décisions. Les résultats des études des cas théoriques soutiennent les trois propositions avancées dans cette thèse. Ainsi, cette thèse présente un cadre uniforme pour organiser et trouver le plan d'action le plus rationnel dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. Le cadre proposé est un outil interactif et exploratoire qui permet de mieux comprendre un problème de décision afin que cette compréhension puisse aboutir à des choix qui sont mieux informés. - Forensic science casework involves making a sériés of choices. The difficulty in making these choices lies in the inévitable presence of uncertainty, the unique context of circumstances surrounding each décision and, in some cases, the complexity due to numerous, interrelated random variables. Given that these décisions can lead to serious conséquences in the admin-istration of justice, forensic décision making should be supported by a robust framework that makes inferences under uncertainty and décisions based on these inferences. The objective of this thesis is to respond to this need by presenting a framework for making rational choices in décision problems encountered by scientists in forensic science laboratories. Bayesian inference and décision theory meets the requirements for such a framework. To attain its objective, this thesis consists of three propositions, advocating the use of (1) décision theory, (2) Bayesian networks, and (3) influence diagrams for handling forensic inference and décision problems. The results present a uniform and coherent framework for making inferences and décisions in forensic science using the above theoretical concepts. They describe how to organize each type of problem by breaking it down into its différent elements, and how to find the most rational course of action by distinguishing between one-stage and two-stage décision problems and applying the principle of expected utility maximization. To illustrate the framework's application to the problems encountered by scientists in forensic science laboratories, theoretical case studies apply décision theory, Bayesian net-works and influence diagrams to a selection of différent types of inference and décision problems dealing with différent catégories of trace evidence. Two studies of the two-trace problem illustrate how the construction of Bayesian networks can handle complex inference problems, and thus overcome the hurdle of complexity that can be present in décision prob-lems. Three studies-one on what to conclude when a database search provides exactly one hit, one on what genotype to search for in a database based on the observations made on DNA typing results, and one on whether to submit a fingermark to the process of comparing it with prints of its potential sources-explain the application of décision theory and influ¬ence diagrams to each of these décisions. The results of the theoretical case studies support the thesis's three propositions. Hence, this thesis présents a uniform framework for organizing and finding the most rational course of action in décision problems encountered by scientists in forensic science laboratories. The proposed framework is an interactive and exploratory tool for better understanding a décision problem so that this understanding may lead to better informed choices.
Resumo:
Il y a relativement peu d'études portant sur la santé au travail des professionnels des urgences préhospitalières. Toutefois, quelques études suggèrent que les problèmes de santé mentale sont particulièrement fréquents et graves pour cette population de travailleurs et travailleuses. Notre étude visait d'une part à identifier certains facteurs professionnels associés à différents symptômes chez des professionnels des urgences pré-hospitalières. D'autre part, cette étude visait à identifier et à documenter diverses stratégies de préservation de la santé utiliséespar ces professionnels dans le cadre de leur travailDans un premier temps, une phase qualitative centrée sur l'observation du travail réel a été effectuée. Au cours de cette phase, les chercheurs ont accompagné des équipages de professionnels des urgences pré-hospitalières pour la durée entière de la journée de travail et pour une moyenne d'environ une semaine (4 X 12 heures) par équipage. Les analyses des données d'observation ont été réalisées en équipe multidisciplinaire. Certaines interventions ont été filmées et utilisées dans le cadre d'entretiens en auto-confrontation. Les observations ont été effectuées dans 11 services pour un total de 416 heures d'observation et 70 interventions. L'analyse de l'activité réelle de travail a été effectuée à travers diverses thématiques comme par exemple le travail d'équipe, l'organisation, ou la charge physique. Dans un second temps, un questionnaire a été développé et administré à l'ensemble des ambulanciers (N=669) en Suisse francophone. Cette démarche visait 1-à documenter l'état de santé de ces professionnels et 2- à mettre en évidence des associations entre certains facteurs liés au travail et des indicateurs de santé.Au total, 374 questionnaires ont été retournés. Cette démarche a permis de constater que les professionnels des urgences pré-hospitalières sont nombreux (14 %) à avoir un score élevé (associé à un risque augmenté de troubles psychiques) pour le General Health Questionnaire (GHQ). Des associations ont été observées entre le fait d'avoir un score élevé pour le GHQ et certaines caractéristiques du travail (le type d'intervention, le ratio efforts-récompenses de Siegrist, de même que certains aspects organisationnels ou liés à la supervision). 20 % des participants mentionnentaussi souffrir de séquelles psychiques attribuables à des interventions particulièrement diffi ciles sur le plan émotionnel. Les stratégies observées concernent par exemple l'utilisation des ressources disponibles (médecin conseil, collègues, psychologues), différentes stratégies de coping psychologique, des aménagements spontanés des rôles entre collègues, diverses modalités visant à développer/maintenir les compétences.Notre étude confi rme l'importance des problèmes de santé psychique pour des collectifs de professionnels des urgences pré-hospitalières. Notre démarche a aussi permis de constater que ces professionnels ont recours à diverses stratégies pour réguler leur activité de travail. Ces stratégies comportent un potentiel pour la préservation de la santé mentale.
Resumo:
RESUME La peau est un organe complex composé de deux parties distinctes: l'épiderme et le derme, séparé par une membrane basale. Dans la couche basale de l'épiderme, les melanocytes synthétisent la mélanine dans des mélanosomes. Les mélanosomes sont ensuite transportés des mélanocytes vers les kératinocytes, protégeant ainsi la peau des dégâts dus aux radiations U.V. La E-cadhérine assure l'adhésion entre les mélanocytes et les kératinocytes. Au cours de la transformation du mélanocyte en cellule malignes, les mélanocytes perdent l'expression de la E-cadhérine et, simultanément, se mettent à exprimer la N-cadhérine, ce phénomène est nommé « cadherin switch ». La perte de l'expression de la E-cadhérine permet au mélanocytes d'échapper au contrôle des kératinocytes, tandis que l'expression de la N-cadhérine promeut l'invasion métastasique des cellules de mélanome. Préalablement, nous avons trouvé qu'une fraction de la N-cadhérine était localisée les microdomaines membranaires spécialisés, enrichi en cholestérol et en glycosphingolipides, appelés « lipid rafts ». Une des particularité des « lipid rafts » est qu'ils sont riches en molécules permettant la transmission de signaux d'activation. De plus, des travaux récents rapportent qu'un sous-type de « lipid rafts » appelé caveolae pourrai contribuer à la progression tumorale. S'appuyant sur le rôle prépondérant de la N-cadhérine dans la progression du mélanome ainsi que sur sa présence dans les « lipid rafts », nous avons émis l'hypothèse que l'association de la N-cadhérine avec les « lipid rafts » pourrai contribuer à la progression du mélanome. Le but de ce projet à été de caractériser l'association de la Ncadhérine avec les « lipid rafts » au cours de la progression du mélanome. Au moyen de lignées cellulaires humaines, dérivées de mélanomes à différents stades de progression, nous avons trouvé que (1) la N-cadhérine est partiellement associée aux «lipid rafts » dans six lignées dérivées de mélanome en phase avancée de progression et dans des tumeurs expérimentales, mais pas dans deux lignées dérivées de mélanome à un stade plus précoce ; (2) l'association de la N-cadhérine dans les « lipid rafts » ne dépent pas de son niveau d'expression ; (3) la E-cadhérine n'est pas présente dans les « lipid rafts »d'une lignée de cellule de mélanome ayant conservé l'expression de la E-cadhérine ; (4) la localisation de la N-cadhérine dans les « lipid rafts »n'est pas modulée par les facteurs de croissance bFGF, IGF-I, et HRG1-β1, ni par des voies de signalisation impliquant MEK, PKA, les kinases de la famille Src, et PI3K ; (5) l'association de la N-cadhérine avec les « lipid rafts » n'est pas requise pour la stabilisation des jonctions adhérentes et n'est pas perturbée par la destruction de ces dernières ; (6) la N-cadhérine dans les « lipid rafts » forme un complexe avec β-caténine, p 120ctn et α-caténine. En conclusion, cette étude originale montre pour la première fois que dans des cellules de mélanome agressifs, une fraction de la N-cadhérine est localisée dans les « lipid rafts » en association avec β-caténine, p 120ctn et α-caténine. Comme la présence de la N-cadhérine dans les « lipid rafts » ne contribue pas à la formation de jonction adhérentes, cette étude suggère une nouvelle fonction pour la N-cadhérine dans les « lipid rafts ». SUMMARY Human skin is a complex organ composed of two layers separated by a basement membrane: the epidermis and the dermis. In the basal layer of the epidermis, the melanin-producing cells of the skin, the melanocytes deliver melanin-containing melanosomes to keratinocytes, thereby protecting the epidermis and the dermis from the deleterious effects of ultraviolet light. Melanocytes physically interact with keratinocytes through E-cadherin-mediated adhesion. During malignant transformation into melanoma cells, melanocytes lose E-cadherin expression and concomitantly gain expression of N-cadherin, a phenomenon referred to as "cadherin switch". Loss of E-cadherin allows melanocytes to escape the regulatory effects of neighbouring keratinocytes, while gain of N-cadherin expression promotes migration, invasion and metastatic abilities of melanoma cells. In preliminary experiments, we found that a fraction of N-cadherin localized to specialized membrane microdomains enriched in cholesterol- and glycosphingolipid, called lipid rafts. One particular feature of lipid rafts is that they are rich in signalling molecules and they possibly modulate transmembrane signalling events. Moreover, recent reports suggested that a specialized type of rafts called caveolae might contribute to tumor progression. Based on the documented role of N-cadherin in melanoma progression and its presence in lipid rafts of melanoma cells, we raised the hypothesis that the association of N-cadherin with lipid rafts might be relevant to melanoma progression. The aim of this project was to characterize N-cadherin associated to lipid rafts during melanoma progression. Using human melanoma cell lines derived from melanoma at different stages of progression, we found that (1) N-cadherin is partly associated to lipid rafts in six cell lines derived from melanomas at late stages of progression and in experimental tumors, but not in two melanoma cell lines derived from early stages; (2) N-cadherin targeting to lipid rafts does not depend on its expression level; (3) E-cadherin is not localized in lipid rafts of a melanoma cell line that retained E-cadherin expression; (4) N-cadherin localization to lipid rafts is not modulated by the growth factors bFGF, IGF-I, and HRG1-β1, nor by MEK-, PKA-, Src family kinases-, and PI3K-mediated signalling events; (5) the association of N-cadherin with lipid rafts is not required for adherens junctions stability nor it is perturbed by adherens junctions disruption; (6) N-cadherin in lipid rafts is in complex with β-catenin, p 120ctm and α-catenin. In conclusion, this study provides original evidence that in aggressive melanoma cells a pool of N-cadherin is localized in lipid rafts in association with β-catenin, p 120 and α-catenin. The presence of N-cadherin in lipid rafts independently of its involvement in adherens junctions formation, suggests a possible new role for N-cadherin recruited to lipid rafts. Further studies investigating the biological meaning of this localization promise to uncover new properties of this molecule.
Resumo:
Résumé: Le traitement du cancer avancé de la tête et du cou nécessite souvent une approche multidisciplinaire associant la chirurgie, la radiothérapie et la chimiothérapie. Chacun de ces traitements présente des avantages, des limites et des inconvénients. En raison de la localisation de la tumeur primaire et/ou des métastases ganglionnaires, les glandes salivaires majeures sont fréquemment touchées par les traitements oncologiques. La salive joue un rôle déterminant dans la cavité buccale car elle lubrifie les tissus et facilite à la fois la déglutition et l'élocution. Son contenu en électrolytes et en protéines, dont certaines possèdent un effet antibactérien, protège les dents de la déminéralisation par l'acidité. Une fonction normale, liée autant à la quantité qu'à la qualité de la salive, reste indispensable pour le maintien d'une bonne santé buccale. L'objectif de cette étude prospective a été de déterminer, dans un groupe homogène de patients, l'influence d'un traitement de radiothérapie sur divers paramètres salivaires comme la sécrétion, le pH et l'effet tampon, avant, pendant et jusqu'à un an après la fin du traitement. L'étude a aussi examiné le comportement de ces paramètres salivaires après une intervention chirurgicale seule au niveau de la tête et du cou, avec ou sans exérèse d'une glande sous- maxillaire. L'étude s'est basée sur 54 patients (45 hommes et 9 femmes) atteints d'un carcinome épidermoïde avancé avec une localisation oro-pharyngée confirmée (n = 50) ou soupçonnée (n = 4), adressés et investigués dans le Centre Hospitalier Universitaire Vaudois de Lausanne, Suisse. Tous ces patients furent traités par radiothérapie seule ou en combinaison avec une chirurgie et/ou une chimiothérapie. Trente-neuf des 54 patients parvinrent à la fin de cette étude qui s'est étendue jusqu'à 12 mois au-delà de la radiothérapie. La chirurgie de la tête et cou, en particulier après ablation de la glande sous-maxillaire, a révélé un effet négatif sur la sécrétion salivaire. Elle n'influence en revanche ni le pH, ni l'effet tampon de la salive. Cependant, l'effet sur la sécrétion salivaire lié à la chirurgie est progressivement masqué par l'effet de la radiothérapie et n'est plus identifiable après 3-6 mois. Dès le début de la radiothérapie, la sécrétion salivaire chût très manifestement pour diminuer progressivement jusqu'à 1/3 de sa capacité à la fin du traitement actinique. Une année après la fin de cette radiothérapie, la dysfonction salivaire est caractérisée par une diminution moyenne de la sécrétion salivaire, de 93 % (p < 0,0001) pour la salive au repos et de 95 % (p < 0.0001) pour la salive stimulée, par rapport aux valeurs pré-thérapeutiques. Le pH salivaire ainsi que l'effet tampon furent également influencés par le traitement actinique. L'effet tampon a présenté une diminution à 67 % à une année post-traitement en comparaison de sa valeur pré-thérapeutique. Le pH de la salive stimulée présente une légère, mais significative, diminution par rapport à sa valeur antérieure à la radiothérapie. En conclusion, la chirurgie des cancers de l'oropharynx précédant une radiothérapie a une influence négative sur la sécrétion salivaire sans aggraver l'hyposialie consécutive aux radiations ionisantes. Cette étude confirme qu'un traitement oncologique comprenant une irradiation totale des glandes salivaires majeures chez des patients atteints d'un carcinome épidermoïde avancé de la région oro-pharyngée, induit une perte sévère et à long terme de la sécrétion salivaire avec une altération du pH et de l'effet tampon Abstract: Objective. We sought to investigate the impact of head and neck cancer treatment on salivary function. Study design. The study was conducted on 54 patients with advanced squamous cell carcinoma with confirmed (n =50) or suspected (n = 4) primary oropharyngeal localization who were treated with radiation alone or in combination with surgery or chemotherapy, or both. The following groups were considered in the evaluation: 1, the entire pool of patients; 2, those undergoing surgery and those not undergoing surgery before radiation; 3, those undergoing resection and those not undergoing resection of the submandibular gland. The flow rates, pH, and buffering capacity were determined before, during, and up to 12 months after the completion of radiation. Results. Head and neck surgery, particularly when submandibular gland resection was performed, had a negative impact on salivary flow rates but did not influence pH or buffering capacity. Nonetheless, the effect of surgery on salivary flow rates decreased progressively and disappeared at 3 to 6 months after radiotherapy. More than two thirds of the salivary output was lost during radiation treatment. All patients were experiencing salivary dysfunction at 1 year after completion of radiotherapy, with average decreases of 93% (P < .0001) and 95% (P < .0001) for whole resting salivary flow and whole stimulated salivary flow, respectively, compared with the preradiotherapy values. The buffering capacity decreased to 67% of its preradiotherapy value, and whole stimulated saliva became acidic. Conclusions. The result of this study confirms that cancer treatment involving full-dose radiotherapy (RTH) to all major salivary glands for locally advanced squamous cell carcinoma of the oropharynx induces severe hyposalivation with alteration of salivary pH and buffering capacity. Head and neck surgery has a negative impact on salivary flow rates, especially when the submandibular gland is removed. However, surgery before irradiation is not a factor aggravating hyposalivation when postoperative radiotherapy includes all the major salivary glands.
Resumo:
Résumé Amédée VIII, premier comte de Savoie à accéder au titre ducal en 1416, est bien connu pour avoir édicté les Statuta Sabaudie en 1430, pour être devenu ermite à Ripaille près de Thonon en 1434 et, enfin, pour avoir été élu antipape en 1439 sous le nom de Félix V. Mais ce sont surtout ses capacités de fin diplomate qui émergent de l'historiographie. Amédée VIII a en effet su rester en dehors de la guerre de Cent Ans en arbitrant les différentes parties entre 1407 et 1435, puis en continuant son oeuvre d'intermédiaire en Italie jusqu'en 1438. Loin d'être désintéressée, cette activité diplomatique a été utilisée à bon escient pour les propres intérêts du duché. Cette importante activité diplomatique s'est traduite par un nombre élevé d'ambassades envoyées auprès des protagonistes des différents conflits. La politique matrimoniale d'Amédée VIII, visant à un potentiel agrandissement du duché, a généré un tout aussi considérable va-et-vient. Néanmoins, les acteurs des négociations, qu'il s'agisse d'ambassadeurs, d'officiers ou de messagers, ainsi que les modalités pratiques et matérielles de leurs missions, ont totalement été négligés, les historiens s'étant surtout attelés à reconstituer les événements politiques et à vanter l'habileté diplomatique d'Amédée VIII. En étudiant l'exceptionnelle série de comptes conservée aux Archives d'Etat de Turin, les documents émanant des notaires ducaux ou de la Chambre, ainsi que les recueils d'instructions, il résulte qu'Amédée VIII a organisé les voyages de ses officiers au niveau législatif, administratif, financier et pratique, afin d'en faire un instrument de pouvoir et de gouvernement maîtrisé et performant. L'enjeu est en effet fondamental: au niveau international, les ambassadeurs permanents n'existant pas encore, chaque négociation est tributaire d'un voyage pour faire valoir ses droits, protéger ou élargir ses frontières, négocier un mariage, s'assurer une aide militaire ou signer un traité de paix. Les Statuta Sabaudiae sont ainsi les premiers édits savoyards conservés à évoquer les ambassadeurs. La création de dossiers diplomatiques organisés autour des négociations avec un Etat, notamment Milan, met aussi en lumière cette nécessité de contrôler l'intense activité diplomatique déployée par Amédée VIII. La bonne gestion de la diplomatie passe donc également par un important effort de classification de la documentation qu'elle génère en de véritables archives diplomatiques. De même, il ressort très clairement que la diplomatie d'Amédée VIII s'appuie sur une utilisation particulièrement ciblée de ses officiers. Le duc utilise ainsi au mieux les compétences de chacun, qu'il soit question d'ambassadeurs devant traiter de négociations capitales ou de simples chevaucheurs. Dans le cas des légats, c'est principalement dans l'entourage direct du prince qu'ils sont choisis, parmi les conseillers ou les officiers. Ils bénéficient de la confiance de leur seigneur et sont en plus au fait de la situation politique environnante. Les ambassades savoyardes sont d'ailleurs principalement composées d'après un modèle alliant le prestige de la noblesse aux capacités juridiques. Dans ce sens, les légations unissant un officier noble à un juriste sont monnaie courante. Le premier pourra briller au sein de la cour par sa maîtrise du cérémonial, tandis que le second veillera aux problèmes liés au droit et à la rédaction des actes. Amédée VIII pratique également une diplomatie de continuité en envoyant régulièrement les mêmes ambassadeurs auprès d'un seigneur. Ce procédé tend à instaurer un climat de confiance entre les deux parties, le souvenir personnel étant un facteur parfois fondamental lors de négociations. Il donne en outre aux envoyés du duc l'avantage de suivre un même dossier sur une longue période et, ainsi, d'en maîtriser les moindres aspects. Au fil des missions naissent ainsi de véritables spécialistes d'un Etat ou d'affaires particulières. Ces derniers ne sont toutefois pas cantonnés à gérer un seul type de négociation, bien que l'on puisse définir des traits particuliers. Devenu pape, Amédée VIII gardera néanmoins, jusqu'à sa mort en 1451, une influence prépondérante sur son fils Louis dépourvu de son sens aigu de la diplomatie. Le principat de Louis ne peut donc être envisagé séparément de celui de son père. Louis conservera d'ailleurs les supports établis par Amédée VIII pour son appareil diplomatique. Le nouveau duc devra cependant affronter de lourds déboires financiers et une grande instabilité du personnel administratif qui déboucheront in fine sur un refus du voyage diplomatique de la part de certains officiers, remettant ainsi en cause le service du prince.
Resumo:
Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.
Resumo:
La thèse est articulée en trois grandes sections, consacrées respectivement: (I) à la traduction poétique en Italie à partir des années 1540 jusqu'à la fin du XVIème siècle (II), à la réception des Métamorphoses d'Ovide à travers la réflexion théorique et les réécritures en italien (III), à la plus célèbre des versions italiennes du poème latin, celle de Giovanni Andrea dell'Anguillara (1507-1570 env.), parue à Venise en 1561. Le premier chapitre (La traduzione poetica nel Cinquecento) prend en considération plus d'une trentaine de traductions d'auteurs classiques parues en Italie entre 1540 et 1580. L'examen détaillé du péritexte qui accompagne les éditions (préfaces, commentaires, dédicaces) montre l'existence d'un riche débat autour de la traduction littéraire ainsi que la présence d'un public vaste et diversifié comme destinataire de ces oeuvres. Dans ce contexte, la traduction en langue vulgaire de l'oeuvre d'Ovide, et particulièrement des Métamorphoses, constitue un cas fort intéressant. Le deuxième chapitre (Aspetti della ricezione delle Metamorfosi nel Cinquecento) offre un ample aperçu sur la réception du poème latin à travers ses principales éditions, commentaires et interprétations. En s'appuyant sur les travaux de A. Moss et D. Javitch, ce chapitre (II. 2 Usi e funzioni delle Metamorfosi in ambito teorico e poetico) montre les contradictions existant dans les jugements sur les Métamorphoses au XVIème siècle, partagés entre l'admiration pour la virtuosité du poète latin et l'écho des préjugés moraux et stylistiques hérités de la critique ancienne. La poétique du Cinquecento en effet devait faire face à deux problèmes majeurs posés par le texte d'Ovide: au niveau structurel son caractère polycentrique et digressif, inconciliable avec le modèle épique virgilien chéri par le siècle; au niveau thématique la présence de récits de phénomènes jugés invraisemblables, comme notamment celui de la métamorphose. L'analyse des traductions des Métamorphoses en italien entre 1530 et 1570 prend en considération autant les réécritures partielles (dues aux poètes Luigi Alamanni, Bernardo Tasso, Girolamo Parabosco) que les versions intégrales du poème. Parmi ces dernières, une attention particulière a été réservée à l'adaptation du vénitien Ludovico Dolce, Le Trasformationi (1553), libre réécriture sur le modèle du Roland Furieux. La dernière partie du travail est entièrement consacrée à la célèbre version de Giovanni Andrea dell'Anguillara, poète et traducteur dans le cercle du cardinal Alessandro Farnese. Comme le démontre l'analyse comparée du texte italien et de l'original latin, cette «belle infidèle» (qui supplanta la version de Dolce et fut réimprimée maintes fois jusqu'au XIX siècle) doit son succès à son parfait équilibre entre fidélité à la structure du poème et une attitude très libre dans la narration, qui n'hésite pas à actualiser et «contaminer» le texte ovidien avec des auteurs modernes tels que l'Arioste ou Bandello. L'appendice comprend une bibliographie exhaustive des éditions de la traduction d'Anguillara parues au XVIème siècle.
Resumo:
Résumé Ce travail vise à clarifier les résultats contradictoires de la littérature concernant les besoins des patients d'être informés et de participer à la prise de décision. La littérature insiste sur le contenu de l'information comme base de la prise de décision, bien qu'il existe des preuves que d'autres contenus sont importants pour les patients. La thèse essaie en outre d'identifier des possibilités de mieux répondre aux préférences d'information et de participation des patients. Les travaux ont porté en particulier sur les soins palliatifs. Une analyse de la littérature donne un aperçu sur les soins palliatifs, sur l'information des patients et sur leur participation à la prise de décisions thérapeutiques. Cette analyse résume les résultats d'études précédentes et propose un: modèle théorique d'information, de prise de décision et de relation entre ces deux domaines. Dans le cadre de ce travail, deux études empiriques ont utilisé des questionnaires écrits adressés à des personnes privées et à des professionnels de la santé, couvrant la Suisse et le Royaume Uni, pour identifier d'éventuelles différences entre ces deux pays. Les enquêtes ont été focalisées sur des patients souffrant de cancer du poumon. Les instruments utilisés pour ces études proviennent de la littérature afin de les rendre comparables. Le taux de réponse aux questionnaires était de 30-40%. La majorité des participants aux enquêtes estime que les patients devraient: - collaborer à la prise de décision quant à leur traitement - recevoir autant d'information que possible, positive aussi bien que négative - recevoir toutes les informations mentionnées dans le questionnaire (concernant la maladie, le diagnostic et les traitements), tenant compte de la diversité des priorités des patients - être soutenus par des professionnels de la santé, leur famille, leurs amis et/ou les personnes souffrant de la même maladie En plus, les participants aux enquêtes ont identifié divers contenus de l'information aux patients souffrant d'une maladie grave. Ces contenus comprennent entre autres: - L'aide à la prise de décision concernant le traitement - la possibilité de maintenir le contrôle de la situation - la construction d'une relation entre le patient et le soignant - l'encouragement à faire des projets d'avenir - l'influence de l'état émotionnel - l'aide à la compréhension de la maladie et de son impact - les sources potentielles d'états confusionnels et d'états anxieux La plupart des contenus proposés sont positifs. Les résultats suggèrent la coexistence possible de différents contenus à un moment donné ainsi que leur changement au cours du temps. Un modèle est ensuite développé et commenté pour présenter le diagnostic d'une maladie grave. Ce modèle est basé sur la littérature et intègre les résultats des études empiriques réalisées dans le cadre de ce travail. Ce travail analyse également les sources préférées d'information et de soutien, facteurs qui peuvent influencer ou faire obstacle aux préférences d'information et de participation. Les deux groupes de participants considèrent les médecins spécialistes comme la meilleure source d'information. En ce qui concerne le soutien, les points de vue divergent entre les personnes privées et les professionnels de la santé: généralement, les rôles de soutien semblent peu définis parmi les professionnels. Les barrières à l'information adéquate du patient apparaissent fréquemment liées aux caractéristiques des professionnels et aux problèmes d'organisation. Des progrès dans ce domaine contribueraient à améliorer les soins fournis aux patients. Finalement, les limites des études empiriques sont discutées. Celles-ci comprennent, entre autres, la représentativité restreinte des participants et les objections de certains groupes de participants à quelques détails des questionnaires. Summary The present thesis follows a call from the current body of literature to better understand patient needs for information and for participation in decision-making, as previous research findings had been contradictory. Information so far seems to have been considered essentially as a means to making treatment decisions, despite certain evidence that it may have a number of other values to patients. Furthermore, the thesis aims to identify ways to optimise meeting patient preferences for information and participation in treatment decisions. The current field of interest is palliative care. An extensive literature review depicts the background of current concepts of palliative care, patient information and patient involvement into treatment decisions. It also draws together results from previous studies and develops a theoretical model of information, decision-making, and the relationship between them. This is followed by two empirical studies collecting data from members of the general public and health care professionals by means of postal questionnaires. The professional study covers both Switzerland and the United Kingdom in order to identify possible differences between countries. Both studies focus on newly diagnosed lung cancer patients. The instruments used were taken from the literature to make them comparable. The response rate in both surveys was 30-40%, as expected -sufficient to allow stastical tests to be performed. A third study, addressed to lung cancer patients themselves, turned out to require too much time within the frame available. A majority of both study populations thought that patients should: - have a collaborative role in treatment-related decision-making -receive as much information as possible, good or bad - receive all types of information mentioned in the questionnaire (about illness, tests, and treatment), although priorities varied across the study populations - be supported by health professionals, family members, friends and/or others with the same illness Furthermore they identified various 'meanings' information may have to patients with a serious illness. These included: - being an aid in treatment-related decision-making - allowing control to be maintained over the situation - helping the patient-professional relationship to be constructed - allowing plans to be made - being positive for the patient's emotional state - helping the illness and its impact to be understood - being a source of anxiety - being a potential source of confusion to the patient Meanings were mostly positive. It was suggested that different meanings could co-exist at a given time and that they might change over time. A model of coping with the disclosure of a serious diagnosis is then developped. This model is based on existing models of coping with threatening events, as takeñ from the literature [ref. 77, 78], and integrates findings from the empirical studies. The thesis then analyses the remaining aspects apparent from the two surveys. These range from the identification of preferred information and support providers to factors influencing or impeding information and participation preferences. Specialist doctors were identified by both study populations as the best information providers whilst with regard to support provision views differed between the general public and health professionals. A need for better definition of supportive roles among health care workers seemed apparent. Barriers to information provision often seem related to health professional characteristics or organisational difficulties, and improvements in the latter field could well help optimising patient care. Finally, limitations of the studies are discussed, including questions of representativness of certain results and difficulties with or objections against questionnaire details by some groups of respondents.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Les recherches visant à élucider les bases neurales de l'adolescence ont émergé au cours des années 1990 pour s'imposer cette dernière décennie. Il est aujourd'hui accepté dans le champ des neurosciences cognitives et du développement que le cerveau continue à se développer après la 10eme année de vie et qu'il atteint un stade de maturation similaire à l'adulte seulement vers 25 ans. La configuration structurelle et fonctionnelle du cerveau spécifique à la période de l'adolescence impliquerait un manque de contrôle émotionnel, favorisant des comportements dits de prise de risques qui à la fois permettent l'acquisition de l'indépendance et provoquent des situations de mise en danger du jeune individu et de son entourage. Ses mêmes comportements, dans leur acception négative - consommation d'alcool et de stupéfiants, conduite en état d'ivresse, rapports sexuels non-protégés, port d'arme, etc. - mobilisent les politiques de prévention et de santé publique relatives à l'adolescence et à la jeunesse. Cette thèse qui retrace l'histoire du cerveau adolescent de la fin des années 1950 à nos jours se situe à l'intersection de ces deux thèmes d'intérêt scientifique et public. A partir d'une perspective d'histoire culturelle et sociale des sciences, elle approche les éléments expérimentaux, institutionnels et contextuels qui ont contribué à la construction d'une adolescence définie par son immaturité cérébrale, associée à des comportements dits à risque. Plus précisément, elle met en évidence, sous l'angle privilégié du genre, selon quelles modalités et quelles temporalités l'histoire des recherches scientifiques sur le développement cérébral humain à l'adolescence et celle du façonnage d'un type d'adolescent-e impulsif/ve et preneur/euse de risques - c'est-à-dire potentiellement délinquant, dépendant, invalide ou malade chronique, constitué en problème de politique et de santé publique - sont amenées à converger. L'argument développé est que le genre et le sexe sont des catégories actives dans la construction d'un cerveau adolescent idéalement unisexe. En d'autres termes, bien que le cerveau adolescent qualifie des individus en regard de leur âge, sans distinction apparente de sexe et de genre, les conditions de sa production et les critères de sa définition sont constitutivement genrés, notamment par des comportements à risque qui concernent une majorité de garçons. Il s'agit d'analyser comment du sexe et du genre peuvent produire de l'âge, a priori unisexe, et d'interroger les enjeux scientifiques, sociaux et politiques qui participent de cette invisibilisation des catégories de sexe et de genre. Le but est de considérer la manière dont l'adolescence cérébrale reconfigure la gestion des questions liées à l'adolescence et à la jeunesse, en termes de problèmes sanitaires et de délinquance, mais aussi en termes de reproduction des normes sociales, de ce qu'implique devenir un homme ou une femme.
Resumo:
Chaque année, près de 14000 personnes sont victimes d'un accident vasculaire cérébral (AVC) en Suisse (1). Parmi elles, 3000-4000 individus décèdent des suites de leur attaque et environ 2000 personnes survivent avec des séquelles qui peuvent être relativement importantes. Cette affection a donc un poids non négligeable en terme de morbidité et de mortalité ; dans les pays indistrualisés, elle représente la première cause de handicap, la deuxième cause de démence ainsi que la troisième cause de mortalité. Il existe deux types d'AVC : les accidents ischémiques et les accidents hémorragiques (2,3). Dans environ 80% des cas, les AVC sont des accidents ischémiques, résultant d'une occlusion artérielle ou veineuse - les ischémies sur occlusion veineuse étant rares en comparaison de celles sur occulsion artérielle. En outre, on parle d'accident ischémiques transitoires (AIT) lorsque les symptomes sont spontanément résolutifs en moins de 24 heures. Les accidents hémorragiques, quant à eux, ne constituent qu'une minorité des AVC (20%) et sont secondaires à une rupture de vaisseau. La physiopathologie des différents types d'AVC a été particulièrement bien étudiée, ce qui a permis de mettre en évidence un certain nombre de causes. Un AVC peut donc être d'origine cardiaque (embole à point de départ cardiaque, fibrillation auriculaire), d'origine athéromateuse (embole sur plaque d'athéromatose des vaisseaux pré-cérébraux) ou encore, la conséquence directe d'une hypertension artérielle (maladie des petits vaisseaux, hémorragies intracérébrales) (3). Il existe également des causes un peu moins fréquentes, telles que les dissections aortiques, les ruptures d'anévrisme, les malformations artério-veineuses, les états pro-coagulants, les vasculites, la prise de toxiques. De nombreux facteurs de risque ont été mis en évidence (3). Certains d'entre eux, tels que l'âge, le sexe ou l'éthnie, ne sont pas modifiables. Mais il en est d'autres sur lesquels il est possible d'avoir un impact positif et leur identification fait donc partie intégrante du bilan de base chez les patients victimes d'AVC. Il s'agit de l'hypertension artérielle, du diabète, du tabagisme actif et de l'hypercholestérolémie. La présentation clinique de l'AVC est fonction du territoire vasculaire touché (3). Historiquement, la localisation et la compréhension des fonctions cérébrales ont été le fruit de corrélations anatomo-clinique puis radiologico-clinique (2). Dans la majorité des cas, on étudiait la partie commune à toutes les lésions de différents patients présentant un symptôme, et cette partie était présumée responsable de cette fonction. Néanmoins, le patient pouvait présenter d'autres symptômes associés, ce qui peut représenter un certain biais. A l'heure actuelle, l'imagerie fonctionnelle remplace progressivement ces corrélations radiologico- cliniques (2). Finalement, des études de cas isolés, avec lésions relativement circonscrites, ont également contribués à la compréhension des fonctions cérébrales (4-12). Le but principal de cette étude est d'analyser les syndromes cliniquement isolées (CIS, atteinte d'une fonction cérébrale, d'un segment corporel) dans le registre lausannois des accidents vasculaires cérébraux en terme de facteurs de risques, et de caractéristiques de l'AVC (origine, localisation) afin de déterminer des facteurs indépendants de survenue de telles atteintes, d'un point de vue général et pour chacune d'entre elles.
Resumo:
The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.