998 resultados para Approche multimodale
Resumo:
Peut-on se réclamer du « cinéma » tout en prétendant rendre compte d'une « vérité »? Quelles sont les limites éthiques du dévoilement d'un individu face à une caméra ? Un cinéaste peut-il être pleinement « auteur » d'une oeuvre construite à partir de fragments de réel? Voilà quelques-unes des questions posées au début des années soixante par la sortie des films qui se revendiquent ou sont associés au « cinéma-vérité ». Proposée en 1960 par Edgar Morin, cette notion controversée sert durant quelques années de bannière à un mouvement cinématographique supposé renouveler les rapports entre film et réalité par une approche plus directe, un dispositif d'interactions avec les protagonistes, ou une démarche autoréflexive qui interroge en son sein le projet du film. Chronique d'un été de Jean Rouch et Edgar Morin, Les Inconnus de la terre et Regard sur la folie de Mario Ruspoli, les travaux de Richard Leacock pour la Drew Associates, Le Chemin de la mauvaise route de Jean Herman, Hitler, connais pas de Bertrand Blier, La Punition de Jean Rouch ou encore Le Joli Mai de Pierre Lhomme et Chris Marker : tous ces « films-vérité » renouvellent les débats et construisent de nouveaux clivages dans la cinéphilie française. Sans chercher à se positionner sur le contenu des polémiques, le présent ouvrage retrace pour la première fois l'histoire du mouvement « cinéma-vérité » en s'intéressant aux films (contexte de production, tournages, innovations techniques) et aux discours (articles, débats, tables rondes) qui les ont précédés, accompagnés et traversés. Grâce à de nombreuses sources inédites, Cinéma-vérité, films et controverses met au jour un phénomène d'une importance méconnue dans l'histoire du cinéma en France.
Resumo:
[Table des matières] 1.1. Bref historique de la stratégie nationale de lutte contre le cancer. 1.2. Mandat d'évaluation. 1. 3. Approche d'évaluation choisie. 1.4. Phase 1 : programme d'évaluation 1999. 2. Conclusions et recommandations générales. 2.1. Stratégie et concept directeur. 2.2. Structure soutenant le programme national de lutte contre le cancer. 2.3. Rôle et fonctionnement des différents organes du programme national. 2.4. Collaborations. 2.5. Monitoring des programmes, évaluation de projets spécifiques et indicateurs à disposition pour l'évaluation globale. 3. Propositions pour la suite de l'évaluation. 4. Résumé de l'étude 1 : évaluation de la conception et de la mise en oeuvre de la stratégie au niveau national. 5. Studie 2 : Inventar der vorhandene Datenquellen und Indikatoren. 5.1. Zusammenfassung. 5.2. Allgemeine Schlussfolgerungen und Empfehlungen. 6. Studie 3 : Konzeptualisierung und Stand der Umsetzung der vier Krebsbekämpfungsprogramme. 6.1. Einleitung. 6.2. Zusammenfassung der programmübergreifende Ergebnisse : zum Konzeptualisierungsprozess, zum Steuerungsprozess, zur Vernetzung innerhalb der Programme und im relevanten Umfeld. 6.3. Zusammenfassung der programmspezifischen Ergebnisse : Brustkrebs, Hautkrebs, Lungenkrebs, Darmkrebs. 6.4. Empfehlungen : Programmübergreifende Empfehlungen, ergänzende programmspezifische Empfehlungen.
Resumo:
Cet article postule que la combinaison d'une approche en termes de science politique (analyse des politiques publiques) et d'économie institutionnelle des ressources (théorie des droits de propriété) permet l'identification des dimensions régulatrices les plus importantes permettant d'expliquer l'usage (non) durable des ressources naturelles et culturelles. Sur cette base, il développe un cadre d'analyse novateur, celui des régimes institutionnels de ressources (RIR), qui est ensuite confronté au corpus de la théorie française de la régulation (TR, telle que formalisée notamment par M. Aglietta, R. Boyer et A. Lipietz) de manière à identifier, aussi bien les convergences, que les complémentarités entre les RIR et la TR. Nous développons ainsi l'idée que l'une des contributions majeures des RIR à la TR sous l'angle de la durabilité consiste dans sa capacité à décrire les différentes configurations de régimes de ressource et à expliquer, voire prévoir, leurs effets sur la durabilité de la ressource.
Resumo:
RESUME: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse Les canaux sodiques ASICs (Acid-Sensing Ion Channels) participent à la signalisation neuronale dans les systèmes nerveux périphérique et central. Ces canaux non voltage dépendants sont impliqués dans l'apprentissage, l'expression de la peur, la neurodégénération consécutive à une attaque cérébrale et la douleur. Les bases moléculaires sous-tendant leur activité ne sont pas encore totalement comprises. Ces canaux sont activés par une acidification du milieu extracellulaire et régulés, entre autres, par des ions tels que le Ca2+, le Zn2+ et le CI". La cristallisation de ASIC inactivé a été publiée. Le canal est un trimére de sous-unités identiques ou homologues. Chaque sous-unité a été décrite en analogie à un avant bras, un poignet et une main constituée d'un pouce, d'un doigt, d'une articulation, une boule β et une paume. Nous avons appliqué une approche bioinformatique systématique pour identifier les pH senseurs putatifs de ASICIa. Le rôle des pH senseurs putatifs a été testé par mutagénèse dirigée et des modifications chimiques combinées à une analyse fonctionnelle afin de comprendre comment les variations de ρ H ouvrent ces canaux. Les pH senseurs sont des acides aspartiques et glutamiques éparpillés sur la boucle extracellulaire suggérant que les changements de pH contrôlent l'activation et l'inactivation de ASIC en (dé)protonant ces résidus en divers endroits de la protéine. Par exemple lors de l'activation, la protonation des résidus à l'interface entre le pouce, la boule β et le doigt d'une même sous-unité induit un mouvement du pouce vers la bouie β et le doigt. De même lors de l'inactivation du canal les paumes des trois sous-unités formant une cavité se rapprochent. D'après notre approche bioinformatique, aucune histidine n'est impliquée dans la détection des variations de pH extracellulaire c'est-à-dire qu'aucune histidine ne serait un pH-senseur. Deux histidines de ASIC2a lient le Zn2+ et modifient l'affinité apparente du canal pour les protons. Une seule des deux est conservée parmi tous les ASICs, hASICIa H163. Elle forme un réseau de liaison hydrogène avec ses voisins conservés. L'étude détaillée de ce domaine, Pinterzone, montre son importance dans l'expression fonctionnelle des canaux. La perturbation de ce réseau par l'introduction d'un résidu hydrophobe (cystéine) par mutagénèse dirigée diminue l'expression du canal à la membrane plasmique. La modification des cystéines introduites par des réactifs spécifiques aux groupements sulfhydryle inhibe les canaux mutés en diminuant leur probabilité d'ouverture. Ces travaux décrivent les effets de l'acidification du milieu extracellulaire sur les canaux ASICs. ABSTRACT: Study of pH-dependent activation and inactivation of ASIC channels Benoîte BARGETON, Department of Pharmacology and Toxicology, University of Lausanne, Rue du Bugnon 27, CH-1G05 Lausanne, Switzerland The ASIC (Acid-Sensing Ion Channels) sodium channels are involved in neuronal signaling in the central and peripheral nervous system. These non-voltage-gated channels are involved in learning, the expression of fear, neurodegeneration after ischemia and pain sensation. The molecular bases underlying their activity are not yet fully understood. ASICs are activated by extracellular acidification and regulated, eg by ions such as Ca2+, the Zn2+ and CI". The crystallization of inactivated ASIC has been published. The channel is a trimer of identical or homologous subunits. Each subunit has been described in analogy to a forearm, wrist and hand consisting of a thumb, a finger, a knuckle, a β-ball and a palm. We applied a systematic computational approach to identify putative pH sensor(s) of ASICIa. The role of putative pH sensors has been tested by site-directed mutagenesis and chemical modification combined with functional analysis in order to understand how changes in pH open these channels. The pH sensors are aspartic and glutamic acids distributed throughout the extracellular loop, suggesting that changes in pH control activation and inactivation of ASIC by protonation / deprotonation of many residues in different parts of the protein. During activation the protonation of various residues at the interface between the finger, the thumb and the β-ball induces the movement of the thumb toward the finger and the β-ball. During inactivation of the channel the palms of the three subunits forming a cavity approach each other. No histidine has been shown to be involved in extracellular pH changes detection, i.e. no histidine is a pH- sensor. Two histidines of ASIC2 bind Zn2+ and alter the apparent affinity of channel for protons. Only one of the two His is conserved among all ASICs, hASICIa H163. This residue is part of a network of hydrogen bonding with its conserved neighbors. The detailed study of this area, the interzone, shows its importance in the functional expression of ASICs. Disturbance of this network by the introduction of hydrophobic residues decreases the cell surface channel expression. Chemical modification of the introduced cysteines by thiol reactive compounds inhibits the mutated channels by a reduction of their open probability. These studies describe the effects of extracellular acidification on ASICs. RESUME GRAND PUBLIC: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse La transmission synaptique est un processus chimique entre deux neurones impliquant des neurotransmetteurs et leurs récepteurs. Un dysfonctionnement de certains types de synapses est à l'origine de beaucoup de troubles nerveux, tels que certaine forme d'épilepsie et de l'attention. Les récepteurs des neurotransmetteurs sont de très bonnes cibles thérapeutiques dans de nombreuses neuropathologies. Les canaux ASICs sont impliqués dans la neurodégénération consécutive à une attaque cérébrale et les bloquer pourraient permettre aux patients d'avoir moins de séquelles. Les canaux ASICs sont des détecteurs de l'acidité qui apparaît lors de situations pathologiques comme l'ischémie et l'inflammation. Ces canaux sont également impliqués dans des douleurs. Cibler spécifiquement ces canaux permettrait d'avoir de nouveaux outils thérapeutiques car à l'heure actuelle l'inhibiteur de choix, l'amiloride, bloque beaucoup d'autres canaux empêchant son utilisation pour bloquer les ASICs. C'est pourquoi il faut connaître et comprendre les bases moléculaires du fonctionnement de ces récepteurs. Les ASICs formés de trois sous-unités détectent les variations de l'acidité puis s'ouvrent transitoirement pour laisser entrer des ions chargés positivement dans la cellule ce qui active la signalisation neuronale. Afin de comprendre les bases moléculaires de l'activité des ASICs nous avons déterminé les sites de liaison des protons (pH-senseurs), ligands naturels des ASICs et décrit une zone importante pour l'expression fonctionnelle de ces canaux. Grâce à une validation systématique de résultats obtenus en collaboration avec l'Institut Suisse de Bioinformatique, nous avons décrit les pH-senseurs de ASICIa. Ces résultats, combinés à ceux d'autres groupes de recherche, nous ont permis de mieux comprendre comment les ASICs sont ouverts par une acidification du milieu extracellulaire. Une seconde étude souligne le rôle structural crucial d'une région conservée parmi tous les canaux ASICs : y toucher c'est diminuer l'activité de la protéine. Ce domaine permet l'harmonisation des changements dus à l'acidification du milieu extracellulaire au sein d'une même sous-unité c'est-à-dire qu'elle participe à l'induction de l'inactivation due à l'activation du canal Cette étude décrit donc quelle région de la protéine atteindre pour la bloquer efficacement en faisant une cible thérapeutique de choix.
Resumo:
Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.
Resumo:
The integration of specific institutions for teacher education into the higher education system represents a milestone in the Swiss educational policy and has broad implications. This thesis explores organizational and institutional change resulting from this policy reform, and attempts to assess structural change in terms of differentiation and convergence within the system of higher education. Key issues that are dealt with are, on the one hand, the adoption of a research function by the newly conceptualized institutions of teacher education, and on the other, the positioning of the new institutions within the higher education system. Drawing on actor-centred approaches to differentiation, this dissertation discusses system-level specificities of tertiarized teacher education and asks how this affects institutional configurations and actor constellations. On the basis of qualitative and quantitative empirical data, a comparative analysis has been carried out including case studies of four universities of teacher education as well as multivariate regression analysis of micro-level data on students' educational choices. The study finds that the process of system integration and adaption to the research function by the various institutions have unfolded differently depending on the institutional setting and the specific actor constellations. The new institutions have clearly made a strong push to position themselves as a new institutional type and to find their identity beyond the traditional binary divide which assigns the universities of teacher education to the college sector. Potential conflicts have been identified in divergent cognitive normative orientations and perceptions of researchers, teacher educators, policy-makers, teachers, and students as to the mission and role of the new type of higher education institution. - L'intégration dans le système d'enseignement supérieur d'institutions qui ont pour tâche spécifique de former des enseignants peut être considérée comme un événement majeur dans la politique éducative suisse, qui se trouve avoir des conséquences importantes à plusieurs niveaux. Cette thèse explore les changements organisationnels et institutionnels résultant de cette réforme politique, et elle se propose d'évaluer en termes de différentiation et de convergence les changements structurels intervenus dans le système d'éducation tertiaire. Les principaux aspects traités sont d'une part la nouvelle mission de recherche attribuée à ces institutions de formation pédagogique, et de l'autre la place par rapport aux autres institutions du système d'éducation tertiaire. Recourant à une approche centrée sur les acteurs pour étudier les processus de différen-tiation, la thèse met en lumière et en discussion les spécificités inhérentes au système tertiaire au sein duquel se joue la formation des enseignants nouvellement conçue et soulève la question des effets de cette nouvelle façon de former les enseignants sur les configurations institutionnelles et les constellations d'acteurs. Une analyse comparative a été réalisée sur la base de données qualitatives et quantitatives issues de quatre études de cas de hautes écoles pédagogiques et d'analyses de régression multiple de données de niveau micro concernant les choix de carrière des étudiants. Les résultats montrent à quel point le processus d'intégration dans le système et la nouvelle mission de recherche peuvent apparaître de manière différente selon le cadre institutionnel d'une école et la constellation spécifique des acteurs influents. A pu clairement être observée une forte aspiration des hautes écoles pédagogiques à se créer une identité au-delà de la structure binaire du système qui assigne la formation des enseignants au secteur des hautes écoles spéciali-sées. Des divergences apparaissent dans les conceptions et perceptions cognitives et normatives des cher-cheurs, formateurs, politiciens, enseignants et étudiants quant à la mission et au rôle de ce nouveau type de haute école. - Die Integration spezieller Institutionen für die Lehrerbildung ins Hochschulsystem stellt einen bedeutsamen Schritt mit weitreichenden Folgen in der Entwicklung des schweizerischen Bildungswesens dar. Diese Dissertation untersucht die mit der Neuerung verbundenen Veränderungen auf organisatorischer und institutioneller Ebene und versucht, die strukturelle Entwicklung unter den Gesichtspunkten von Differenzierung und Konvergenz innerhalb des tertiären Bildungssystems einzuordnen. Zentrale Themen sind dabei zum einen die Einführung von Forschung und Entwicklung als zusätzlichem Leistungsauftrag in der Lehrerbildung und zum andern die Positionierung der pädagogischen Hochschulen innerhalb des Hochschulsystems. Anhand akteurzentrierter Ansätze zur Differenzierung werden die Besonderheiten einer tertiarisierten Lehrerbildung hinsichtlich der Systemebenen diskutiert und Antworten auf die Frage gesucht, wie die Reform die institutionellen Konfigurationen und die Akteurkonstellationen beeinflusst. Auf der Grundlage qualitativer und quantitativer Daten wurde eine vergleichende Analyse durchgeführt, welche Fallstudien zu vier pädagogischen Hochschulen umfasst sowie Regressionsanalysen von Mikrodaten zur Studienwahl von Maturanden. Die Ergebnisse machen deutlich, dass sich der Prozess der Systemintegration und die Einführung von Forschung in die Lehrerbildung in Abhängigkeit von institutionellen Ordnungen und der jeweiligen Akteurkonstellation unterschiedlich gestalten. Es lässt sich bei den neu gegründeten pädagogischen Hochschulen ein starkes Bestreben feststellen, sich als neuen Hochschultypus zu positionieren und sich eine Identität zu schaffen jenseits der herkömmlichen binären Struktur, welche die pädagogischen Hochschulen dem Fachhochschul-Sektor zuordnet. Potentielle Konflikte zeichnen sich ab in den divergierenden kognitiven und normativen Orientierungen und Wahrnehmungen von Forschern, Ausbildern, Bildungspolitikern, Lehrern und Studierenden hinsichtlich des Auftrags und der Rolle dieses neuen Typs Hochschule.
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Les récents progrès de la laparoscopie ont modifié l'approche chirurgicale des patientes atteintes d'un cancer de l'endomètre. Le centre Swissendos Fribourg en collaboration avec l'AGO (Groupe de travail pour la gynécologie oncologique) et l'AGE (Groupe de travail pour la gynécologie endoscopique) ont entrepris d'élaborer un consensus basé sur l'évidence pour la pratique de la laparoscopie dans le traitement du cancer de l'endomètre. L'objectif a été de définir une approche propre à la Suisse en fournissant aux praticiens une aide à la prise en charge. Recent advance in laparoscopy have changed the surgical approach of endometrial cancer patients. The Swissendos Center, Fribourg, in collaboration with AGO (Groupe de travail pour la gynécologie oncologique) and AGE (groupe de travail pour la gynécologie endoscopique) have established a consensus based on the available evidence for the use of laparoscopy in the management of patients with endometrial cancer The main objective was to define Swiss clinical practice guidelines appropriate to the country and consistent with the needs of the physicians.
Resumo:
SUMMARY Under stressful conditions, mutant or post-translationally modified proteins may spontaneously misfold and form toxie species, which may further assemble into a continuum of increasingly large and insoluble toxic oligomers that may further condense into less toxic, compact amyloids in the cell Intracellular accumulation of aggregated proteins is a common denominator of several neurodegenerative diseases. To cope with the cytotoxicity induced by abnormal, aggregated proteins, cells have evolved various defence mechanisms among which, the molecular chaperones Hsp70. Hsp70 (DnaK in E. coii) is an ATPase chaperone involved in many physiological processes in the cell, such as assisting de novo protein folding, dissociating native protein oligomers and serving as pulling motors in the import of polypeptides into organelles. In addition, Hsp70 chaperones can actively solubilize and reactivate stable protein aggregates, such as heat- or mutation-induced aggregates. Hsp70 requires the cooperation of two other co-chaperones: Hsp40 and NEF (Nucleotide exchange factor) to fulfil its unfolding activity. In the first experimental section of this thesis (Chapter II), we studied by biochemical analysis the in vitro interaction between recombinant human aggregated α-synuclein (a-Syn oligomers) mimicking toxic a-Syn oligomers species in PD brains, with a model Hsp70/Hsp40 chaperone system (the E. coii DnaK/DnaJ/GrpE). We found that chaperone-mediated unfolding of two denatured model enzymes were strongly affected by α-Syn oligomers but, remarkably, not by monomers. This in vitro observed dysfunction of the Hsp70 chaperone system resulted from the sequestration of the Hsp40 proteins by the oligomeric α-synuclein species. In the second experimental part (Chapter III), we performed in vitro biochemical analysis of the co-chaperone function of three E. coii Hsp40s proteins (DnaJ, CbpA and DjlA) in the ATP-fuelled DnaK-mediated refolding of a model DnaK chaperone substrate into its native state. Hsp40s activities were compared using dose-response approaches in two types of in vitro assays: refolding of heat-denatured G6PDH and DnaK-mediated ATPase activity. We also observed that the disaggregation efficiency of Hsp70 does not directly correlate with Hsp40 binding affinity. Besides, we found that these E. coii Hsp40s confer substrate specificity to DnaK, CbpA being more effective in the DnaK-mediated disaggregation of large G6PDH aggregates than DnaJ under certain conditions. Sensibilisées par différents stress ou mutations, certaines protéines fonctionnelles de la cellule peuvent spontanément se convertir en formes inactives, mal pliées, enrichies en feuillets bêta, et exposant des surfaces hydrophobes favorisant l'agrégation. Cherchant à se stabiliser, les surfaces hydrophobes peuvent s'associer aux régions hydrophobes d'autres protéines mal pliées, formant des agrégats protéiques stables: les amyloïdes. Le dépôt intracellulaire de protéines agrégées est un dénominateur commun à de nombreuses maladies neurodégénératives. Afin de contrer la cytotoxicité induite par les protéines agrégées, les cellules ont développé plusieurs mécanismes de défense, parmi lesquels, les chaperonnes moléculaires Hsp70. Hsp70 nécessite la collaboration de deux autres co-chaperonnes : Hsp40 et NEF pour accomplir son activité de désagrégation. Hsp70 (DnaK, chez E. coli) est impliquée par ailleurs dans d'autres fonctions physiologiques telles que l'assistanat de protéines néosynthétisées à la sortie du ribosome, ou le transport transmembranaire de polypeptides. Par ailleurs, les chaperonnes Hsp70 peuvent également solubiliser et réactiver des protéines agrégées à la suite d'un stress ou d'une mutation. Dans la première partie expérimentale de cette thèse (Chapter II), nous avons étudié in vitro l'interaction entre les oligomères d'a-synucleine, responsables entre autres, de la maladie de Parkinson, et le système chaperon Hsp70/Hsp40 (système Escherichia coli DnaK/DnaJ/GrpE). Nous avons démontré que contrairement aux monomères, les oligomères d'a-synucleine inhibaient le système chaperon lors du repliement de protéines agrégées. Cette dysfonction du système chaperon résulte de la séquestration des chaperonnes Hsp40 par les oligomères d'a-synucleine. La deuxième partie expérimentale (Chapitre III) est consacrée à une étude in vitro de la fonction co-chaperonne de trois Hsp40 d'is. coli (DnaJ, CbpA, et DjlA) lors de la désagrégation par DnaK d'une protéine pré-agrégée. Leurs activités ont été comparées par le biais d'une approche dose-réponse au niveau de deux analyses enzymatiques: le repliement de la protéine agrégée et l'activité ATPase de DnaK. Par ailleurs, nous avons mis en évidence que l'efficacité de désagrégation d'Hsp70 et l'affinité des chaperonnes Hsp40 vis-à-vis de leur substrat n'étaient pas corrélées positivement. Nous avons également montré que ces trois chaperonnes Hsp40 étaient directement impliquées dans la spécificité des fonctions accomplies par les chaperonnes Hsp70. En effet, DnaK en présence de CbpA assure la désagrégation de large agrégats protéiques avec une efficacité nettement plus accrue qu'en présence de DnaJ.
Resumo:
Jusqu'à aujourd'hui la recherche en psychothérapie a essentiellement exploré quatre questions clés : 1) la psychothérapie est-elle efficace?; 2) quelle forme de psychothérapie est la plus efficace ? ; 3) quelle forme de psychothérapie est efficace pour quel patient? et 4) qu'est-ce qui permet à la psychothérapie d'être efficace? Si l'efficacité de la psychothérapie est désormais reconnue, la recherche empirique n'a jamais permis de désigner une approche psychothérapeutique comme étant la plus efficace de toutes. Les questions de l'indication différentielle des formes de psychothérapie selon les pathologies, et celles concernant les processus de la thérapie, qui permettraient d'en prédire le résultat, n'ont pas trouvé à ce jour de réponse définitive.
Resumo:
Rock slope instabilities such as rock slides, rock avalanche or deep-seated gravitational slope deformations are widespread in Alpine valleys. These phenomena represent at the same time a main factor that control the mountain belts erosion and also a significant natural hazard that creates important losses to the mountain communities. However, the potential geometrical and dynamic connections linking outcrop and slope-scale instabilities are often unknown. A more detailed definition of the potential links will be essential to improve the comprehension of the destabilization processes and to dispose of a more complete hazard characterization of the rock instabilities at different spatial scales. In order to propose an integrated approach in the study of the rock slope instabilities, three main themes were analysed in this PhD thesis: (1) the inventory and the spatial distribution of rock slope deformations at regional scale and their influence on the landscape evolution, (2) the influence of brittle and ductile tectonic structures on rock slope instabilities development and (3) the characterization of hazard posed by potential rock slope instabilities through the development of conceptual instability models. To prose and integrated approach for the analyses of these topics, several techniques were adopted. In particular, high resolution digital elevation models revealed to be fundamental tools that were employed during the different stages of the rock slope instability assessment. A special attention was spent in the application of digital elevation model for detailed geometrical modelling of past and potential instabilities and for the rock slope monitoring at different spatial scales. Detailed field analyses and numerical models were performed to complete and verify the remote sensing approach. In the first part of this thesis, large slope instabilities in Rhone valley (Switzerland) were mapped in order to dispose of a first overview of tectonic and climatic factors influencing their distribution and their characteristics. Our analyses demonstrate the key influence of neotectonic activity and the glacial conditioning on the spatial distribution of the rock slope deformations. Besides, the volumes of rock instabilities identified along the main Rhone valley, were then used to propose the first estimate of the postglacial denudation and filling of the Rhone valley associated to large gravitational movements. In the second part of the thesis, detailed structural analyses of the Frank slide and the Sierre rock avalanche were performed to characterize the influence of brittle and ductile tectonic structures on the geometry and on the failure mechanism of large instabilities. Our observations indicated that the geometric characteristics and the variation of the rock mass quality associated to ductile tectonic structures, that are often ignored landslide study, represent important factors that can drastically influence the extension and the failure mechanism of rock slope instabilities. In the last part of the thesis, the failure mechanisms and the hazard associated to five potential instabilities were analysed in detail. These case studies clearly highlighted the importance to incorporate different analyses and monitoring techniques to dispose of reliable and hazard scenarios. This information associated to the development of a conceptual instability model represents the primary data for an integrated risk management of rock slope instabilities. - Les mouvements de versant tels que les chutes de blocs, les éboulements ou encore les phénomènes plus lents comme les déformations gravitaires profondes de versant représentent des manifestations courantes en régions montagneuses. Les mouvements de versant sont à la fois un des facteurs principaux contrôlant la destruction progressive des chaines orogéniques mais aussi un danger naturel concret qui peut provoquer des dommages importants. Pourtant, les phénomènes gravitaires sont rarement analysés dans leur globalité et les rapports géométriques et mécaniques qui lient les instabilités à l'échelle du versant aux instabilités locales restent encore mal définis. Une meilleure caractérisation de ces liens pourrait pourtant représenter un apport substantiel dans la compréhension des processus de déstabilisation des versants et améliorer la caractérisation des dangers gravitaires à toutes les échelles spatiales. Dans le but de proposer un approche plus globale à la problématique des mouvements gravitaires, ce travail de thèse propose trois axes de recherche principaux: (1) l'inventaire et l'analyse de la distribution spatiale des grandes instabilités rocheuses à l'échelle régionale, (2) l'analyse des structures tectoniques cassantes et ductiles en relation avec les mécanismes de rupture des grandes instabilités rocheuses et (3) la caractérisation des aléas rocheux par une approche multidisciplinaire visant à développer un modèle conceptuel de l'instabilité et une meilleure appréciation du danger . Pour analyser les différentes problématiques traitées dans cette thèse, différentes techniques ont été utilisées. En particulier, le modèle numérique de terrain s'est révélé être un outil indispensable pour la majorité des analyses effectuées, en partant de l'identification de l'instabilité jusqu'au suivi des mouvements. Les analyses de terrain et des modélisations numériques ont ensuite permis de compléter les informations issues du modèle numérique de terrain. Dans la première partie de cette thèse, les mouvements gravitaires rocheux dans la vallée du Rhône (Suisse) ont été cartographiés pour étudier leur répartition en fonction des variables géologiques et morphologiques régionales. En particulier, les analyses ont mis en évidence l'influence de l'activité néotectonique et des phases glaciaires sur la distribution des zones à forte densité d'instabilités rocheuses. Les volumes des instabilités rocheuses identifiées le long de la vallée principale ont été ensuite utilisés pour estimer le taux de dénudations postglaciaire et le remplissage de la vallée du Rhône lié aux grands mouvements gravitaires. Dans la deuxième partie, l'étude de l'agencement structural des avalanches rocheuses de Sierre (Suisse) et de Frank (Canada) a permis de mieux caractériser l'influence passive des structures tectoniques sur la géométrie des instabilités. En particulier, les structures issues d'une tectonique ductile, souvent ignorées dans l'étude des instabilités gravitaires, ont été identifiées comme des structures très importantes qui contrôlent les mécanismes de rupture des instabilités à différentes échelles. Dans la dernière partie de la thèse, cinq instabilités rocheuses différentes ont été étudiées par une approche multidisciplinaire visant à mieux caractériser l'aléa et à développer un modèle conceptuel trois dimensionnel de ces instabilités. A l'aide de ces analyses on a pu mettre en évidence la nécessité d'incorporer différentes techniques d'analyses et de surveillance pour une gestion plus objective du risque associée aux grandes instabilités rocheuses.
Resumo:
Molecular shape has long been known to be an important property for the process of molecular recognition. Previous studies postulated the existence of a drug-like shape space that could be used to artificially bias the composition of screening libraries, with the aim to increase the chance of success in Hit Identification. In this work, it was analysed to which extend this assumption holds true. Normalized Principal Moments of Inertia Ratios (NPRs) have been used to describe the molecular shape of small molecules. It was investigated, whether active molecules of diverse targets are located in preferred subspaces of the NPR shape space. Results illustrated a significantly stronger clustering than could be expected by chance, with parts of the space unlikely to be occupied by active compounds. Furthermore, a strong enrichment of elongated, rather flat shapes could be observed, while globular compounds were highly underrepresented. This was confirmed for a wide range of small molecule datasets from different origins. Active compounds exhibited a high overlap in their shape distributions across different targets, making a purely shape based discrimination very difficult. An additional perspective was provided by comparing the shapes of protein binding pockets with those of their respective ligands. Although more globular than their ligands, it was observed that binding sites shapes exhibited a similarly skewed distribution in shape space: spherical shapes were highly underrepresented. This was different for unoccupied binding pockets of smaller size. These were on the contrary identified to possess a more globular shape. The relation between shape complementarity and exhibited bioactivity was analysed; a moderate correlation between bioactivity and parameters including pocket coverage, distance in shape space, and others could be identified, which reflects the importance of shape complementarity. However, this also suggests that other aspects are of relevance for molecular recognition. A subsequent analysis assessed if and how shape and volume information retrieved from pocket or respective reference ligands could be used as a pre-filter in a virtual screening approach. ln Lead Optimization compounds need to get optimized with respect to a variety of pararneters. Here, the availability of past success stories is very valuable, as they can guide medicinal chemists during their analogue synthesis plans. However, although of tremendous interest for the public domain, so far only large corporations had the ability to mine historical knowledge in their proprietary databases. With the aim to provide such information, the SwissBioisostere database was developed and released during this thesis. This database contains information on 21,293,355 performed substructural exchanges, corresponding to 5,586,462 unique replacements that have been measured in 35,039 assays against 1,948 molecular targets representing 30 target classes, and on their impact on bioactivity . A user-friendly interface was developed that provides facile access to these data and is accessible at http//www.swissbioisostere.ch. The ChEMBL database was used as primary data source of bioactivity information. Matched molecular pairs have been identified in the extracted and cleaned data. Success-based scores were developed and integrated into the database to allow re-ranking of proposed replacements by their past outcomes. It was analysed to which degree these scores correlate with chemical similarity of the underlying fragments. An unexpectedly weak relationship was detected and further investigated. Use cases of this database were envisioned, and functionalities implemented accordingly: replacement outcomes are aggregatable at the assay level, and it was shawn that an aggregation at the target or target class level could also be performed, but should be accompanied by a careful case-by-case assessment. It was furthermore observed that replacement success depends on the activity of the starting compound A within a matched molecular pair A-B. With increasing potency the probability to lose bioactivity through any substructural exchange was significantly higher than in low affine binders. A potential existence of a publication bias could be refuted. Furthermore, often performed medicinal chemistry strategies for structure-activity-relationship exploration were analysed using the acquired data. Finally, data originating from pharmaceutical companies were compared with those reported in the literature. It could be seen that industrial medicinal chemistry can access replacement information not available in the public domain. In contrast, a large amount of often-performed replacements within companies could also be identified in literature data. Preferences for particular replacements differed between these two sources. The value of combining different endpoints in an evaluation of molecular replacements was investigated. The performed studies highlighted furthermore that there seem to exist no universal substructural replacement that always retains bioactivity irrespective of the biological environment. A generalization of bioisosteric replacements seems therefore not possible. - La forme tridimensionnelle des molécules a depuis longtemps été reconnue comme une propriété importante pour le processus de reconnaissance moléculaire. Des études antérieures ont postulé que les médicaments occupent préférentiellement un sous-ensemble de l'espace des formes des molécules. Ce sous-ensemble pourrait être utilisé pour biaiser la composition de chimiothèques à cribler, dans le but d'augmenter les chances d'identifier des Hits. L'analyse et la validation de cette assertion fait l'objet de cette première partie. Les Ratios de Moments Principaux d'Inertie Normalisés (RPN) ont été utilisés pour décrire la forme tridimensionnelle de petites molécules de type médicament. Il a été étudié si les molécules actives sur des cibles différentes se co-localisaient dans des sous-espaces privilégiés de l'espace des formes. Les résultats montrent des regroupements de molécules incompatibles avec une répartition aléatoire, avec certaines parties de l'espace peu susceptibles d'être occupées par des composés actifs. Par ailleurs, un fort enrichissement en formes allongées et plutôt plates a pu être observé, tandis que les composés globulaires étaient fortement sous-représentés. Cela a été confirmé pour un large ensemble de compilations de molécules d'origines différentes. Les distributions de forme des molécules actives sur des cibles différentes se recoupent largement, rendant une discrimination fondée uniquement sur la forme très difficile. Une perspective supplémentaire a été ajoutée par la comparaison des formes des ligands avec celles de leurs sites de liaison (poches) dans leurs protéines respectives. Bien que plus globulaires que leurs ligands, il a été observé que les formes des poches présentent une distribution dans l'espace des formes avec le même type d'asymétrie que celle observée pour les ligands: les formes sphériques sont fortement sous représentées. Un résultat différent a été obtenu pour les poches de plus petite taille et cristallisées sans ligand: elles possédaient une forme plus globulaire. La relation entre complémentarité de forme et bioactivité a été également analysée; une corrélation modérée entre bioactivité et des paramètres tels que remplissage de poche, distance dans l'espace des formes, ainsi que d'autres, a pu être identifiée. Ceci reflète l'importance de la complémentarité des formes, mais aussi l'implication d'autres facteurs. Une analyse ultérieure a évalué si et comment la forme et le volume d'une poche ou de ses ligands de référence pouvaient être utilisés comme un pré-filtre dans une approche de criblage virtuel. Durant l'optimisation d'un Lead, de nombreux paramètres doivent être optimisés simultanément. Dans ce contexte, la disponibilité d'exemples d'optimisations réussies est précieuse, car ils peuvent orienter les chimistes médicinaux dans leurs plans de synthèse par analogie. Cependant, bien que d'un extrême intérêt pour les chercheurs dans le domaine public, seules les grandes sociétés pharmaceutiques avaient jusqu'à présent la capacité d'exploiter de telles connaissances au sein de leurs bases de données internes. Dans le but de remédier à cette limitation, la base de données SwissBioisostere a été élaborée et publiée dans le domaine public au cours de cette thèse. Cette base de données contient des informations sur 21 293 355 échanges sous-structuraux observés, correspondant à 5 586 462 remplacements uniques mesurés dans 35 039 tests contre 1948 cibles représentant 30 familles, ainsi que sur leur impact sur la bioactivité. Une interface a été développée pour permettre un accès facile à ces données, accessible à http:/ /www.swissbioisostere.ch. La base de données ChEMBL a été utilisée comme source de données de bioactivité. Une version modifiée de l'algorithme de Hussain et Rea a été implémentée pour identifier les Matched Molecular Pairs (MMP) dans les données préparées au préalable. Des scores de succès ont été développés et intégrés dans la base de données pour permettre un reclassement des remplacements proposés selon leurs résultats précédemment observés. La corrélation entre ces scores et la similarité chimique des fragments correspondants a été étudiée. Une corrélation plus faible qu'attendue a été détectée et analysée. Différents cas d'utilisation de cette base de données ont été envisagés, et les fonctionnalités correspondantes implémentées: l'agrégation des résultats de remplacement est effectuée au niveau de chaque test, et il a été montré qu'elle pourrait également être effectuée au niveau de la cible ou de la classe de cible, sous réserve d'une analyse au cas par cas. Il a en outre été constaté que le succès d'un remplacement dépend de l'activité du composé A au sein d'une paire A-B. Il a été montré que la probabilité de perdre la bioactivité à la suite d'un remplacement moléculaire quelconque est plus importante au sein des molécules les plus actives que chez les molécules de plus faible activité. L'existence potentielle d'un biais lié au processus de publication par articles a pu être réfutée. En outre, les stratégies fréquentes de chimie médicinale pour l'exploration des relations structure-activité ont été analysées à l'aide des données acquises. Enfin, les données provenant des compagnies pharmaceutiques ont été comparées à celles reportées dans la littérature. Il a pu être constaté que les chimistes médicinaux dans l'industrie peuvent accéder à des remplacements qui ne sont pas disponibles dans le domaine public. Par contre, un grand nombre de remplacements fréquemment observés dans les données de l'industrie ont également pu être identifiés dans les données de la littérature. Les préférences pour certains remplacements particuliers diffèrent entre ces deux sources. L'intérêt d'évaluer les remplacements moléculaires simultanément selon plusieurs paramètres (bioactivité et stabilité métabolique par ex.) a aussi été étudié. Les études réalisées ont souligné qu'il semble n'exister aucun remplacement sous-structural universel qui conserve toujours la bioactivité quel que soit le contexte biologique. Une généralisation des remplacements bioisostériques ne semble donc pas possible.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.