998 resultados para Approche organisationnelle
Resumo:
Alors que les modèles et notions de performance généralement analysés dans les recherches sont presque toujours ceux du management et des cadres dirigeants, cet article propose de s'arrêter sur la vision des employés, en l'occurrence des agents publics suisses. Il présente, à la lumière des réformes entreprises dans l'administration publique en Suisse, d'une part la conception générale qu'ont les agents publics de la performance du service public, et d'autre part leur perception de l'évolution des performances organisationnelle, individuelle, ainsi que celle en lien avec les prestations fournies aux bénéficiaires. L'analyse de la performance perçue est effectuée à travers la mise en évidence de l'existence de plusieurs mondes de référence auxquels se rapportent les agents publics lorsqu'ils parlent de leur travail. Les résultats révèlent la prégnance du monde industriel, devançant le monde civique qui, lui-même, relègue les mondes domestique et marchand respectivement en troisième et quatrième position. Un intérêt particulier est également accordé aux différents comportements, découlant des réformes du service public, qu'adoptent les agents publics, et aux liens qui pourraient exister entre ces comportements et les différents mondes de référence. Un mariage entre deux mondes, potentiellement contradictoires, semble se dessiner dans l'esprit des agents publics. Il pourrait constituer une réponse à une forme de crise identitaire, mise en avant par de nombreux spécialistes, provoquée par des injonctions contradictoires auxquelles sont soumis actuellement les agents publics.
Resumo:
Rock slope instabilities such as rock slides, rock avalanche or deep-seated gravitational slope deformations are widespread in Alpine valleys. These phenomena represent at the same time a main factor that control the mountain belts erosion and also a significant natural hazard that creates important losses to the mountain communities. However, the potential geometrical and dynamic connections linking outcrop and slope-scale instabilities are often unknown. A more detailed definition of the potential links will be essential to improve the comprehension of the destabilization processes and to dispose of a more complete hazard characterization of the rock instabilities at different spatial scales. In order to propose an integrated approach in the study of the rock slope instabilities, three main themes were analysed in this PhD thesis: (1) the inventory and the spatial distribution of rock slope deformations at regional scale and their influence on the landscape evolution, (2) the influence of brittle and ductile tectonic structures on rock slope instabilities development and (3) the characterization of hazard posed by potential rock slope instabilities through the development of conceptual instability models. To prose and integrated approach for the analyses of these topics, several techniques were adopted. In particular, high resolution digital elevation models revealed to be fundamental tools that were employed during the different stages of the rock slope instability assessment. A special attention was spent in the application of digital elevation model for detailed geometrical modelling of past and potential instabilities and for the rock slope monitoring at different spatial scales. Detailed field analyses and numerical models were performed to complete and verify the remote sensing approach. In the first part of this thesis, large slope instabilities in Rhone valley (Switzerland) were mapped in order to dispose of a first overview of tectonic and climatic factors influencing their distribution and their characteristics. Our analyses demonstrate the key influence of neotectonic activity and the glacial conditioning on the spatial distribution of the rock slope deformations. Besides, the volumes of rock instabilities identified along the main Rhone valley, were then used to propose the first estimate of the postglacial denudation and filling of the Rhone valley associated to large gravitational movements. In the second part of the thesis, detailed structural analyses of the Frank slide and the Sierre rock avalanche were performed to characterize the influence of brittle and ductile tectonic structures on the geometry and on the failure mechanism of large instabilities. Our observations indicated that the geometric characteristics and the variation of the rock mass quality associated to ductile tectonic structures, that are often ignored landslide study, represent important factors that can drastically influence the extension and the failure mechanism of rock slope instabilities. In the last part of the thesis, the failure mechanisms and the hazard associated to five potential instabilities were analysed in detail. These case studies clearly highlighted the importance to incorporate different analyses and monitoring techniques to dispose of reliable and hazard scenarios. This information associated to the development of a conceptual instability model represents the primary data for an integrated risk management of rock slope instabilities. - Les mouvements de versant tels que les chutes de blocs, les éboulements ou encore les phénomènes plus lents comme les déformations gravitaires profondes de versant représentent des manifestations courantes en régions montagneuses. Les mouvements de versant sont à la fois un des facteurs principaux contrôlant la destruction progressive des chaines orogéniques mais aussi un danger naturel concret qui peut provoquer des dommages importants. Pourtant, les phénomènes gravitaires sont rarement analysés dans leur globalité et les rapports géométriques et mécaniques qui lient les instabilités à l'échelle du versant aux instabilités locales restent encore mal définis. Une meilleure caractérisation de ces liens pourrait pourtant représenter un apport substantiel dans la compréhension des processus de déstabilisation des versants et améliorer la caractérisation des dangers gravitaires à toutes les échelles spatiales. Dans le but de proposer un approche plus globale à la problématique des mouvements gravitaires, ce travail de thèse propose trois axes de recherche principaux: (1) l'inventaire et l'analyse de la distribution spatiale des grandes instabilités rocheuses à l'échelle régionale, (2) l'analyse des structures tectoniques cassantes et ductiles en relation avec les mécanismes de rupture des grandes instabilités rocheuses et (3) la caractérisation des aléas rocheux par une approche multidisciplinaire visant à développer un modèle conceptuel de l'instabilité et une meilleure appréciation du danger . Pour analyser les différentes problématiques traitées dans cette thèse, différentes techniques ont été utilisées. En particulier, le modèle numérique de terrain s'est révélé être un outil indispensable pour la majorité des analyses effectuées, en partant de l'identification de l'instabilité jusqu'au suivi des mouvements. Les analyses de terrain et des modélisations numériques ont ensuite permis de compléter les informations issues du modèle numérique de terrain. Dans la première partie de cette thèse, les mouvements gravitaires rocheux dans la vallée du Rhône (Suisse) ont été cartographiés pour étudier leur répartition en fonction des variables géologiques et morphologiques régionales. En particulier, les analyses ont mis en évidence l'influence de l'activité néotectonique et des phases glaciaires sur la distribution des zones à forte densité d'instabilités rocheuses. Les volumes des instabilités rocheuses identifiées le long de la vallée principale ont été ensuite utilisés pour estimer le taux de dénudations postglaciaire et le remplissage de la vallée du Rhône lié aux grands mouvements gravitaires. Dans la deuxième partie, l'étude de l'agencement structural des avalanches rocheuses de Sierre (Suisse) et de Frank (Canada) a permis de mieux caractériser l'influence passive des structures tectoniques sur la géométrie des instabilités. En particulier, les structures issues d'une tectonique ductile, souvent ignorées dans l'étude des instabilités gravitaires, ont été identifiées comme des structures très importantes qui contrôlent les mécanismes de rupture des instabilités à différentes échelles. Dans la dernière partie de la thèse, cinq instabilités rocheuses différentes ont été étudiées par une approche multidisciplinaire visant à mieux caractériser l'aléa et à développer un modèle conceptuel trois dimensionnel de ces instabilités. A l'aide de ces analyses on a pu mettre en évidence la nécessité d'incorporer différentes techniques d'analyses et de surveillance pour une gestion plus objective du risque associée aux grandes instabilités rocheuses.
Resumo:
Molecular shape has long been known to be an important property for the process of molecular recognition. Previous studies postulated the existence of a drug-like shape space that could be used to artificially bias the composition of screening libraries, with the aim to increase the chance of success in Hit Identification. In this work, it was analysed to which extend this assumption holds true. Normalized Principal Moments of Inertia Ratios (NPRs) have been used to describe the molecular shape of small molecules. It was investigated, whether active molecules of diverse targets are located in preferred subspaces of the NPR shape space. Results illustrated a significantly stronger clustering than could be expected by chance, with parts of the space unlikely to be occupied by active compounds. Furthermore, a strong enrichment of elongated, rather flat shapes could be observed, while globular compounds were highly underrepresented. This was confirmed for a wide range of small molecule datasets from different origins. Active compounds exhibited a high overlap in their shape distributions across different targets, making a purely shape based discrimination very difficult. An additional perspective was provided by comparing the shapes of protein binding pockets with those of their respective ligands. Although more globular than their ligands, it was observed that binding sites shapes exhibited a similarly skewed distribution in shape space: spherical shapes were highly underrepresented. This was different for unoccupied binding pockets of smaller size. These were on the contrary identified to possess a more globular shape. The relation between shape complementarity and exhibited bioactivity was analysed; a moderate correlation between bioactivity and parameters including pocket coverage, distance in shape space, and others could be identified, which reflects the importance of shape complementarity. However, this also suggests that other aspects are of relevance for molecular recognition. A subsequent analysis assessed if and how shape and volume information retrieved from pocket or respective reference ligands could be used as a pre-filter in a virtual screening approach. ln Lead Optimization compounds need to get optimized with respect to a variety of pararneters. Here, the availability of past success stories is very valuable, as they can guide medicinal chemists during their analogue synthesis plans. However, although of tremendous interest for the public domain, so far only large corporations had the ability to mine historical knowledge in their proprietary databases. With the aim to provide such information, the SwissBioisostere database was developed and released during this thesis. This database contains information on 21,293,355 performed substructural exchanges, corresponding to 5,586,462 unique replacements that have been measured in 35,039 assays against 1,948 molecular targets representing 30 target classes, and on their impact on bioactivity . A user-friendly interface was developed that provides facile access to these data and is accessible at http//www.swissbioisostere.ch. The ChEMBL database was used as primary data source of bioactivity information. Matched molecular pairs have been identified in the extracted and cleaned data. Success-based scores were developed and integrated into the database to allow re-ranking of proposed replacements by their past outcomes. It was analysed to which degree these scores correlate with chemical similarity of the underlying fragments. An unexpectedly weak relationship was detected and further investigated. Use cases of this database were envisioned, and functionalities implemented accordingly: replacement outcomes are aggregatable at the assay level, and it was shawn that an aggregation at the target or target class level could also be performed, but should be accompanied by a careful case-by-case assessment. It was furthermore observed that replacement success depends on the activity of the starting compound A within a matched molecular pair A-B. With increasing potency the probability to lose bioactivity through any substructural exchange was significantly higher than in low affine binders. A potential existence of a publication bias could be refuted. Furthermore, often performed medicinal chemistry strategies for structure-activity-relationship exploration were analysed using the acquired data. Finally, data originating from pharmaceutical companies were compared with those reported in the literature. It could be seen that industrial medicinal chemistry can access replacement information not available in the public domain. In contrast, a large amount of often-performed replacements within companies could also be identified in literature data. Preferences for particular replacements differed between these two sources. The value of combining different endpoints in an evaluation of molecular replacements was investigated. The performed studies highlighted furthermore that there seem to exist no universal substructural replacement that always retains bioactivity irrespective of the biological environment. A generalization of bioisosteric replacements seems therefore not possible. - La forme tridimensionnelle des molécules a depuis longtemps été reconnue comme une propriété importante pour le processus de reconnaissance moléculaire. Des études antérieures ont postulé que les médicaments occupent préférentiellement un sous-ensemble de l'espace des formes des molécules. Ce sous-ensemble pourrait être utilisé pour biaiser la composition de chimiothèques à cribler, dans le but d'augmenter les chances d'identifier des Hits. L'analyse et la validation de cette assertion fait l'objet de cette première partie. Les Ratios de Moments Principaux d'Inertie Normalisés (RPN) ont été utilisés pour décrire la forme tridimensionnelle de petites molécules de type médicament. Il a été étudié si les molécules actives sur des cibles différentes se co-localisaient dans des sous-espaces privilégiés de l'espace des formes. Les résultats montrent des regroupements de molécules incompatibles avec une répartition aléatoire, avec certaines parties de l'espace peu susceptibles d'être occupées par des composés actifs. Par ailleurs, un fort enrichissement en formes allongées et plutôt plates a pu être observé, tandis que les composés globulaires étaient fortement sous-représentés. Cela a été confirmé pour un large ensemble de compilations de molécules d'origines différentes. Les distributions de forme des molécules actives sur des cibles différentes se recoupent largement, rendant une discrimination fondée uniquement sur la forme très difficile. Une perspective supplémentaire a été ajoutée par la comparaison des formes des ligands avec celles de leurs sites de liaison (poches) dans leurs protéines respectives. Bien que plus globulaires que leurs ligands, il a été observé que les formes des poches présentent une distribution dans l'espace des formes avec le même type d'asymétrie que celle observée pour les ligands: les formes sphériques sont fortement sous représentées. Un résultat différent a été obtenu pour les poches de plus petite taille et cristallisées sans ligand: elles possédaient une forme plus globulaire. La relation entre complémentarité de forme et bioactivité a été également analysée; une corrélation modérée entre bioactivité et des paramètres tels que remplissage de poche, distance dans l'espace des formes, ainsi que d'autres, a pu être identifiée. Ceci reflète l'importance de la complémentarité des formes, mais aussi l'implication d'autres facteurs. Une analyse ultérieure a évalué si et comment la forme et le volume d'une poche ou de ses ligands de référence pouvaient être utilisés comme un pré-filtre dans une approche de criblage virtuel. Durant l'optimisation d'un Lead, de nombreux paramètres doivent être optimisés simultanément. Dans ce contexte, la disponibilité d'exemples d'optimisations réussies est précieuse, car ils peuvent orienter les chimistes médicinaux dans leurs plans de synthèse par analogie. Cependant, bien que d'un extrême intérêt pour les chercheurs dans le domaine public, seules les grandes sociétés pharmaceutiques avaient jusqu'à présent la capacité d'exploiter de telles connaissances au sein de leurs bases de données internes. Dans le but de remédier à cette limitation, la base de données SwissBioisostere a été élaborée et publiée dans le domaine public au cours de cette thèse. Cette base de données contient des informations sur 21 293 355 échanges sous-structuraux observés, correspondant à 5 586 462 remplacements uniques mesurés dans 35 039 tests contre 1948 cibles représentant 30 familles, ainsi que sur leur impact sur la bioactivité. Une interface a été développée pour permettre un accès facile à ces données, accessible à http:/ /www.swissbioisostere.ch. La base de données ChEMBL a été utilisée comme source de données de bioactivité. Une version modifiée de l'algorithme de Hussain et Rea a été implémentée pour identifier les Matched Molecular Pairs (MMP) dans les données préparées au préalable. Des scores de succès ont été développés et intégrés dans la base de données pour permettre un reclassement des remplacements proposés selon leurs résultats précédemment observés. La corrélation entre ces scores et la similarité chimique des fragments correspondants a été étudiée. Une corrélation plus faible qu'attendue a été détectée et analysée. Différents cas d'utilisation de cette base de données ont été envisagés, et les fonctionnalités correspondantes implémentées: l'agrégation des résultats de remplacement est effectuée au niveau de chaque test, et il a été montré qu'elle pourrait également être effectuée au niveau de la cible ou de la classe de cible, sous réserve d'une analyse au cas par cas. Il a en outre été constaté que le succès d'un remplacement dépend de l'activité du composé A au sein d'une paire A-B. Il a été montré que la probabilité de perdre la bioactivité à la suite d'un remplacement moléculaire quelconque est plus importante au sein des molécules les plus actives que chez les molécules de plus faible activité. L'existence potentielle d'un biais lié au processus de publication par articles a pu être réfutée. En outre, les stratégies fréquentes de chimie médicinale pour l'exploration des relations structure-activité ont été analysées à l'aide des données acquises. Enfin, les données provenant des compagnies pharmaceutiques ont été comparées à celles reportées dans la littérature. Il a pu être constaté que les chimistes médicinaux dans l'industrie peuvent accéder à des remplacements qui ne sont pas disponibles dans le domaine public. Par contre, un grand nombre de remplacements fréquemment observés dans les données de l'industrie ont également pu être identifiés dans les données de la littérature. Les préférences pour certains remplacements particuliers diffèrent entre ces deux sources. L'intérêt d'évaluer les remplacements moléculaires simultanément selon plusieurs paramètres (bioactivité et stabilité métabolique par ex.) a aussi été étudié. Les études réalisées ont souligné qu'il semble n'exister aucun remplacement sous-structural universel qui conserve toujours la bioactivité quel que soit le contexte biologique. Une généralisation des remplacements bioisostériques ne semble donc pas possible.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.
Resumo:
This volume reflects a variegated and fruitful dialogue between classical and medieval philologists and historians of science, philosophy, literature and language as well as of medicine - the diverse range of interests that the history of medicine in the Graeco-Roman world and the medieval West continues to stimulate and draw on. A recurrent theme is the transformation of medical knowledge in different languages, literary forms and cultural milieux. Several papers concern editorial work in progress on unpublished texts, available only in manuscript or early printed editions. Ce recueil met en dialogue des spécialistes des textes médicaux latins de l'Antiquité et du Moyen Âge. Certaines analyses adoptent une approche sociolinguistique, d'autres s'intéressent à des questions de transmission et de réception, d'autres enfin livrent des études sur le lexique médical. Mais toutes concourent à éclairer une histoire culturelle de la médecine qui s'inscrit dans un monde en mutation. With a preface by D. R. Langslow, and contributions by M. Baldin, J. P. Barragán Nieto, P. P. Conde Parrado, D. Crismani, M. Cronier, C. de la Rosa Cubo, A. Ferraces Rodríguez, K.-D. Fischer, P. Gaillard-Seux, A. García González, V. Gitton-Ripoll, G. Haverling, F. Le Blay, B. Maire, G. Marasco, A. I. Martín Ferreira, I. Mazzini, F. Messina, Ph. Mudry, V. Nutton, M. Pardon-Labonnelie, R. Passarella, M. J. Pérez Ibáñez, S. Sconocchia, A. M. Urso, M. E. Vázquez Buján, and H. von Staden.
Resumo:
Phénomène reconnu de longue date, dont les rhéteurs et les écrivains ont même souvent vanté l'efficacité pour réaliser un portrait moral convaincant, la caractérisation langagière des personnages n'a été que peu observée selon une perspective générale, comme si son étude ne pouvait s'envisager en dehors du projet esthétique d'un auteur particulier. Cependant, on peut envisager la caractérisation langagière comme procédant d'une poétique du récit, c'est-à-dire comme un mécanisme du texte narratif, dont certaines constantes peuvent être décrites. L'objectif du présent travail est ainsi de mettre au jour les conditions, tant textuelles que contextuelles, devant être réunies pour que certains aspects des discours rapportés fassent sens en tant qu'éléments de caractérisation. La nature indirecte de ce phénomène demande en effet de porter une attention particulière à ce qui relève des conditions de production et d'interprétation du texte, autrement dit des éléments contextuels que le texte convoque (liés à la langue, aux genres, au « texte » de la culture, etc.) afin de (re)construire par inférence ce qui est dit « sans être dit ». Ainsi la caractérisation langagière reposet- elle sur la reconnaissance d'un rôle thématique endossé par le personnage, rôle défini en partie par certains « habitus » discursifs. Mais il importe également de considérer la caractérisation langagière comme un effet de la textualité. Cela concerne d'abord des unités manipulées par les auteurs (mots, structures syntaxiques, phonologie...). Néanmoins, rien ne se joue sur un unique élément ; au contraire, d'une part, il faut qu'une série de traits s'organisent en un réseau isotope, et cela de la réplique isolée au texte entier ; d'autre part, la caractérisation dérive encore des relations que le discours d'un personnage entretient avec des discours avoisinants, en premier lieu celui du narrateur. Se concentrant sur des oeuvres comiques ou satiriques des XVIIe et XVIIIe siècles, l'approche proposée ici veut également tenir compte d'une tradition rhétorique et poétique qui associe portrait moral et parole représentée, tradition encore très présente dans un tel corpus, qui a par ailleurs l'avantage de laisser entrer dans le monde de la fiction des personnages de toutes conditions, dotés de leurs langages spécifiques.
Resumo:
The aquatic environment is exposed continuously and increasingly to chemical substances such as pharmaceuticals. These medical compounds are released into the environment after having being consumed and body-excreted by patients. Pharmaceutical residues are synthetic molecules that are not always removed by traditional sewage treatment processes and thus escape degradation. Among pharmaceuticals that escape sewage treatment plants (STPs), the anticancer drugs were measured in STP effluents and natural waters. In the aquatic environment, their long-term effects at low concentrations are sparsely known on non-target species. Tamoxifen is an anticancer drug that is widely prescribed worldwide for the prevention and treatment of hormone receptor-positive breast cancers. Two of its metabolites, i.e., endoxifen and 4-hydroxy- tamoxifen (4OHTam), have high pharmacological potency in vivo and such as tamoxifen, they are excreted via faeces by patients. Tamoxifen was measured in STP effluents and natural waters but, to the best of our knowledge, its metabolites concentrations in waters have never been reported. Imatinib is another and recent anticancer compound that targets specific tumour cells. This pharmaceutical is also body excreted and because of its increasing use in cancer treatment, imatinib may reach the natural water. The effects of tamoxifen and imatinib are unknown upon more than one generation of aquatic species. And the effects of 4OHTam, endoxifen have never been studied in ecotoxicology so far. The aims of this thesis were threefold. First, the sensitivity of D. pulex exposed to tamoxifen, 4OHTam, endoxifen or imatinib was assessed using ecotoxicological experiments. Ecotoxicology is the science that considers the toxic effects of natural or synthetic substances, such as pharmaceuticals, on organisms, populations, community and ecosystem. Acute and multigenerational (2-4 generations) tests were performed on daphnids considering several studied endpoints, such as immobilisation, size, reproduction, viability and intrinsic rate of natural increase. Additional prospective assays were designed to evaluate whether 1) low concentrations of tamoxifen and 4OHTam were able to induce toxic effects when used in combination, and 2) daphnids were able to recover when offspring were withdrawn from solutions carrying the pharmaceutical. Second, the stability of tamoxifen, 4OHTam and endoxifen in incubation medium was evaluated in solution exempted from daphnids. Because the nominal concentrations of tamoxifen, 4OHTam and endoxifen did not correspond to the measured, we provide a predictive method to estimate the concentrations of these chemicals during long-term ecotoxicological tests. Finally, changes in protein expressions were analysed in D. pulex exposed 2 or 7 seven days to tamoxifen using ecotoxicoproteomic experiments with a shot-gun approach inducing a peptide fractionation step. Our results show that tamoxifen, 4OHTam and endoxifen induced adverse effects in D. pulex at environmentally relevant concentrations. At very low concentrations, these molecules displayed unusual and teratogenic effects because morphological abnormalities were observed in offspring, such as thick and short antennas, curved spines, premature neonates and aborted eggs. Tamoxifen was the most toxic compound among the test chemicals, followed by 4OHTam, endoxifen and imatinib. Tamoxifen no-observed effect concentrations (NOECs) that were calculated for size, reproduction and intrinsic rate were below or in the range of the concentrations measured in natural waters, i.e., between 0.12 µg/L and 0.67 µg/L. For instance, the tamoxifen NOECs that were calculated for reproduction were between 0.67 and 0.72 µg/L, whereas the NOEC was < 0.15 µg/L when based on morphological abnormalities. The NOECs of 4OHTam were higher but still in the same order of magnitude as tamoxifen environmental concentrations, with a value of 1.48 µg/L. Endoxifen NOEC for the intrinsic rate of natural increase (r) and the reproduction were 0.4 and 4.3 µg/L, respectively. Daphnids that were withdrawn from tamoxifen and 4OHTam were not able to recover. Also, the reproduction of D. pulex was reduced when the treated animals were exposed to the combination of tamoxifen and 4OHTam while no effects were observed when these chemicals were tested individually at the same concentration. Among the anticancer drugs that were tested during this thesis, imatinib was the less toxic molecule towards D. pulex. No effects on size and reproduction were observed within two generations, except for the first whose reproduction decreased at the highest test concentration, i.e., 626 µg/L. Our results also underline the need to use measured or predicted concentrations instead of the nominal during aquatic experiments, particularly when lipophilic molecules are tested. Indeed, notable differences between nominal (i.e., theoretical) and measured concentrations were found with tamoxifen, 4OHTam and endoxifen at all test concentrations. A cost and time sustainable method was proposed to predict the test exposure levels of these chemicals during long-term experiments. This predictive method was efficient particularly for low concentrations, which corresponded to the test concentrations in multigenerational tests. In the ecotoxicoproteomic experiments a total of 3940 proteins were identified and quantified in D. pulex exposed to tamoxifen. These results are currently the largest dataset from D. pulex that is published and the results of proteomic analyses are available for the scientific community. Among these 3940 proteins, 189 were significantly different from controls. After protein annotation, we assumed that treated daphnids with tamoxifen had shifted cost-energy functions, such as reproduction, to maintain their basic metabolism necessary to survive. This metabolic cost hypothesis was supported by the presence of proteins involved in oxidative stress. Biomarkers for early detection of tamoxifen harmful effects on D. pulex were not discovered but the proteins of the vitellogenin-2 family (E9H8K5) and the ryanodine receptor (E9FTU9) are promising potential biomarkers because their expression was already modified after 2 days of treatment. In this thesis, the effects of tamoxifen, 4OHTam and endoxifen on daphnids raise questions about the potential impact of tamoxifen and 4OHTam in other aquatic ecosystems, and therefore, about metabolites in ecotoxicology. Because the NOECs were environmentally relevant, these results suggest that tamoxifen and 4OHTam may be interesting pharmaceuticals to consider in risk assessment. Our findings also emphasize the importance of performing long-term experiments and of considering multi-endpoints instead of the standard reproductive endpoint. Finally, we open the discussion about the importance to measure test exposures or not, during ecotoxicological studies. -- Les milieux aquatiques sont exposés continuellement à un nombre croissant de substances chimiques, notamment les médicaments issus de la médecine vétérinaire et humaine. Chez les patients, les substances administrées sont utilisées par le corps avant d'être éliminées par l'intermédiaire des excrétas dans le système d'eaux usées de la ville. Ces eaux rejoignent ensuite une station de traitement afin d'y éliminer les déchets. Dans le cas des molécules chimiques, il arrive que les processus de traitement d'eaux usées ne soient pas suffisamment efficaces et que ces molécules ne soient pas dégradées. Elles sont alors libérées dans le milieu aquatique avec les effluents de la station d'épuration. Une fois dans l'environnement, ces résidus de médicaments sont susceptibles d'induire des effets sur la faune et la flore aquatique, dont les conséquences à long terme et à faibles concentrations sont peu connues. Les anticancéreux sont une famille de médicaments qui peuvent échapper aux traitements des stations d'épuration et qui sont retrouvées dans le milieu aquatique naturel. Parmi ces substances, le tamoxifen est une molécule utilisée dans le monde entier pour prévenir et traiter les cancers hormonaux dépendant du sein, notamment. Une fois ingéré, le tamoxifen est transformé par le foie en métabolites dont deux d'entre eux, le 4-hydroxy-tamoxifen (4OHTam) et l'endoxifen, possèdent un affinité pour les récepteurs aux estrogènes et une efficacité sur les cellules tumorales supérieure au tamoxifen lui- même. Tout comme la molécule mère, ces métabolites sont principalement éliminés par l'intermédiaire des fèces. Le tamoxifen a déjà été mesuré dans les effluents de stations d'épuration et dans les eaux naturelles, mais aucune valeur n'a été reportée pour ses métabolites jusqu'à présent. Un autre anticancéreux, également éliminé par voie biliaire et susceptible d'atteindre l'environnement, est l'imatinib. Cette récente molécule a révolutionné le traitement et la survie des patients souffrant de leucémie myéloïde chronique et de tumeur stromales gastrointestinales. Les effets du tamoxifen et de l'imatinib sur plusieurs générations d'organismes aquatiques, tels que les microcrustacés Daphnia, sont inconnus et le 4OHTam et l'endoxifen n'ont même jamais été testés en écotoxicologie. Cette thèse s'est articulée autour de trois objectifs principaux. Premièrement, la sensibilité des D. pulex exposés au tamoxifen, 4OHTam, endoxifen et imatinib a été évaluée par l'intermédiaire de tests aigus et de tests sur deux à quatre générations. La mobilité, la taille, la reproduction, la viabilité et la croissance potentielle de la population ont été relevées au cours de ces expériences. Des tests supplémentaires, à but prospectifs, ont également été réalisés afin d'évaluer 1) la capacité de récupération des daphnies, lorsque leurs descendants ont été placés dans un milieu exempté de tamoxifen ou de 4OHTam, 2) les effets chez les daphnies exposées à une solution contenant de faibles concentration de tamoxifen et de 4OHTam mélangés. Le deuxième objectif a été d'évaluer la stabilité du tamoxifen, 4OHTam et endoxifen dilué dans le milieu des daphnies. Après analyses, les concentrations mesurées ne correspondaient pas aux concentrations nominales (c.-à-d., théoriques) et il a été nécessaire de développer une méthode efficace de prédiction des niveaux d'exposition lors de tests de longue durée réalisés avec ces trois molécules. Finalement, des changements dans l'expression des protéines chez des daphnies exposées au tamoxifen ont été investigués par l'intermédiaire d'expériences écotoxicoprotéomiques avec une approche dite de shot-gun avec une étape de fractionnement des protéines. Les résultats obtenus dans cette thèse montrent que le tamoxifen, le 4OHTam et l'endoxifen induisent des effets indésirables chez les daphnies à des niveaux d'exposition proches ou identiques aux concentrations du tamoxifen mesurées dans l'environnement, c'est-à-dire 0.12 et 0.67 µg/L de tamoxifen. Ces molécules ont induit des effets inhabituels tels que la production de : nouveau-nés anormaux, avec des antennes et des queues déformées, des prématurés et des oeufs avortés. Le tamoxifen fut la molécule la plus toxique pour les D. pulex suivie du 4OHTam, de l'endoxifen et enfin de l'imatinib. Lors des expériences sur plusieurs générations, les concentrations n'ayant statistiquement pas d'effet (c.à.d. NOEC en anglais) sur la taille, la reproduction et la croissance intrinsèque de la population étaient du même ordre de grandeur que les concentrations environnementales du tamoxifen. Par exemple, les NOECs du tamoxifen calculées pour la reproduction étaient de 0.67 et 0.72 µg/L, tandis que celle calculée sur la base des anomalies chez les nouveau-nés était < 0.15 µg/L. Les NOECs du 4OHTam se situaient entre 0.16 et 1.48 µg/L et celles de l'endoxifen pour la croissance intrinsèque de la population, ainsi que pour la reproduction, étaient de 0.4 et 4.3 µg/L, respectivement. Dans l'expérience basée sur la récupération des daphnies, la taille et la reproduction ont diminué bien que la descendance fût placée dans un milieu sans substances chimiques. Les daphnies exposées au mélange de tamoxifen et de 4OHTam ont produit moins de nouveau-nés que les contrôles, alors que ces concentrations n'ont pas induit d'effets lorsque testées individuellement. Finalement, l'imatinib n'a pas montré d'effets sur les deux générations testées. Seule la première génération exposée à la plus haute concentration (626 µg/L) a montré une diminution de la reproduction. Les résultats obtenus lors de l'évaluation de la stabilité du tamoxifen, 4OHTam et endoxifen dans le milieu des daphnies ont souligné l'importance d'utiliser des concentrations mesurées ou prédites en écotoxicologie. En effet, des différences notables entre concentrations nominales et mesurées ont été observées à toutes les concentrations et l'hypothèse d'un phénomène d'adsorption sur le verre des récipients a été posée. De ce fait, il a été nécessaire d'élaborer une méthode prédictive efficace et acceptable, en terme de temps et de coûts. Une régression polynomiale basée sur des concentrations mesurées et nominales a permis de prédire avec efficacité les faibles niveaux d'exposition utilisés lors d'expériences écotoxicologiques à long terme, sur plusieurs générations. Suite aux expériences d'écotoxicoprotéomiques, un total de 3940 protéines ont été identifiées et quantifiées chez des daphnies exposées au tamoxifen. Ce nombre est actuellement la plus large série de données publiées et mises à disposition pour la communauté scientifique. Parmi ces protéines, 189 sont significatives et possiblement reliées à des processus de reproduction et de stress. Sur cette base, nous avons émis l'hypothèse que les individus subissant un stress, lié à l'exposition au tamoxifen, ont utilisé leur énergie de base pour favoriser leur survie plutôt que la reproduction. Enfin, la détermination de bio-marqueurs exprimant des dommages précoces des daphnies exposées au tamoxifen n'a pas abouti en tant que telle, mais des protéines prometteuses, telle que la famille de viellogenin-2 (E9H8K5) et le récepteur à la ryanodine (E9FTU9), ont été exprimées après deux jours d'exposition déjà. Ces protéines pourraient faire l'objet d'investigations écotoxicoprotéomiques futures. Les résultats de cette thèse posent certaines questions quant au risque du tamoxifen, du 4OHTam et de l'endoxifen sur la faune et la flore aquatique et plus particulièrement sur les anticancéreux présents dans l'environnement. Les effets toxiques de ces molécules ont été observés à des concentrations environnementales et sur plusieurs générations. La question de considérer les métabolites, et ainsi les pro-médicaments, en écotoxicologie est soulevée, notamment parce que ces molécules peuvent être plus actives et efficaces que la molécule mère. Les expériences chroniques, sur plusieurs générations sont également à favoriser car elles offrent un meilleur reflet de la réalité environnementale que des essais aigus ou d'une génération. L'utilisation de la protéomique permet d'agrandir les connaissances sur les effets des médicaments à un niveau inférieur de l'organisation biologique et ainsi, de mieux comprendre de potentiels mécanismes d'action ou de déterminer de potentiels biomarqueurs. Finalement, il semble important de discuter de l'opportunité de mesurer les concentrations qui sont testées en écotoxicologie afin de ne pas sous-estimer le risque pour la faune et la flore aquatique.