1000 resultados para Théorie de la création
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
Tapuscrit du livret de l'opéra en trois actes de Darius Milhaud, "Bolivar", dont la création a eu lieu à l'Opéra de Paris le 12 mai 1950. - Ce tapuscrit contient de nombreuses annotations manuscrites. - Pagination non continue: acte I (p. 1-10, 19); acte II (p. 20-31, 33-34); acte III (p.35-38, 38-42). La page 38 existe deux fois. - Il existe un copie de ce tapuscrit dans le Dossier d'oeuvre "Bolivar" conservé à la Bibliothèque-musée de l'Opéra
Resumo:
L'étude comparative de deux traductions de « Cendrillon ou la petite pantoufle de verre » de Charles Perrault montre comment le conte est réorienté vers la jeunesse en Angleterre à partir de projets très différents. « Cinderilla: or, The Little Glass Slipper », publié par Robert Samber dans Histories, or Tales of Past Times. With Morals en 1729, est considéré comme la première traduction du conte en langue anglaise. Plus près de nous, sa retraduction par l'écrivain britannique Angela Carter, « Cinderella: or, The Little Glass Slipper », parue dans The Fairy Tales of Charles Perrault en 1977, donne une nouvelle actualité au conte de Perrault. La première traduction propose un quasi calque du conte qui illustre les conditions matérielles et l'interdiscours des traducteurs de Grub Street, au début du XVIIIe siècle, tandis que la deuxième adapte le conte pour les enfants dans une perspective féministe au XXe siècle. La traduction constitue en outre pour Carter la première étape d'une récriture intitulée « Ashputtle or The Mother's Ghost» (1987) qui témoigne de la continuité entre l'activité de traduction et la création littéraire. Mon analyse s'attache surtout à dégager les enjeux de la (re)traduction de Carter, qui se démarque délibérément de Samber pour renouveler le sens du conte de Perrault et de sa morale.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.
Resumo:
Si on raconte volontiers que les Muses sont des divinités féminines d'origine grecque, en lien avec l'art et à l'inspiration, on est toutefois bien démuni lorsqu'il s'agit d'en présenter une image claire. Liées qu'elles sont aux mystères de la création, elles ne s'inscrivent que difficilement dans notre vision pragmatique et utilitaire du monde, - et par suite dans les concepts, catégories et autres réflexes inhérents à notre raison moderne. N'étant pas des figures historiques factuelles et univoques, mais des déesses et personnages mythiques, par définition multiples et ambigus, elles sont impossibles à déterminer en bonne et due forme en leur complexe réalité. Comment faire alors pour ne pas se fourvoyer en se mettant à l'écoute des Muses telles qu'elles apparaissent à l'aube de notre tradition, dans les textes de la Grèce archaïque (8è-5è s. av. J.-C.) ? Il faut d'abord constituer un corpus cohérent : à l'exception des tragédies et comédies ainsi que des écrits aujourd'hui classés en philosophie, l'étude prend en considération tous les passages explicitement ou implicitement musicaux de cette époque - un ensemble de 250 extraits de 22 auteurs et 2 corpus de textes pour un total de 279 occurrences musicales. Il s'agit ensuite de faire un pari : gager que loin d'être de simples fictions ou enjolivures, les Muses ont une existence, importance et partant influence bien réelle pour les Grecs ; que chacune de leurs mentions ou évocations exprime une expérience sincère, dénuée de faux-semblant et forte d'une certaine cohérence logique. Il convient enfin d'employer - par-delà les diverses écoles et chapelles - tous les moyens d'investigation à disposition pour creuser et déployer en toute patience et toute rigueur chacun des passages qui concerne, directement ou indirectement, les divinités ; non sans à la fois tout mettre en oeuvre pour ne pas y plaquer nos vues et par suite éviter tout anachronisme. Au vu des divergences que présentent les textes - en fonction de l'époque, des genres poétiques, sans doute également de la sensibilité des auteurs et de la nature de leur auditoire -, on a tôt fait de remarquer que loin de former une vérité unique, les multiples indications musicales constituent bien plutôt une somme de vérités successives, tantôt individuelles, propres à tel ou tel chanteur ou chanteur-poète, tantôt communes à quelques-uns, parfois semblables chez tous. Dépendantes à la fois de la tradition et de l'expérience individuelle, elles présentent somme toute une instructive multiplicité de constantes et de variantes. L'enjeu de chacun des six mouvements du travail - qui concernent respectivement les chants d'Homère, d'Hésiode, des Hymnes homériques, les fragments lyriques, ainsi que les vers de Pindare et de Bacchylide - est de repérer, dévoiler et valoriser les continuités et divergences à l'oeuvre. Les résultats ont été synthétisés dans autant de reprises, à chaque fois centrées sur les questions rectrices de l'origine, de la nature, des rôles et de l'influence des Muses, dans le but de dégager l'image la plus nette possible des divinités et de gagner une vue d'ensemble inédite offrant un nouvel éclairage du phénomène musical à ses origines. S'il ne fallait retenir que trois gains, ce seraient ceux-ci: 1. Bien que mêlant quantité de ressemblances et de dissemblances a priori fantaisistes, la pléthore d'attributs et d'épithètes musicaux s'inscrit dans une étonnante logique - appelée musicale -, qui déborde par maints côtés notre vision rationnelle-morale du monde. 2. Si les rapports qu'entretiennent les chanteurs et chanteurs-poètes avec les Muses sont multiples et s'inscrivent dans un mouvement non linéaire, ils se situent cependant entre deux relations extrêmes, allant de la « fusion » (Homère) à la « confusion » (Bacchylide). 3. Se faisant jour pour célébrer et rappeler les hauts-faits divins ou/et humains du monde, la tâche des Muses s'avère finalement de l'ordre de l'éducation : par l'intermédiaire des chanteurs(-poètes), elles ouvrent les hommes à l'équilibre et à l'harmonie de toute chose au sein du monde.
Resumo:
L?objectif de ce travail de recherche était de décrypter l?évolution géodynamique de la Péninsule de Biga (Turquie du N-O), à travers l?analyse de deux régions géologiques peu connues, le mélange de Çetmi et la zone d?Ezine (i.e. le Groupe d?Ezine et l?ophiolite de Denizgören). Une étude complète et détaillée de terrain (cartographie et échantillonnage) ainsi qu?une approche multidisciplinaire (sédimentologie de faciès, pétrographie sédimentaire et magmatique, micropaléontologie, datations absolues, géochimie sur roche totale, cristallinité de l?illite) ont permis d?obtenir de nouveaux éléments d?information sur la région considérée. ? Le mélange de Çetmi, de type mélange d?accrétion, affleure au nord et au sud de la Péninsule de Biga ; les principaux résultats de son étude peuvent se résumer comme suit: - Son aspect structural actuel (nature des contacts, organisation tectonique) est principalement dû au régime extensif Tertiaire présent dans la région. - Il est constitué de blocs de différentes natures : rares calcaires Scythien-Ladinien dans le faciès Han Bulog, blocs hectométriques de calcaires d?âge Norien-Rhaetien de rampe carbonatée, nombreux blocs décamétriques de radiolarites rouges d?âge Bajocien- Aptien, blocs/écailles de roches magmatiques de type spilites (basaltes à andésite), ayant des signatures géochimiques d?arcs ou intra-plaques. - La matrice du mélange est constituée d?une association greywacke-argilites dont l?âge Albien inférieur à moyen a été déterminé par palynologie. - L?activité du mélange s?est terminée avant le Cénomanien (discordance Cénomanienne au sommet du mélange, pas de bloc plus jeune que la matrice). - Du point de vue de ses corrélations latérales, le mélange de Çetmi partage plus de traits communs avec les mélanges se trouvant dans les nappes allochtones du Rhodope (nord de la Grèce et sud-ouest de la Bulgarie) qu?avec ceux de la suture Izmir-Ankara (Turquie); il apparaît finalement que sa mise en place s?est faite dans une logique balkanique (chevauchements vers le nord d?âge anté-Cénomanien). ? Le Groupe d?Ezine et l?ophiolite sus-jacente de Denizgören affleurent dans la partie ouest de la Péninsule de Biga. Le Groupe d?Ezine est une épaisse séquence sédimentaire continue (3000 m), subdivisée en trois formations, caractérisée chacune par un type de sédimentation spécifique, relatif à un environnement de dépôt particulier. De par ses caractéristiques (grande épaisseur, variations latérales de faciès et d?épaisseur dans les formations, érosion de matériel provenant de l?amont du bassin), le groupe d?Ezine est interprétée comme un dépôt syn-rift d?âge Permien moyen-Trias inférieur. Il pourrait représenter une partie de la future marge passive sud Rhodopienne à la suite de l?ouverture de l?océan Maliac/Méliata. L?ophiolite de Denizgören sus-jacente repose sur le Groupe d?Ezine par l?intermédiaire d?une semelle métamorphique à gradient inverse, du faciès amphibolite à schiste vert. L?âge du faciès amphibolite suggère une initiation de l?obduction au Barrémien (125 Ma, âge Ar/Ar); cet âge est unique dans le domaine égéen, mais il peut là aussi être relié à une logique balkanique, sur la base de comparaison avec le domaine Rhodopien. ? Toutes les unités précédentes (mélange de Çetmi, Groupe d?Ezine et ophiolite de Denizgören) ont passivement subi trois phases extensives pendant le Tertiaire. Dans la région d?Ezine et du mélange nord, les micaschistes HP sous-jacents ont été exhumés avant l?Eocène moyen. Dans le cas du mélange sud, cette exhumation Eocene est en partie enregistrée dans les mylonites séparant le mélange du dôme métamorphique sous-jacent du Kazda?. Le mélange sud est dans tous les cas fortement érodé à la suite de la double surrection du dôme du Kazda?, près de la lim ite Oligocène/Miocene et pendant le Plio- Quaternaire. Dans le premier cas, ce soulèvement est caractérisé par le développement d?une faille de détachement à faible pendage, qui contrôle à la fois l?exhumation du massif, et la formation d?un bassin sédimentaire syntectonique, de type bassin supradétachement; quant à la phase extensive la plus récente, elle est contrôlée par le jeu de failles normales à forts pendages qui remanient l?ensemble des structures héritées, et dictent la géomorphologie actuelle de la région. ? Il est possible de proposer un scénario pour l?évolution géodynamique de la Péninsule de Biga, basé sur l?ensemble des résultats précédents et sur les données de la géologie régionale ; ses points principaux sont: - La Péninsule de Biga fait partie de la marge Rhodopienne. - Le Groupe d?Ezine est un témoin de la marge passive nord Maliac/Méliata. - L?ophiolite de Denizgören et le mélange de Çetmi ont été mis en place tous deux vers le nord sur la marge précédente, respectivement au Barrémien et à l?Albien terminal- Cénomanien inférieur. - Une forte composante décrochante durant l?emplacement est suggérée par la préservation de fragments de la marge passive et l?absence de métamorphisme dans la plaque inférieure. - Tous les évènements précédents ont été largement affectés par le régime d?extension Tertiaire.<br/><br/>The purpose of this study is to unravel the geodynamic evolution of the Biga Peninsula (NW Turkey) through the detailed study of two poorly known areas, the Çetmi mélange and the Ezine zone (i.e. the Ezine Group and the Denizgören ophiolite). The methodology was based on a detailed field work and a multidisciplinary approach. ? The accretion-related Çetmi mélange is mainly cropping out north and south of the Biga Peninsula; the main results of its study can be summarized as follows: -Its present-day structural aspect (type of contacts, tectonic organisation) is largely inherited from the Tertiary extensional regime in the region. -It is made of blocks of various natures: Han Bulog limestones with a Scythian to Ladinian age, common carbonate ramp Norian-Rhaetian limestones (biggest blocks of the mélange), red radolarite with a Bajocian to Aptian age; the most common lithology of the mélange is made by block/slices of spilitic magmatic rocks (basalt to andesite); they have volcanic arc or within plate basalt geochemical signatures. -The matrix of the mélange is made of a greywacke-shale association of Early-Middle Albian age. - The mélange stopped its activity before the Cenomanian (no younger blocks than the matrix, and Cenomanian unconformity). - If compared to the regional geology, the Çetmi mélange shares some characteristics with the Izmir-Ankara mélanges (less), and with the mélanges from allochthonous nappes found in eastern Rhodope (more); it appears finally that its emplacement is related to a Balkanic logic (ante-Cenomanian northward thrusting). ? The Ezine Group and the overlying Denizgören ophiolite are cropping out in the western part of the Biga Peninsula. The Ezine Group is a thick sedimentary sequence interpreted as a syn-rift deposit of Middle Permian-Early Triassic age. It represents a part of the south Rhodopian passive margin, following the opening of the Maliac/Meliata oceanic domain. The Denizgören ophiolite has been emplaced northward on the Ezine Group in the Barremian (125 Ma, age of the amphibolitic sole); this age is unique in the Aegean domain, but here again, it may be related to a Balkan logic. ? All the previous units (Çetmi mélange, Ezine Group and Denizgören ophiolite) have passively suffered two extensional regimes during the Tertiary. In the Ezine and northern Çetmi mélange area, the underlying HP Çamlýca micaschists were exhumed before the Middle Eocene. As for the southern mélange, it was strongly eroded following the Late Oligocene to Quaternary uplift of the underlying Kazda? Massif. This uplift was characterized by the development of a low-angle detachment fault controlling a part of the exhumation, as well as the development of a supra-detachment basin. ? Based on the previous results, and on the data from the regional geology, one can propose a scenario for the geodynamic evolution of the Biga Peninsula. Its key points are:- The Biga Peninsula is belonging to the Rhodope margin. - The Ezine Group is a remnant of the northern Maliac/Meliata passive margin. - Both the Denizgören ophiolite and the Çetmi mélange have been emplaced northward on the previous margin, respectively in the Barremian and in the Late Albian-Early Cenomanian times. - The preservation of the remnants of the Rhodope margin, as well as the absence of metamorphism in the lower plate suggest a strong strike-slip component during the emplacements. - All the previous events are (at least) partly obliterated by the Tertiary extensional regime.<br/><br/>Le géologue est comme un «historien» de la Terre, qui porte un intérêt particulier à l?étude du passé de notre planète; ce dernier, très ancien, se mesure en dizaines ou centaines de millions d?années (Ma). Or le visage de la terre a constamment évolué au cours des ces millions d?années écoulés, car les plaques (continentales et océaniques) qui composent son enveloppe superficielle ne restent pas immobiles, mais se déplacent continuellement à sa surface, à une vitesse de l?ordre du cm/an (théorie de la tectonique des plaques); c?est ainsi, par exemple, que des océans naissent, grandissent, puis finissent par se refermer. On appelle sutures océaniques, les zones, aujourd?hui sur la terre ferme, où l?on retrouve les restes d?océans disparus. Ces sutures sont caractérisées par deux associations distinctes de roches, que l?on appelle les mélanges et les ophiolites; ces mélanges et ophiolites sont donc les témoins de l?activité passée d?un océan aujourd?hui refermé. L?équipe de recherche dans laquelle ce travail à été réalisé s?intéresse à un vaste domaine océanique fossile: l?océan Néotéthys. Cet océan, de plusieurs milliers de kilomètres de large, séparait alors l?Europe et l?Asie au nord, de l?Afrique, l?Inde et l?Australie au sud. De cet océan, il n?en subsiste aujourd?hui qu?une infime partie, qui se confond avec notre mer Méditerranée actuelle. Or, tout comme l?océan Pacifique est bordé de mers plus étroites (Mer de Chine, du Japon, etc?), l?océan Néotéthys était bordé au nord de mers marginales. C?est dans ce cadre que s?est inscrit mon travail de thèse, puisqu?il a consisté en l?étude d?une suture océanique (mélange plus ophiolite), témoin d?une des mers qui bordait l?océan Néotéthys sur sa marge nord. L?objectif était de préciser de quelle suture il s?agissait, puis de déterminer quand et comment elle avait fonctionné (i.e son évolution géologique). Les roches qui composent cette suture affleurent aujourd?hui en Turquie nord occidentale dans la Péninsule de Biga. Au nord et au sud de la péninsule se trouvent les zones géologique du mélange de Çetmi, et à l?ouest, le Groupe d?Ezine et l?ophiolite susjacente, dite ophiolite de Denizgören. Une étude complète et détaillée de terrain (cartographie, échantillonnage), suivie de diverses analyses en laboratoire (détermination de leur âge, de leur condition de formation, etc?), ont permis d?aboutir aux principaux résultats suivants : - Mise en évidence dans le mélange de Çetmi des témoins (1) de l?océan Lycien disparu (ancienne mer marginale de la Néotéthys), et (2) de la marge continentale qui le bordait au nord. - Fin de l?activité du mélange de Çetmi il y a environ 105 Ma (Albien). - Le mélange de Çetmi est difficilement corrélable dans le temps avec les unités semblables affleurant dans la région d?étude (unicité du mélange), ce qui implique des conditions particulière de formation. - L?ophiolite de Denizgören est un morceau d?océan Lycien posé sur un reste préservé de sa marge continentale nord. - Cette dernière est représentée sur le terrain par une succession de roches caractéristiques, le Groupe d?Ezine. Celui-ci est lui-même un témoin de l?ouverture d?un océan marginal de la Néotethys antérieur au Lycien, l?océan Maliac, qui s?est ouvert il y a 245 Ma (Permien-Trias). - La mise en place de l?ophiolite de Denizgören sur le Groupe d?Ezine (125 Ma, Barrémien) est antérieure à la mise en place du mélange de Çetmi. - Il apparaît que ces deux mises en place sont contemporaines de la formation de la chaîne des Balkans, terminée avant le Cénomanien (100 Ma). - L?évolution dans le temps des objets précédents (océans, marges continentales) montre de grands mouvements latéraux est-ouest entre ces objets (translation). Ce qui implique que les roches que l?on retrouve aujourd?hui sur un transect nord-sud ne l?étaient pas nécessairement auparavant. - Enfin, il s?avère que le mélange de Çetmi, l?ophiolite de Denizgören, et le Groupe d?Ezine ont subi par la suite des déformations extensives importantes qui ont considérablement perturbé le schéma post-mise en place.
Resumo:
Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Le projet REVIAC: Le projet REVIAC (Réinsertion vie active) est un projet de collaboration entre le Service de prévoyance et d'aides sociales (SPAS) et la Policlinique médicale universitaire (PMU) pour améliorer les possibilités de démarches de réinsertion chez les bénéficiaires du revenu d'insertion (RI) avec certificat d'incapacité de travail. En effet, certains bénéficiaires ont des certificats médicaux d'incapacité récurrents et les assistants sociaux (AS) ne peuvent entreprendre les démarches nécessaires. Le projet développé par le SPAS et la PMU comprend deux axesa : ? La création à la PMU d'une consultation pour les bénéficiaires du RI dont l'état de santé compromet toute démarche d'insertion/d'activation. ? Le développement de l'information et de la formation : a) des médecins, principalement de premier recours, sur les thématiques sociales liées au RI et le réseau socio-sanitaire existant, et b) des assistants sociaux sur les pratiques des médecins traitants. Les objectifs du projet sont : Encourager l'élaboration de projets favorisant l'autonomie des bénéficiaires (autonomie sociale comme professionnelle et financière), compatibles avec leur état de santé, réalistes et réalisables ; Apporter un soutien médical aux bénéficiaires entrant dans une démarche d'insertion ou en cours d'insertion, en collaboration avec leurs médecins traitants ; Fournir aux AS les informations nécessaires leur permettant d'initier, au besoin, une collaboration avec l'AI dans le cadre de mesures de prévention et d'insertion ; Permettre aux AS de diriger et accompagner les bénéficiaires dont l'état de santé est incompatible avec une démarche d'insertion vers d'autres types de mesures ou d'autres prises en charge plus adéquates (rentes AI, etc.) ; Améliorer la collaboration entre les médecins traitants des bénéficiaires et les assistants sociaux en charge de leur dossier ; Proposer, à terme, le développement de nouvelles mesures adaptées aux problématiques de santé des bénéficiaires.
Resumo:
La performance que constitue pour une station le fait de connaître le succès touristique, parfois sur plusieurs décennies, n'est de loin pas anodine, surtout si l'on observe que certains lieux traversent des phases de crise plus ou moins longues et plus ou moins marquées et que d'autres encore parviennent à se reconvertir avec succès en diversifiant leurs activités économiques. C'est du point de vue du système de gouvernance locale et de la gestion des ressources foncières, immobilières et infrastructurelles que nous nous sommes intéressés à cette problématique. Notre questionnement était double : d'une part, comprendre comment ces deux dimensions s'articulaient entre elles via la proposition d'un cadre conceptuel que nous avons nommé l'Arrangement Politique Local et, d'autre part, étudier comment elles influençaient les différentes phases comme le démarrage du tourisme, le succès, la crise ou la sortie du tourisme, que peut expérimenter un lieu touristique au cours de son évolution. Le travail empirique a porté sur les trajectoires de développement de trois lieux ou anciens lieux touristiques. Finhaut, après une période de succès qui a fait de la station la deuxième du Valais au début du XXe siècle, a vu après la première guerre mondiale son activité touristique décliner puis péricliter, le tourisme ayant à l'heure actuelle quasiment disparu. Montreux, de station touristique importante dès les années 1880, a ensuite évolué vers une ville grâce à un processus d'urbanisation ainsi qu'à une diversification des activités économiques. Enfin, Zermatt représente une économie touristique en constante croissance depuis plus de 100 ans. L'analyse de ces trois trajectoires touristiques entre 1850 et 2012 a permis de montrer que la création et la gestion des ressources foncières, immobilières et infrastructurelles à des fins touristiques étaient liées aux caractéristiques du système de gouvernance locale, en particulier à la possession ou non par les acteurs locaux des moyens d'action principaux que sont l'argent, l'organisation, le consensus, le soutien politique et les connaissances. Notre étude a également mis en évidence de fortes différences entre les Arrangements Politiques Locaux lors des phases de succès et ceux durant les moments de crise, ces différences portant sur l'importance de l'implication des autorités politiques locales dans le développement touristique, l'existence d'un leadership touristique, la capacité des acteurs locaux à être actifs à des positions politiques et touristiques aux échelons institutionnels supérieurs, l'importance de la collaboration publique/privés, la capacité d'adaptation et de réaction des acteurs locaux face aux événements, la réussite ou non des stratégies permettant la création et l'utilisation des ressources dans un but touristique ainsi que la capacité de mobilisation des moyens d'action nécessaires.
Resumo:
Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.
Resumo:
Cette thèse porte sur la contribution des caractéristiques individuelles et des situations professionnelles au bien-être. En combinant différentes perspectives théoriques, notamment la théorie de la construction de la carrière, la théorie de la justice organisationnelle, les modèles du bien-être au travail, et les conceptualisations de l'incivilité au travail, un certain nombre d'hypothèses sont proposées concernant le lien entre certaines caractéristiques individuelles et situationnelles et le bien-être général et professionnel. Les deux premières études se focalisent sur la validation d'une échelle d'adaptabilités de carrière et sur le rôle médiateur de cette adaptabilité dans la relation entre des dispositions et le bien-être. La troisième étude évolue l'hypothèse d'un possible effet de médiation de l'adaptabilité mais cette fois de la relation entre insécurité professionnelle et charge de travail d'une part et le bien-être d'autre part. La quatrième étude adopte une perspective longitudinale et analyse les associations entre les dimensions de la personnalité, l'adaptabilité de carrière et le bien-être dans quatre parcours professionnels différents. La cinquième étude porte sur une autre caractéristique individuelle, à savoir la croyance en un monde juste. Cette étude illustre comment la croyance en un monde juste influence les perceptions de justice organisationnelle une année après, qui ont une incidence importante sur le bien-être. Enfin, la dernière étude se concentre sur une population spécifique, les immigrants en Suisse, et souligne qu'être la cible d'incivilité sur le lieu de travail est généralement liée au pays d'origine. Globalement, cette thèse met en évidence que les caractéristiques individuelles ont des effets tant directs qu'indirects sur le bien-être et que ces mêmes caractéristiques explique en partie, les relations entre la situation professionnelle et le bien-être. Plus spécifiquement, des situations professionnelles peuvent influencer l'expression de certaines caractéristiques individuelles, soit en contribuant à leurs activations ou à leurs inhibitions. De plus, l'impact des caractéristiques individuelles sur le bien-être semble dépendre de la situation professionnelle. Il est donc important de considérer les influences simultanées et réciproques des caractéristiques individuelles et de la situation contextuelle et professionnelle pour rendre compte du bien-être général et professionnel. -- This thesis explores how individual characteristics and professional situations correspond to well-being. Drawing from various theoretical backgrounds, such as career construction theory, justice theory, models of job strain, and theories on subtle discrimination, a number of specific hypotheses are put forward pertaining to a selection of individual and professional aspects as well as general and work-related well-being. The six studies presented in this thesis focus on specific aspects and adopt different methodological and theoretical approaches. The first two studies concern the validation of the career adapt-abilities scale and test the potential of career adapt-abilities to mediate the relationship between dispositions and outcomes. The third study extends the hypothesis of career adapt-abilities as a mediator and finds that it mediates the effects of job insecurity and job strain on general and professional well-being. The fourth study adopts a longitudinal approach and tests the associations between personality traits and career adaptability and well-being in four different professional situations. Study five concerns another individual characteristic, belief in a just world, and illustrates how justice beliefs drive perceptions of organizational justice, which in turn impact, on well-being outcomes one year later. The final study focuses on the professional experiences of a specific population, immigrants in Switzerland, and confirms that being a target of incivilities is related to national origin. Globally, this thesis finds that individual characteristics have direct and indirect influences on well-being and that these characteristics may also mediate the associations between professional situations and outcomes. In particular, the professional situation may alter the display of individual characteristics, either by contributing to their activation or their depletion, and the ways in which individual factors influence well-being does seem to depend on the professional situation. It is thus necessary to adopt a "both...and" perspective when studying the impact of individual and professional characteristics as these factors mutually influence each other.
Resumo:
This thesis deals with combinatorics, order theory and descriptive set theory. The first contribution is to the theory of well-quasi-orders (wqo) and better-quasi-orders (bqo). The main result is the proof of a conjecture made by Maurice Pouzet in 1978 his thèse d'état which states that any wqo whose ideal completion remainder is bqo is actually bqo. Our proof relies on new results with both a combinatorial and a topological flavour concerning maps from a front into a compact metric space. The second contribution is of a more applied nature and deals with topological spaces. We define a quasi-order on the subsets of every second countable To topological space in a way that generalises the Wadge quasi-order on the Baire space, while extending its nice properties to virtually all these topological spaces. The Wadge quasi-order of reducibility by continuous functions is wqo on Borei subsets of the Baire space, this quasi-order is however far less satisfactory for other important topological spaces such as the real line, as Hertling, Ikegami and Schlicht notably observed. Some authors have therefore studied reducibility with respect to some classes of discontinuous functions to remedy this situation. We propose instead to keep continuity but to weaken the notion of function to that of relation. Using the notion of admissible representation studied in Type-2 theory of effectivity, we define the quasi-order of reducibility by relatively continuous relations. We show that this quasi-order both refines the classical hierarchies of complexity and is wqo on the Borei subsets of virtually every second countable To space - including every (quasi-)Polish space. -- Cette thèse se situe dans les domaines de la combinatoire, de la théorie des ordres et de la théorie descriptive. La première contribution concerne la théorie des bons quasi-ordres (wqo) et des meilleurs quasi-ordres (bqo). Le résultat principal est la preuve d'une conjecture, énoncée par Pouzet en 1978 dans sa thèse d'état, qui établit que tout wqo dont l'ensemble des idéaux non principaux ordonnés par inclusion forme un bqo est alors lui-même un bqo. La preuve repose sur de nouveaux résultats, qui allient la combinatoire et la topologie, au sujet des fonctions d'un front vers un espace métrique compact. La seconde contribution de cette thèse traite de la complexité topologique dans le cadre des espaces To à base dénombrable. Dans le cas de l'espace de Baire, le quasi-ordre de Wadge est un wqo sur les sous-ensembles Boréliens qui a suscité énormément d'intérêt. Cependant cette relation de réduction par fonctions continues s'avère bien moins satisfaisante pour d'autres espaces d'importance tels que la droite réelle, comme l'ont fait notamment remarquer Hertling, Schlicht et Ikegami. Nous proposons de conserver la continuité et d'affaiblir la notion de fonction pour celle de relation. Pour ce faire, nous utilisons la notion de représentation admissible étudiée en « Type-2 theory of effectivity » initiée par Weihrauch. Nous introduisons alors le quasi-ordre de réduction par relations relativement continues et montrons que celui-ci à la fois raffine les hiérarchies classiques de complexité topologique et forme un wqo sur les sous-ensembles Boréliens de chaque espace quasi-Polonais.
Resumo:
Depuis la première édition parue en 2000, la révision totale de l'organisation judiciaire fédérale, entrée en vigueur le 1er janvier 2007, a instauré de nouvelles voies de recours et règles de procédure tant au niveau du Tribunal fédéral qu'à celui des autorités administratives fédérales de recours par la création du Tribunal administratif fédéral et une révision complète de la loi fédérale sur la procédure administrative (PA). En 15 ans, la jurisprudence fondée sur la Constitution, la CEDH et les lois de procédure a été très abondante. Les lois cantonales ont été modifiées; le canton de Vaud s'est doté d'une loi complète de procédure administrative en 2008. L'objectif est de mettre en parallèle la procédure administrative fédérale et celles des cantons romands et Berne, en comparant les dispositions et en mettant en évidence leurs divergences. Facilitant l'accès à la jurisprudence topique et casuistique, cette approche par étapes de la procédure administrative non contentieuse, puis contentieuse, en passant par la décision administrative, est destinée aux praticiens, étudiants, administrés et membres de l'administration dans les nombreux domaines de l'activité de celle-ci vu la vaste portée de la procédure administrative.