600 resultados para Évolution structurale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les mousses sont la plus ancienne lignée de plantes terrestres et leur longue évolution a été accompagnée par des tendances à la simplification des caractères morphologiques. Ce phénomène a quelque peu compliqué les reconstructions phylogénétiques basées sur la morphologie. Les analyses génétiques ont permis de donner de nouvelles informations dans le cadre des analyses phylogénétiques et une réévaluation de certains caractères morphologiques. La plupart des études combinant les données morphologiques et moléculaires ne concernent que des niveaux systématiques élevés comme l'ordre ou la famille et très peu considèrent le niveau du genre. La présente étude tend à tester les relations phylogénétiques du genre Grimmia à l'aide d'une combinaison de caractères morphologiques et moléculaires. Les 40 espèces de Grimmia utilisées dans la première partie de cette étude représentent la majorité des espèces trouvées en Eurasie, un des centres de diversification du genre. Lors de l'analyse morphologique, 52 caractères morphologiques/anatomiques (33 du gamétophyte et 19 du sporophyte) ont été numérisés. Malgré le peu de support statistique des arbres, la topologie des arbres est stable. Les Grimmia, comme décrit précédemment, sont paraphylétiques. Trois clades, correspondant respectivement aux sous-genres Rhabdogrimmia Limpr, Litoneuron I.Hagen et Gasterogrimmia Schimp. sont présents, tandis que le restant des taxons appartenant aux Grimmia forment un groupe non-résolu et indistinct des autres Grimmiaceae. Les séquences chloroplastiques trnL-trnF et rps4 combinés à la morphologie ont été ensuite utilisés pour reconstruire la phylogénie des Grimmia. Les arbres obtenus soutiennent la monophylie des Grimmiaceae tandis que les Grimmia, sont paraphylétiques. Deux clades principaux correspondant aux "Rhabdogrimmia" et aux "Grimmia" se détachent. Seules les espèces de "Rhabdogrimmia" produisent des gemmules foliaires (reproduction asexuée). Dans une étude considèrant 91 séquences trrIL-trnF les espèces appartenant aux "Rhabdogrimrnia" (reproduction asexuée essentiellement) ont des variabilités intraspécifique très faible et interspécifique relativement élevée tandis que les "Grimmia" possèdent la tendance inverse (plus de reproduction sexuée). Summary The mosses are a very old land plant lineage and their long evolutionary history has been accompanied by a trend of morphological character simplifications. This phenomenon has somewhat complicated morphological based phylogenetic reconstructions. Genetic analyses have provided new insights for phylogenetic studies, and have allowed morphological data to be re¬evaluated. Most of the studies combining morphological and molecular data have concerned the higher systematic levels of order and family and only have few considered the genus. The present study aims to test the phylogenetic relationships of the genus Grimmia using a combination of morphological and molecular characters. The 40 chosen Grimmia species represent the majority of those found in Eurasia, one diversification centers of the genus. For the morphological analysis, 52 morphological/anatomical characters (33 gametophyte and 19 sporophyte characters) were numerized. Although the internal statistical support was relatively low, the tree topologies were stable. Grimmia as currently defined was found to be paraphyletic. Three subclades, corresponding to the subgenera Rhabdogrimmia Limpr., Litoneuron I.Hagen, and Gasterogrimmia Schimp. were observed in the trees, while the reminder of the Grimmia species formed an unresolved group indistinct from other Grimmiaceae. Chloroplast (trnL-trnF and rps4) DNA sequences combined with morphology were used to reconstruct the phylogeny of Grimmia. The resulting trees supported the monophyly of Grimmiaceae and that the genus Grimmia, as currently defined, as paraphyletic. Two main clades were resolved corresponding to "Rhabdogrimmia" and "Grimmia". The species belonging to "Rhabdogrimmia" produce foliar-gemmae (asexual reproduction). In a study using 91 sequences of trnL-trnF,"Rhabdogrimmia" species (mainly asexual reproduction) have very low intraspecific variability and high interspecific variability whereas the "Grimmia" species possess the inverse tendency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The main objective of this work is to show how the choice of the temporal dimension and of the spatial structure of the population influences an artificial evolutionary process. In the field of Artificial Evolution we can observe a common trend in synchronously evolv¬ing panmictic populations, i.e., populations in which any individual can be recombined with any other individual. Already in the '90s, the works of Spiessens and Manderick, Sarma and De Jong, and Gorges-Schleuter have pointed out that, if a population is struc¬tured according to a mono- or bi-dimensional regular lattice, the evolutionary process shows a different dynamic with respect to the panmictic case. In particular, Sarma and De Jong have studied the selection pressure (i.e., the diffusion of a best individual when the only selection operator is active) induced by a regular bi-dimensional structure of the population, proposing a logistic modeling of the selection pressure curves. This model supposes that the diffusion of a best individual in a population follows an exponential law. We show that such a model is inadequate to describe the process, since the growth speed must be quadratic or sub-quadratic in the case of a bi-dimensional regular lattice. New linear and sub-quadratic models are proposed for modeling the selection pressure curves in, respectively, mono- and bi-dimensional regu¬lar structures. These models are extended to describe the process when asynchronous evolutions are employed. Different dynamics of the populations imply different search strategies of the resulting algorithm, when the evolutionary process is used to solve optimisation problems. A benchmark of both discrete and continuous test problems is used to study the search characteristics of the different topologies and updates of the populations. In the last decade, the pioneering studies of Watts and Strogatz have shown that most real networks, both in the biological and sociological worlds as well as in man-made structures, have mathematical properties that set them apart from regular and random structures. In particular, they introduced the concepts of small-world graphs, and they showed that this new family of structures has interesting computing capabilities. Populations structured according to these new topologies are proposed, and their evolutionary dynamics are studied and modeled. We also propose asynchronous evolutions for these structures, and the resulting evolutionary behaviors are investigated. Many man-made networks have grown, and are still growing incrementally, and explanations have been proposed for their actual shape, such as Albert and Barabasi's preferential attachment growth rule. However, many actual networks seem to have undergone some kind of Darwinian variation and selection. Thus, how these networks might have come to be selected is an interesting yet unanswered question. In the last part of this work, we show how a simple evolutionary algorithm can enable the emrgence o these kinds of structures for two prototypical problems of the automata networks world, the majority classification and the synchronisation problems. Synopsis L'objectif principal de ce travail est de montrer l'influence du choix de la dimension temporelle et de la structure spatiale d'une population sur un processus évolutionnaire artificiel. Dans le domaine de l'Evolution Artificielle on peut observer une tendence à évoluer d'une façon synchrone des populations panmictiques, où chaque individu peut être récombiné avec tout autre individu dans la population. Déjà dans les année '90, Spiessens et Manderick, Sarma et De Jong, et Gorges-Schleuter ont observé que, si une population possède une structure régulière mono- ou bi-dimensionnelle, le processus évolutionnaire montre une dynamique différente de celle d'une population panmictique. En particulier, Sarma et De Jong ont étudié la pression de sélection (c-à-d la diffusion d'un individu optimal quand seul l'opérateur de sélection est actif) induite par une structure régulière bi-dimensionnelle de la population, proposant une modélisation logistique des courbes de pression de sélection. Ce modèle suppose que la diffusion d'un individu optimal suit une loi exponentielle. On montre que ce modèle est inadéquat pour décrire ce phénomène, étant donné que la vitesse de croissance doit obéir à une loi quadratique ou sous-quadratique dans le cas d'une structure régulière bi-dimensionnelle. De nouveaux modèles linéaires et sous-quadratique sont proposés pour des structures mono- et bi-dimensionnelles. Ces modèles sont étendus pour décrire des processus évolutionnaires asynchrones. Différentes dynamiques de la population impliquent strategies différentes de recherche de l'algorithme résultant lorsque le processus évolutionnaire est utilisé pour résoudre des problèmes d'optimisation. Un ensemble de problèmes discrets et continus est utilisé pour étudier les charactéristiques de recherche des différentes topologies et mises à jour des populations. Ces dernières années, les études de Watts et Strogatz ont montré que beaucoup de réseaux, aussi bien dans les mondes biologiques et sociologiques que dans les structures produites par l'homme, ont des propriétés mathématiques qui les séparent à la fois des structures régulières et des structures aléatoires. En particulier, ils ont introduit la notion de graphe sm,all-world et ont montré que cette nouvelle famille de structures possède des intéressantes propriétés dynamiques. Des populations ayant ces nouvelles topologies sont proposés, et leurs dynamiques évolutionnaires sont étudiées et modélisées. Pour des populations ayant ces structures, des méthodes d'évolution asynchrone sont proposées, et la dynamique résultante est étudiée. Beaucoup de réseaux produits par l'homme se sont formés d'une façon incrémentale, et des explications pour leur forme actuelle ont été proposées, comme le preferential attachment de Albert et Barabàsi. Toutefois, beaucoup de réseaux existants doivent être le produit d'un processus de variation et sélection darwiniennes. Ainsi, la façon dont ces structures ont pu être sélectionnées est une question intéressante restée sans réponse. Dans la dernière partie de ce travail, on montre comment un simple processus évolutif artificiel permet à ce type de topologies d'émerger dans le cas de deux problèmes prototypiques des réseaux d'automates, les tâches de densité et de synchronisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de doctorat analyse les dynamiques qui se développent lorsque des personnes discutent en groupe et doivent prendre position sur des enjeux socio-politiques. Notre modèle prédit que les dynamiques positionnelles, relatives aux opinions exprimées, et les dynamiques relationnelles, relatives aux relations affectives et à l'organisation du groupe, sont constamment en interaction et s'imbriquent différemment selon le moment de vie du groupe. Les hypothèses issues de notre modèle ont été testées au moyen de cinq études conduites sur la base d'un paradigme expérimental en plusieurs phases. Les données relatives aux variables dépendantes (attraction interpersonnelle, identification au groupe, perception de cohésion du groupe, choix d'un représentant du groupe, évolution des positions suite aux interactions) ont été récoltées par questionnaire. Les résultats de ces études appuient l'importance d'analyser conjointement les dynamiques relationnelles et positionnelles, dans une perspective temporelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la planification de l'entraînement d'un athlète, l'affûtage précompétitif consiste à réduire les charges d'entraînement et éliminer le stress des séances précédentes afin d'optimiser les performances futures. Il existe des outils pour analyser les changements physiologiques qui se manifestent dans l'organisme des sportifs pendant cette période et qui sont responsables du gain de performance. L'analyse des indices corporels par bioimpédancemétrie pourrait constituer un outil simple et non invasif pour monitorer les performances et l'entraînement des sportifs d'élites. Méthodologie : Treize nageurs élites ont été analysés sur trois affûtages (T1, N=7 ; T2, N=6 et T3, N=8) qui précèdent trois objectifs nationaux majeurs. Un bioimpédancemètre multifréquence, le Z-Métrix, a été utilisé pour mesurer les indices avant et après l'affûtage. Sur le même principe, les performances des sujets ont été comparées entre la compétition qui suit l'affûtage et une compétition précédente sans affûtage. Pour compléter l'analyse, la charge d'entraînement pendant l'affûtage a été quantifiée puis comparée à la charge qui précède. L'évolution des indices corporels pourra donc être mise en relation avec les différences de performance et la variation de la charge d'entraînement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sexual reproduction is nearly universal in eukaryotes and genetic determination of sex prevails among animals. The astonishing diversity of sex-determining systems and sex chromosomes is yet bewildering. Some taxonomic groups possess conserved and dimorphic sex chromosomes, involving a functional copy (e.g. mammals' X, birds' Z) and a degenerated copy (mammals' Y, birds' W), implying that sex- chromosomes are expected to decay. In contrast, others like amphibians, reptiles and fishes yet maintained undifferentiated sex chromosomes. Why such different evolutionary trajectories? In this thesis, we empirically test and characterize the main hypotheses proposed to prevent the genetic decay of sex chromosomes, namely occasional X-Y recombination and frequent sex-chromosome transitions, using the Palearctic radiation of Hyla tree frogs as a model system. We take a phylogeographic and phylogenetic approach to relate sex-chromosome recombination, differentiation, and transitions in a spatial and temporal framework. By reconstructing the recent evolutionary history of the widespread European tree frog H. arborea, we showed that sex chromosomes can recombine in males, preventing their differentiation, a situation that potentially evolves rapidly. At the scale of the entire radiation, X-Y recombination combines with frequent transitions to prevent sex-chromosome degeneration in Hyla: we traced several turnovers of sex-determining system within the last 10My. These rapid changes seem less random than usually assumed: we gathered evidences that one chromosome pair is a sex expert, carrying genes with key role in animal sex determination, and which probably specialized through frequent reuse as a sex chromosome in Hyla and other amphibians. Finally, we took advantage of secondary contact zones between closely-related Hyla lineages to evaluate the consequences of sex chromosome homomorphy on the genetics of speciation. In comparison with other systems, the evolution of sex chromosomes in Hyla emphasized the existence of consistent evolutionary patterns within the chaotic diversity of flexibility of cold-blooded vertebrates' sex-determining systems, and provides insights into the evolution of recombination. Beyond sex-chromosome evolution, this work also significantly contributed to speciation, phylogeography and applied conservation research. -- La reproduction sexuée est quasi-universelle chez les eucaryotes et le sexe est le plus souvent déterminé génétiquement au sein du règne animal. L'incroyable diversité des systèmes de reproduction et des chromosomes sexuels est particulièrement étonnante. Certains groupes taxonomiques possèdent des chromosomes sexuels dimorphiques et très conservés, avec une copie entièrement fonctionnelle (ex : le X des mammifères, le Z des oiseaux) et une copie dégénérée (ex : le Y des mammifères, le W des oiseaux), suggérant que les chromosomes sexuels sont voués à se détériorer. Cependant les chromosomes sexuels d'autres groupes tels que les amphibiens, les reptiles et les poissons sont pour la plupart indifférenciés. Comment expliquer des trajectoires évolutives si différentes? Au cours de cette thèse, nous avons étudié empiriquement les processus évolutifs pouvant maintenir les chromosomes sexuels intacts, à savoir la recombinaison X-Y occasionnel ainsi que les substitutions fréquentes de chromosomes sexuels, en utilisant les rainettes Paléarctiques du genre Hyla comme modèle d'étude. Nous avons adopté une approche phylogéographique et phylogénétique pour appréhender les événements de recombinaison, de différenciation et de transitions de chromosomes sexuels dans un contexte spatio-temporel. En retraçant l'histoire évolutive récente de la rainette verte H. arborea, nous avons mis en évidence que les chromosomes sexuels pouvaient recombiner chez les mâles, empêchant ainsi leur différenciation, et que ce processus avait le potentiel d'évoluer très rapidement. A l'échelle plus globale de la radiation, il apparait que les phénomènes de recombinaison X-Y soient également accompagnés de substitutions de chromosomes sexuels, et participent de concert au maintien de chromosomes sexuels intacts dans les populations: le système de détermination du sexe des rainettes a changé plusieurs fois au cours des 10 derniers millions d'années. Ces transitions fréquentes ne semblent pas aléatoires: nous avons identifié une paire de chromosomes qui présente des caractéristiques présageant d'une spécialisation dans le déterminisme du sexe (notamment car elle possède des gènes importants pour cette fonction), et qui a été réutilisée plusieurs fois comme tel chez les rainettes ainsi que d'autres amphibiens. Enfin, nous avons étudié l'hybridation entre différentes espèces dans leurs zones de contact, afin d'évaluer si l'absence de différenciation entre X et Y jouaient un rôle dans les processus génétiques de spéciation. Outre son intérêt pour la compréhension de l'évolution des chromosomes sexuels, ce travail contribue de manière significative à d'autres domaines de recherche tels que la spéciation, la phylogéographie, ainsi que la biologie de la conservation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au printemps 2012, des employés administratifs, ayant récemment emménagé dans un nouveau bâtiment à hautes performances énergétiques, se plaignent de problèmes de santé et de gênes compatibles avec un syndrome du bâtiment malsain. L'employeur a entendu les plaintes des collaborateurs, et choisit une intervention unique, consistant à poser des ouvrants afin de fournir une ventilation naturelle. Parallèlement, il commande à des spécialistes MSST une étude sur l'impact de la mesure sur les plaintes exprimées par les employés. La littérature recommande quant à elle de prendre en charge ce type de problématique de façon itérative, et en abordant de multiples aspects (qualité de l'air, psycho-sociaux, organisationnels). Au vu des nombreuses plaintes de la population, et de la disponibilité de ces données, une analyse détaillée, de cohorte, est proposée dans ce travail de master, dont les objectifs seront de caractériser les plaintes des collaborateurs travaillant dans le bâtiment administratif, de diagnostiquer le type de problématique présent, de déterminer si l'on observe une atténuation des symptômes dans ce bâtiment suite à l'intervention unique de pose des ouvrants, et d'isoler si possible d'autres déterminants d'une évolution favorable ou défavorable de la symptomatologie en présence d'une intervention unique. Une étude de cohorte est menée sur les données récoltées par un questionnaire, basé sur le questionnaire MM40, en mars 2012 (T0) et mars 2013 (T1). La population est décrite, puis des analyses descriptives et par régression logistique sont réalisées. La participation a été importante. Entre T0 et T1, après la pose des ouvrants, le nombre de plaintes et symptômes a diminué, mais la prévalence des plaintes reste importante (odeurs, ventilation, bruit, etc.). Les plaintes et les symptômes mis en évidence sont retrouvés dans la littérature, et sont peu spécifiques à la problématique de ce bâtiment, situé en Suisse. De nouvelles pistes d'intervention sont proposées au vu des résultats trouvés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La première partie de cette étude est consacrée à l'étude des vestiges découverts entre 1990 et 1994 à Yverdon-les-Bains (VD) en quatre points de la rue des Philosophes (n°s 7, 13, 21 et 27). L'étude des secteurs fouillés permet de retracer l'histoire d'une zone périphérique de l'agglomération depuis la fin du IVe s. av. J.-C. jusqu'au haut Moyen Age, où une nécropole s'est développée sur trois des parcelles étudiées {cf. CAR 75). L'accès oriental de l'agglomération est barré dès la fin du IVe s. par une palissade peut-être associée à un fossé. Le secteur sud n'a pas livré de vestige contemporain de cet aménagement, mais a été fréquenté depuis le début du IIe s. av. notre ère. Par la suite, un réseau de fossés de petites dimensions a été mis en place, qui d'un point de vue topographique se situe en aval du cordon littoral III, dans une zone anciennement marécageuse. Une fonction drainante a ainsi été postulée pour ces aménagements, qui ont peut-être été réalisés en vue de la construction du rempart. Celui-ci a été dégagé sur trois des parcelles fouillées. Un niveau de démolition repéré au n° 7 de la rue des Philosophes indique qu'il se prolongeait probablement en direction du lac, de l'autre côté de la voie d'accès conduisant à Voppidum partiellement dégagée en 1982 .Le rempart d'Yverdon se rattache au groupe des remparts à poteaux frontaux (Pfostenschlitzmauer) caractérisé par un parement en pierres sèches interrompu à intervalles réguliers (en moyenne 1.40 m) par des pieux de grandes dimensions (section: 50/60 x 30/40 cm) qui étaient reliés à une seconde rangée de pieux, distante d'environ 4 m du front de l'ouvrage; une rampe située à l'arrière de ce dispositif devait assurer la stabilité de l'ensemble. L'excellente conservation de plusieurs dizaines de ces pieux a permis de dater de manière absolue la construction de l'ouvrage vers 80 av. J.-C. Le rempart yverdonnois présente une particularité technique inédite des plus intéressante du point de vue constructif : les pieux des deux rangées ne sont pas implantés verticalement comme cela est généralement le cas, mais de manière oblique. Ce mode opératoire présente un progrès important, car il améliore notablement le comportement statique de l'ouvrage tout en facilitant sa mise en oeuvre (étude du Prof. L. Pflug). La fortification est précédée, dans le secteur sud, par plusieurs aménagements en bois, dont une palissade construite quelques années avant le rempart lui-même et une série de pieux qui pourrait appartenir à une ligne de défense avancée. Trois fossés précèdent le rempart dans le secteur oriental. Le premier, situé à moins d'un mètre de la base de la fortification, est probablement antérieur à cette dernière. Hormis les structures à caractère défensif, plusieurs aménagements de La Tène finale ont été dégagés sur les différentes parcelles, dont une cabane semi-enterrée de plan rectangulaire au n° 7 de la rue des Philosophes. En raison de sa situation extra muros et de son plan, une vocation artisanale a été proposée pour ce bâtiment. Une tombe datée de La Tène D1 par ses offrandes a été découverte au nord du chantier des Philosophes 21 parmi un groupe de sépultures de la nécropole tardo-antique du Pré de la Cure. La transgression lacustre mise en évidence au Parc Piguet paraît également avoir affecté la partie orientale de l'oppidum. Cet événement est survenu avant la démolition de la fortification, qui est datée vers le milieu du Ier s. avant notre ère. Les vestiges du vicus d'époque romaine, dégagés uniquement sur de petites surfaces, comprennent plusieurs constructions en terre et bois, une cave et un bâtiment maçonnés ainsi que plusieurs puits. L'étude du mobilier associé aux aménagements les plus récents situe l'abandon de l'agglomération dans la seconde moitié du IIIe s. ap. J.-C. pour trois des parcelles fouillées, alors que la zone des Philosophes 27 était peut-être encore occupée au siècle suivant.Les fouilles ont livré un abondant mobilier dont la majeure partie remonte à La Tène finale. La céramique de cette époque a été classée en fonction de critères technologique, formel et esthétique précis afin de mettre en évidence des marqueurs significatifs en termes chronologiques. Six horizons principaux ont été distingués, qui s'échelonnent entre le IIe s. av. J.-C. et le début de l'époque tibérienne. On retiendra pour la fin de l'âge du Fer que la première partie de La Tène finale est caractérisée par un vaisselier comprenant une majorité de formes basses en pâte sombre fine, alors que la période suivante voit une nette augmentation des récipients en pâte grossière, dont la plupart sont des pots à cuire à large lèvre déversée. Le registre décoratif évolue également: certains motifs ne sont attestés que durant une période, alors que d'autres se distinguent uniquement par leur fréquence. D'un point de vue économique, Yverdon, à l'image des sites du Plateau suisse, se situe durant la première partie de La Tène finale en dehors des voies commerciales. Les produits méditerranéens sont en effet extrêmement rares durant cette période, alors que leur nombre augmente sensiblement vers la fin de l'âge du Fer. La seconde partie de cette étude est dévolue à l'étude du murus gallicus de Sermuz (Ph. Curdy) et à la comparaison des divers modes constructifs mis en oeuvre pour les fortifications de la région des Trois-Lacs. La partie conclusive récapitule de manière chronologique l'évolution des occupations à Yverdon-les-Bains depuis l'âge du Bronze jusqu'au haut Moyen Âge et propose d'intégrer les nouveaux résultats dans une perspective historique. Diverses hypothèses évoquent les raisons qui conduirent les Yverdonnois à se retrancher vers 80 av. J.-C. et les relations qu'ils entretenaient avec le site voisin de Sermuz. Pour terminer, la fonction de ce dernier est discutée dans ce cadre, notamment l'hypothèse d'une occupation du territoire helvète par des troupes romaines antérieure à l'Alpenfeldzug .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La précarité définit ce dont l'avenir, la durée ou la solidité ne sont pas assurés. Elle se développe notamment lorsque le niveau socio-économique est défavorable. Elle se définit par rapport à la communauté et peut être matérielle ou relationnelle. Le rapport entre précarité et santé peut se comprendre sous l'angle des déterminants sociaux de la santé, énoncés en 2004 par l'Organisation Mondiale de la Santé (OMS) : les conditions et les habitudes de vie influencent l'état de santé. Ayant un large accès à la population, les médecins de premier recours (MPR) sont des témoins privilégiés de la précarité et des inégalités sociales. La littérature définit la mission des MPR, mais il est essentiel de connaître leurs points de vue sur la question de la précarité, dans la réalité pratique. Méthode Ce travail de recherche a débuté par une revue approfondie de la littérature concernant les problématiques psychosociales en médecine. Une approche qualitative était ensuite nécessaire, sous forme d'entrevues semidirigées avec cinq différents médecins de la région lausannoise, afin de réaliser un questionnaire à soumettre à 47 autres médecins de premier recours, dans l'ensemble de la Suisse Romande, après validation par la commission cantonale vaudoise d'éthique. Résultats Cette enquête met en évidence l'existence et l'importance de la problématique de la précarité au sein du système de santé en Suisse Romande. Difficile à cerner, complexe et multifactorielle, certains ont tenté de la définir mais chacun l'apprécie différemment selon son vécu et sa sensibilité. Hormis ceux qui renoncent aux soins ou qui recourent aux urgences en dernier recours, la population qui consulte les MPR comporte entre 10 et 20% de patients précaires, proportion en augmentation ces dernières années et dépendant de la localisation. Les MPR détectent la précarité grâce à l'anamnèse psychosociale et certains marqueurs extérieurs. Leurs points de vue sont au coeur de notre question initiale. Pour eux, c'est leur rôle de détecter et prendre en charge, du moins partiellement, la précarité. Ils réfèrent ensuite souvent les patients vers d'autres structures ou corps de métiers mieux spécialisés. Ils ressentent, selon les situations, de la frustration, du surmenage, de l'impuissance mais aussi de la satisfaction personnelle dans ce type de prise en charge. La précarité complique souvent la prise en charge médicale : elle influence la survenue ou l'évolution du problème de santé, augmente le temps de consultation pour les patients précaires, induit une tendance chez les MPR à adapter le traitement ou réaliser moins d'investigations complémentaires en raison des difficultés économiques des patients et entraîne souvent des factures impayées. Les pathologies ou problèmes de santé les plus fréquemment rencontrés dans ces populations sont les troubles dépressifs, les addictions, les douleurs chroniques et le syndrome métabolique. Enfin, au delà du simple constat, les MPR expriment certains besoins pour mieux faire face à la précarité : ils souhaiteraient entre autres un carnet d'adresses utiles, un score mesurant la précarité et une formation continue à ce sujet. Conclusion La précarité est un sujet d'actualité et peut notamment influencer l'état de santé des populations, et inversement. Les MPR sont des témoins essentiels de cette problématique et la clé de sa détection, de par leur accès à une large population. Connaître leurs points de vue paraît donc essentiel si l'on souhaite imaginer des interventions visant à réduire les inégalités en matière de santé, pour une meilleure équité des soins. Entre ce qu'ils ressentent et les problèmes concrets d'organisation des consultations de patients précaires, le risque est un certain renoncement aux soins de la part des médecins, qui accentuerait celui des patients déjà existant. Finalement, la pénurie grandissante des MPR nécessite également de mieux comprendre leur mission et leurs conditions de travail, afin d'aider à redéfinir l'avenir du métier, pour continuer à exister et détecter ces situations à prendre en charge, visant à restaurer une santé solide et équilibrée, physique, mentale et sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection des données est un élément essentiel d'un Etat de droit et une société démocratique, car elle accorde à chaque individu le droit de disposer de ce qui fait partie de sa sphère privée. Actuellement en Suisse, la loi fédérale sur la protection des données (LPD) est en vigueur depuis 1993. En 2010, l'Office fédéral de la justice a supervisé une évaluation de son efficacité : il en résulte que cette dernière a été prouvée, mais tendra à diminuer fortement dans les années à suivre. Pour causes principales : l'évolution des technologies, caractérisée notamment par le développement des moyens de traitement de données toujours plus variés et conséquents, et un manque d'informations des individus par rapport à la protection des données en générale et à leurs droits. Suite à l'évaluation, cinq objectifs de révision ont été formulés par le Conseil fédéral, dont celui d'intégrer la privacy by design ou « protection de la vie privée dès la conception » dans la loi. Ce concept, qui est également repris dans les travaux européens en cours, est développé à l'origine par l'Information and Privacy Commissionner de l'Ontario (Canada), Ann Cavoukian. Le principe général de la privacy by design est que la protection de la vie privée doit être incluse dans les systèmes traitant les données lors de leur conception. Souvent évoquée comme une solution idéale, répondant au problème de l'inadéquation de la loi par la logique de prévention qu'elle promeut, la privacy by design demeure toutefois un souhait dont l'application n'est que peu analysée. Ce travail cherche justement à répondre à la question de la manière de la mettre en oeuvre dans la législation suisse. Se basant sur les textes et la doctrine juridiques et une littérature dans les domaines de l'économie, l'informatique, la politique et la sociologie des données personnelles, il propose tout d'abord une revue générale des principes et définitions des concepts-clés de la protection des données en Suisse et dans le cadre international. Puis, il propose deux possibilités d'intégration de la privacy by design : la première est une solution privée non contraignante qui consiste à promouvoir le concept et faire en sorte que les responsables de traitement décident par eux-mêmes d'intégrer la privacy by design dans leurs projets ; ce procédé est possible grâce au renforcement du processus de certification déjà en cours. La deuxième option est une solution contraignante visant à intégrer le principe directement dans la loi et de prendre les mesures pour le rendre effectif ; ce travail montre que le développement de la figure du conseiller à la protection des données permet d'atteindre cet objectif. Enfin, des considérations générales sur l'application du principe sont abordées, telles que l'influence des développements en cours dans l'Union européenne sur la Suisse par rapport à la protection des données et la limite posée par le principe de territorialité.