246 resultados para Structure conceptuelle des situations


Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUME L'Institut de Géophysique de l'Université de Lausanne a développé au cours de ces dernières années un système d'acquisition de sismique réflexion multitrace à haute résolution 2D et 3D. L'objectif de cette thèse était de poursuivre ce développement tout améliorant les connaissances de la géologie sous le lac Léman, en étudiant en particulier la configuration des grands accidents sous-lacustres dans la Molasse (Tertiaire) qui forme l'essentiel du substratum des formations quaternaires. En configuration 2D, notre système permet d'acquérir des profils sismiques avec une distance inter-CDP de 1,25 m. La couverture varie entre 6 et 18 selon le nombre de traces et la distance inter-tir. Le canon à air (15/15 eu. in.), offre une résolution verticale de 1,25 ni et une pénétration maximale de 300 m sous le fond de l'eau. Nous avons acquis au total plus de 400 km de sections 2D dans le Grand Lac et le Haut Lac entre octobre 2000 et juillet 2004. Une campagne de sismique 3D a fourni des données au large d'Evian sur une surface de 442,5 m sur 1450 m, soit 0,64 km2. La navigation ainsi que le positionnement des hydrophones et de la source ont été réalisés avec des GPS différentiels. Nous avons utilisé un traitement sismique conventionnel, sans appliquer d'AGC et en utilisant une migration post-stack. L'interprétation du substratum antéquaternaire est basée sur l'identification des sismofaciès, sur leurs relations avec les unités géologiques adjacentes au lac, ainsi que sur quelques données de forages. Nous obtenons ainsi une carte des unités géologiques dans le Grand Lac. Nous précisons la position du chevauchement subalpin entre la ville de Lausanne, sur la rive nord, et le bassin de Sciez, sur la rive sud. Dans la Molasse de Plateau, nous avons identifié les décrochements de Pontarlier et de St. Cergue ainsi que plusieurs failles non reconnues jusqu'ici. Nous avons cartographié les accidents qui affectent la Molasse subalpine ainsi que le plan de chevauchement du flysch sur la Molasse près de la rive sud du lac. Une nouvelle carte tectonique de la région lémanique a ainsi pu être dressée. L'analyse du substratum ne montre pas de failles suggérant une origine tectonique de la cuvette lémanique. Par contre, nous suggérons que la forme du creusement glaciaire, donc de la forme du lac Léman, a été influencée par la présence de failles dans le substratum antéquaternaire. L'analyse des sédiments quaternaires nous a permis de tracer des cartes des différentes interfaces ou unités qui les composent. La carte du toit du substratum antéquaternaire montre la présence de chenaux d'origine glaciaire dont la profondeur maximale atteint la cote -200 ni. Leur pente est dirigée vers le nord-est, à l'inverse du sens d'écoulement actuel des eaux. Nous expliquons cette observation par l'existence de circulations sous-glaciaires d'eau artésienne. Les sédiments glaciaires dont l'épaisseur maximale atteint 150 ni au centre du lac ont enregistré les différentes récurrences glaciaires. Dans la zone d'Evian, nous mettons en évidence la présence de lentilles de sédiments glaciolacustres perchées sur le flanc de la cuvette lémanique. Nous avons corrélé ces unités avec des données de forage et concluons qu'il s'agit du complexe inférieur de la pile sédimentaire d'Evian. Celui-ci, âgé de plus de 30 000 ans, serait un dépôt de Kame associé à un lac périglaciaire. La sismique réflexion 3D permet de préciser l'orientation de l'alimentation en matériel détritique de l'unité. La finesse des images obtenues nous permet également d'établir quels types d'érosion ont affecté certaines unités. Les sédiments lacustres, dont l'épaisseur maximale imagée atteint plus de 225 m et sans doute 400 ni sous le delta du Rhône, indiquent plusieurs mécanismes de dépôts. A la base, une mégaturbidite, épaisse d'une trentaine de mètres en moyenne, s'étend entre l'embouchure de la Dranse et le delta du Rhône. Au-dessus, la décantation des particules en suspension d'origine biologique et détritique fournit l'essentiel des sédiments. Dans la partie orientale du lac, les apports détritiques du Rhône forment un delta qui prograde vers l'ouest en s'imbriquant avec les sédiments déposés par décantation. La structure superficielle du delta a brutalement évolué, probablement à la suite de l'évènement catastrophique du Tauredunum (563 A.D.). Sa trace probable se marque par la présence d'une surface érosive que nous avons cartographiée. Le delta a ensuite changé de géométrie, avec notamment un déplacement des chenaux sous-lacustres. Sur l'ensemble de nos sections sismiques, nous n'observons aucune faille dans les sédiments quaternaires qui attesterait d'une tectonique postglaciaire du substratum. ABSTRACT During the last few years the institute of Geophysics of the University of Lausanne cleveloped a 2D and 3D high-resolution multichannel seismic reflection acquisition system. The objective of the present work was to carry on this development white improving our knowledge of the geology under Lake Geneva, in particular by studying the configuration of the large accidents affecting the Tertiary Molasse that makes up the basement of most Quaternary deposits. In its 2D configuration, our system makes it possible to acquire seismic profiles with a CDP interval of 1.25 m. The fold varies from 6 to 18 depending on the number of traces and the shooting interval. Our air gun (15/15 cu. in.) provides a vertical resolution of 1.25 m and a maximum penetration depth of approximately 300 m under water bottom. We acquired more than 400 km of 2D sections in the Grand Lac and the Haut Lac between October 2000 and July 2004. A 3D seismic survey off the city of Evian provided data on a surface of 442.5 m x 1450 m (0.64 km2). Ship's navigation as well as hydrophone- and source positioning were carried out with differential GPS. The seismic data were processed following a conventional sequence without .applying AGC and using post-stack migration. The interpretation of the pre-Quaternary substratum is based on sismofacies, on their relationships with terrestrial geological units and on some borehole data. We thus obtained a map of the geological units in the Grand Lac. We defined the location of the subalpine thrust from Lausanne, on the north shore, to the Sciez Basin, on the south shore. Within the Molasse de Plateau, we identified the already know Pontarlier and St Cergue transforms Fault as well as faults. We mapped faults that affect subalpine Molasse as well as the thrust fault plane between alpine flysch and Molasse near the lake's south shore. A new tectonic map of the Lake Geneva region could thus be drawn up. The substratum does not show faults indicating a tectonic origin for the Lake Geneva Basin. However, we suggest that the orientation of glacial erosion, and thus the shape of Lake Geneva, vas influenced by the presence of faults in the pre-Quaternary basement. The analysis of Quaternary sediments enabled us to draw up maps of various discontinuities or internal units. The top pre-Quaternary basement map shows channels of glacial origin, the deepest of them reaching an altitude of 200 m a.s.l. The channel's slopes are directed to the North-East, in opposite direction of the present water flow. We explain this observation by the presence of artesian subglacial water circulation. Glacial sediments, the maximum thickness of which reaches 150 m in the central part of the lake, record several glacial recurrences. In the Evian area, we found lenses of glacio-lacustrine sediments set high up on the flank of the Lake Geneva Bassin. We correlated these units with on-land borehole data and concluded that they represent the lower complex of the Evian sedimentary pile. The lower complex is aider than 30 000 years, and it could be a Kame deposit associated with a periglacial lake. Our 3D seismic reflexion survey enables us to specify the supply direction of detrital material in this unit. With detailed seismic images we established how some units were affected by different erosion types. The lacustrine sediments we imaged in Lake Geneva are thicker than 225 m and 400 m or more Linder the Rhone Delta. They indicate several depositional mechanisms. Their base is a major turbidite, thirty meters thick on average, that spreads between the Dranse mouth and the Rhone delta. Above this unit, settling of suspended biological and detrital particles provides most of the sediments. In the eastern part of the lake, detrital contribution from the Rhone builds a delta that progrades to the west and imbricates with the settling sediments. The shallow structure of the Rhone delta abruptly evolved, probably after the catastrophic Tauredunum event (563 A.D.). It probably coincides with an erosive surface that we mapped. As a result, the delta geometry changed, in particular associated with a displacement of water bottom channels. In all our seismic sections, we do not observe fault in the Quaternary sediments that would attest postglacial tectonic activity in the basement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Psychogenic non epileptic seizures (PNES) look like epilepsy, but are not accompanied by the electrophysiological alterations found in epilepsy. The diagnosis requires a complex process at the interface between neurology and psychiatry. Diagnostic restitution to the patient and treatment of the condition should be a collaboration between neurologist and psychiatrist including as much as possible a general practitioner. Vulnerability and triggering psycho-social factors, as well as frequent psychiatric co morbidity implicate that psychiatric-psychological care is needed in a majority of situations, however this cannot be done without a strong "somatic back-up" with rapid access to somatic facility for advice and care when needed. The neurological presentation of the disease, with psychiatric causes underlying the condition, bear the risk for the patient that neither neurological nor psychiatric care is offered. Current knowledge about the condition is still scarce, but the field is progressively enriched by studies with stronger methodologies. Recent neuroimaging studies open fascinating avenues on our understanding of the interplay between emotional regulation, representation of the self, and dissociative symptoms. These new avenues help our understanding of these disorders which challenge classical frontiers between neurology and psychiatry. In this paper we try to formulate a framework for the care of patient with dissociative disorders including NEPS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent rapport rend compte d'une partie du travail déjà réalisé sur l'inventaire des données disponibles dans la littérature scientifique sur l'exposition des travailleurs agricoles aux pesticides en France. La possibilité de tirer parti de la littérature produite sur d'autres pays que la France est également explorée dans deux études de cas (réentrée en arboriculture et insecticides en élevages ovins). Les résultats seront exposés par ailleurs car le recueil et l'analyse de données produites par ces études sur les situations d'exposition des personnes travaillant en milieu agricole dans des pays étrangers posent des problèmes méthodologiques spécifiques si on veut pouvoir en tirer des enseignements pour la France. En matière de revue de la littérature scientifique, l'idéal de l'exhaustivité est généralement impossible à atteindre pour des raisons qui tiennent à la croissance exponentielle du nombre de publications scientifiques, à la pluralité des langues de publication, à la fragmentation et à l'accessibilité limitée des bases documentaires ... Nous pensons avoir recueilli tous les documents accessibles, mais peut-être certains nous ont-il échappé. C'est pourquoi le présent rapport est à la fois un exposé de résultats et un appel à contributions complémentaires. Il explicite les détails de la démarche adoptée (critères de sélection des articles, traçabilité des étapes de l'analyse ...) sous une forme qui permet à chacun d'avoir prise sur les résultats mais aussi de proposer des compléments au recensement réalisé. Il vise à être la première brique d'une base de connaissances partagée qui permette de capitaliser les données disponibles et qui puisse être mise à jour régulièrement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Soils on gypsum are well known in dry climates, but were very little described in temperate climate, and never in Switzerland. This study aims to describe soils affected by gypsum in temperate climate and to understand their pedogenesis using standard laboratory analyzes performed on ten Swiss soils located on gypsum outcrops. In parallel, phytosociological relevés described the vegetation encountered in gypsiferous grounds. Gypsification process (secondary gypsum enrichment by precipitation) was observed in all soils. It was particularly important in regions where potential evapotranspiration exceed strongly precipitations in summer (central Valais, Chablais under influence of warm wind). Gypsum contents were regularly measured above 20% in deep horizons, and exceeded locally 70%, building a white, indurate horizon. However, the absence of such a gypsic horizon in the top soil hindered the use of gypsosol (according to the Référentiel pédologique, BAIZE & GIRARD 2009), the typical name of soils affected by gypsum, but restricted to dry regions. As all soils had a high content of magnesium carbonates, they were logically classified in the group of DOLOMITOSOLS. However, according to the World Reference Base for Soil Resources (IUSS 2014), five soils can be classified among the Gypsisols, criteria being here less restricting. These soils are characterized by a coarse texture and a particulate brittle structure making a filtering substrate. They allow water to flow easily taking nutrients. They are not retained by clay, which does generally not exceed 1% of the fine material. The saturation of calcium blocks the breakdown of organic matter. Moreover, these soils are often rejuvenated by erosion caused by the rough relief due to gypsum (landslides, sinkholes, cliffs and slopes). Hence, the vegetation is mainly characterized by calcareous and drought tolerant species, with mostly xerothermophilic beech (Cephalanthero-Fagenion) and pine forests (Erico-Pinion sylvestris) in lowlands, or subalpine heathlands (Ericion) and dry calcareous grasslands (Caricion firmae) in higher elevations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Formica lugubris apparaît comme une espèce hautement polycalique dans le Jura suisse et forme des super-colonies. La super-colonie étudiée comprend environ 1200 nids répartis sur 70 hectares. L'étude détaillée de 12 hectares permet de définir 4 types de nids:les nids principaux, secondaires, saisonniers etcommençants, ainsi que trois sortes de voies de communication:les routes de liaisons permanentes visibles sur le terrain, les pistes de liaisons non-permanentes non marquées sur le terrain etles chemins d'approvisionnement permanents marqués dans le terrain. L'auteur présente la phénologie deF. lugubris qui est fortement influencée par le climat de cette région avec une période moyenne d'activité de 150 jours. D'autre part, les premières données sur le régime alimentaire (analyse des proies récoltées par les fourmis) diffèrent considérablement des données connues pour les autres espèces du groupe rufa, notamment par le nombre élevé de pucerons, d'où l'idée d'une régulation des populations de pucerons par les fourmis. Enfin l'auteur aborde le problème de la faible densité de l'avifaune en relation avec les fourmis. Il semble que le climat et les ressources alimentaires conduisent les fourmis àune nouvelle stratégie écologique qui s'exprimerait par la création de super-colonies. Formica lugubris appears as a highly polycalic species in the Swiss Jura and creates super-colonies. The super-colony studied possesses about 1200 nests on about 70 hectares. The detailed study of 12 hectares allows the discrimination of 4 types of nests:the main nests, the secondary nests, the seasonal nests andthe starting nests, as well as 3 types of ant tracks:the constant connection routes visible on the soil, thenon-constant connection tracks not marked on the soil andthe constant foraging routes marked on the soil. The author presents the phenology ofF. lugubris who is strongly influenced by the climate of the region with a mean activity period of about 150 days. On the other hand, the first results about diet (analysis of the preys collected by the ants) differ considerably from the wellknown data for the others species of the rufa group, especially by the high number of aphids, which may be inferred the notion of a regulation of aphids population by the ants. Finally the author approaches the problem of the low density of avifauna in relation to the ants. It seems that climate and food resources lead the ants toa new ecological strategy which would express itself by the creation of super-colonies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Statins are a cornerstone of cardiovascular prevention. Their utilization is mostly well tolerated and safe: the commonly reported hepatic adverse effect is an asymptomatic, reversible and dose-related increase in liver enzyme levels occurring in case of risks factors. Statins do not worsen liver function in most patients with chronic liver diseases, including nonalcoholic fatty liver disease and hepatitis C, and might be used cautionsly. However, decompensated cirrhosis and acute liver failure are contraindications for statins. Routine hepatic biochemical test monitoring is questioned and might be performed in following situations: chronic liver diseases, alcohol consumption, drug interactions. Other causes should be screened and treatment be temporarily withheld in case of an ALT elevation > 3 times the upper limit of the norm.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work consists of three essays investigating the ability of structural macroeconomic models to price zero coupon U.S. government bonds. 1. A small scale 3 factor DSGE model implying constant term premium is able to provide reasonable a fit for the term structure only at the expense of the persistence parameters of the structural shocks. The test of the structural model against one that has constant but unrestricted prices of risk parameters shows that the exogenous prices of risk-model is only weakly preferred. We provide an MLE based variance-covariance matrix of the Metropolis Proposal Density that improves convergence speeds in MCMC chains. 2. Affine in observable macro-variables, prices of risk specification is excessively flexible and provides term-structure fit without significantly altering the structural parameters. The exogenous component of the SDF is separating the macro part of the model from the term structure and the good term structure fit has as a driving force an extremely volatile SDF and an implied average short rate that is inexplicable. We conclude that the no arbitrage restrictions do not suffice to temper the SDF, thus there is need for more restrictions. We introduce a penalty-function methodology that proves useful in showing that affine prices of risk specifications are able to reconcile stable macro-dynamics with good term structure fit and a plausible SDF. 3. The level factor is reproduced most importantly by the preference shock to which it is strongly and positively related but technology and monetary shocks, with negative loadings, are also contributing to its replication. The slope factor is only related to the monetary policy shocks and it is poorly explained. We find that there are gains in in- and out-of-sample forecast of consumption and inflation if term structure information is used in a time varying hybrid prices of risk setting. In-sample yield forecast are better in models with non-stationary shocks for the period 1982-1988. After this period, time varying market price of risk models provide better in-sample forecasts. For the period 2005-2008, out of sample forecast of consumption and inflation are better if term structure information is incorporated in the DSGE model but yields are better forecasted by a pure macro DSGE model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Subjective response to neuroleptics is essential to long term observance of treatment and quality of life of patients. Numerous factors (pharmacological, relational and psychopathological) are responsible of this subjective response. Objectives of this study are: (a) to examine psychometric features of the french version of the Drug Attitude Inventory (DAI-30) [13] and (b) to explore pharmacological, relational and psychopathological factors related to this subjective response. Subjects and methods: 78 subjects were rated (self rated response rate 61% (n = 48)) for (a) subjective response to neuroleptics, (b) compliance, (c) therapeutic alliance, (d) symptoms (e) severity of disorder. RESULTS: Factor analysis yielded 2 main clinically relevant factors, similar to the original version: (I) global subjective response and (II) specific subjective response. Internal consistency is high. Correspondance analysis showed two important dimensions in the treatment of schizophrenic patients: (I) Recovery--aggravation, (II) Therapeutic ambition--positive or negative symptoms. CONCLUSION: French version of DAI-30 seems to have a similar structure and psychometric features as the original version. It shows concordance with the degree of compliance. Pharmacological factors are not the only factors implicated in subjective response, but are still to be identified. Limitations of our study are: (a) nonhomogenous indication for treatment, (b) small rate and degree of non compliance in our sample. Relationships between therapeutic ambition, type of symptoms and treatment outcome should be further studied.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

SUMMARY : The evolution of animal societies, where some individuals forego their own reproductive opportunities to help others to reproduce, poses an evolutionary paradox that can be traced back to Darwin. Altruism may evolve through kin selection when the donor and recipient of altruistic acts are related to each other. In social insects, workers are generally highly related to the brood they rear when colonies are headed by a single queen. Yet some ants have an extraordinary social organization, called unicoloniality, whereby individuals from separate nests mix freely to form large supercolonies, which in some cases extend over hundreds of km. These supercolonies are characterised by a high number of queens (polygyny) and an absence of clear colony boundaries. This type of social organization represents an evolutionary paradox because relatedness between nestmates is effectively zero. In such conditions, kin selection cannot account for the evolution of reproductive altruism. Moreover, unicoloniality is thought to be unstable over time, because workers that can no longer aid close relatives may evolve more selfish strategies. The Argentine ant (Linepithema humile) is a highly invasive species listed among the hundred world's worst invaders by the UICN. Native from South America, L. humile has been accidentally introduced throughout the world. Native populations have been described as noninvasive with a family-based organization. In contrast, within its introduction range, they form unicolonial supercolonies that contain numerous nests without intraspecific aggression. The development of such unicolonial populations has been explained as a direct consequence of the ant's introduction into a new habitat, favouring a transition from family-based to open colonies. To determine if the social structure of the Argentine ant is fundamentally different between the native and the introduced range, we studied genetically and behaviourally native and introduced populations of L. humile over different geographic scales. Our results clearly indicated that there are no fundamental differences in the social organisation of the Argentine ant between the two ranges. Our investigations revealed that, contrary to previous claims, native populations have a unicolonial social organisation very similar to that observed in the introduced range. Consequently, the unicolonial social structure of the Argentine ant does not stem from a shift in social organization associated with introduction into new habitats but evolved in the native range and is likely a stable, evolutionarily ancient adaptation to the local environment. Our study on native populations of L. humile also gave important insight in the comprehension of the evolution of unicoloniality in the Argentine ant. Native supercolonies are relatively small compared to introduced ones and may co-habit in a same population. These supercolonies are genetically highly differentiated leading to a significant relatedness among nestmate workers when the different supercolonies of a population are taken as a reference population. This provides the necessary conditions for loin selection to operate. Furthermore, we examined a native population over time, which revealed a high supercolony extinction rate. If more competitive supercolonies are more likely to survive or replace other supercolonies, a subtle dynamical process between the spread of selfish traits within supercolony and the selective elimination of supercolonies with such traits may allow a stable equilibrium and the persistence of unicoloniality over time. Finally, a worldwide study of the Argentine ant showed that the introduced supercolonies originate from numerous independent introduction events. In conclusion, the success of the Argentine ant does not stem from a shift in social organization associated with its introduction into new habitats, but is most probably explained by the intrinsic characteristics developed in its native range. RESUME : L'altruisme de reproduction où certains individus renoncent à leur propre reproduction pour aider d'autres individus à se reproduire constitue l'un des plus grand paradoxe de l'évolution. En effet, comment expliquer l'évolution de comportements qui tendent à augmenter les chances de survie et le succès reproductif d'autres individus, alors que ces actes diminuent l'aptitude de leurs auteurs ? La théorie de la sélection de parentèle permet de résoudre ce problème. Cette théorie stipule qu'en aidant de proches parents à se reproduire, les individus peuvent promouvoir indirectement la transmission de copies de leurs propres gènes à la génération suivante. Chez les insectes sociaux, l'altruisme des ouvrières s'explique par la théorie de sélection de parentèle lorsque les colonies sont monogynes (constituées d'une seule reine) puisque les ouvrières sont fortement apparentées aux couvains dont elles s'occupent. Par contre, les espèces dites unicoloniales, dont les colonies forment des réseaux de nids appelés supercolonies, représentent toujours un paradoxe pour les théories de l'évolution puisque l'apparentement entre les différents individus d'un nid est nulle. De plus, l'unicolonialité ne devrait pas être stable sur le long terme parce que les ouvrières qui ne s'occupent plus de leur apparentés devraient développer des stratégies plus égoïstes au cours du temps. La fourmi d'Argentine (Linepithema humile) est une espèce invasive ayant un impact considérable sur son environnement. Originaire d'Amérique du Sud, elle a été introduite dans pratiquement toutes les régions du monde dont le climat est de type méditerranéen. Son incroyable succès invasif s'explique par sa structure sociale unicoloniale observée dans chacun des pays où elle a été introduite. Par contre, les rares études effectuées en Argentine ont suggéré que la fourmi d'Argentine n'était pas unicoloniale dans son aire native. L'unicolonialité chez la fourmi d'Argentine était donc considéré comme une conséquence de son introduction dans de nouveaux environnements. Durant cette thèse, nous avons vérifié si la structure sociale de cette espèce différait fondamentalement entre l'aire native et introduite. Pour cela, nous avons étudié, à différentes échelles géographiques, des populations introduites et argentines avec une approche génétique et comportementale. L'ensemble de nos résultats montrent que les différences entre les deux structure sociales ne sont pas aussi importantes que ce que l'on imaginait. Les populations natives sont aussi constituées de réseaux de nids coopérants. La taille de ses supercolonies est toutefois bien moins importante en Argentine et il n'est pas rare de trouver plusieurs supercolonies cohabitantes dans une même population. Nous avons démontré que ces réseaux de nids étaient constitués d'individus qui sont plus apparentés entre eux qu'ils ne le sont avec les individus d'autres supercolonies, ainsi l'unicolonialité dans son aire d'origine ne représente pas un réel paradoxe pour les théories de l'évolution. Finalement nous avons étudié la même population en Argentine à six ans d'intervalle et avons constaté que les supercolonies avaient un taux de survie très faible ce qui pourrait expliquer la stabilité de l'unicolonialité au cours du temps. Si les supercolonies les plus compétitives survivent mieux que les supercolonies dans lesquelles apparaissent des traits égoïstes, on devrait alors observer une dynamique entre l'apparition de traits égoïstes et l'élimination des supercolonies dans lesquelles ces traits égoïstes évolueraient. Finalement, une étude mondiale nous a montré que les supercolonies étaient originaires de nombreux événements d'introductions indépendants. En conclusion, le succès invasif de la fourmi d'Argentine n'est donc pas dû à un changement de comportement associé à son introduction mais est lié aux caractéristiques qu'elle a développées en Argentine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'article rend compte des résultats d'une recherche comparative sur les processus de féminisation des professions juridiques en France et en Grande-Bretagne. Les auteurs attirent l'attention sur l'importance du rôle du « levier des diplômes » sur la féminisation plus précoce et plus soutenue de certaines professions juridiques en France par rapport à la Grande-Bretagne. Les auteurs situent ce phénomène de féminisation dans le contexte des transformations structurelles qui touchent ces professions depuis le milieu des années 1970. Prenant appui sur les données portant sur l'évolution des carrières des avocats français et des solicitors britanniques en fonction du sexe et de l'ancienneté, elles attirent l'attention sur la manière dont ces transformations structurelles s'articulent avec le phénomène de féminisation et insistent sur la nécessité d'une analyse approfondie des trajectoires professionnelles sexuées dans ce contexte de grands bouleversements structurels. The paper presents the results of a comparative research project on the feminisation of the legal professions in Britain and France. The authors stress the importance of the role of the « qualifications lever » on the earlier and more extensive character of the feminisation of certain legal professions in France as compared to Britain. An attempt is made to place feminisation in the general context of structural change taking place within the legal profesions since the middle of the 1970's. On the basis of original data on the career structure of French avocats and British solicitors by gender and length of service, the authors stress the manner in which such structural changes interrelate with the process of professional féminisation and insist on the need to adopt in-depth analysis of gendered professional career patterns within this context of profound structural transformation

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent rapport intermédiaire concerne l'impact de la suite de la campagne STOP-SIDA et des autres aspects de la prévention (actions multiplicatrices, compléments à la campagne STOP-SIDA), à partir du mois d'octobre 1987. Il fait référence entre autres à la phase III de STOP-SIDA: répétition des messages des phases I et II (usage du préservatif, non-échange de matériel d'injection, fidélité) et situations sans risque de contamination. Les données présentées sont le résultat d'une synthèse préliminaire basée sur des études en cours de réalisation, elles ne peuvent donc être interprétées qu'en termes de premières tendances ou impressions, qui devront encore être confirmées ou infirmées par l'achèvement des études. Elles permettent cependant de formuler quelques conclusions et recommandations. [Auteurs, p. 5-6]