1000 resultados para analyse des données
Resumo:
The public primary school system in the State of Geneva, Switzerland, is characterized by centrally evaluated pupil performance measured with the use of standardized tests. As a result, consistent data are collected among the system. The 2010-2011 dataset is used to develop a two-stage data envelopment analysis (DEA) of school efficiency. In the first stage, DEA is employed to calculate an individual efficiency score for each school. It shows that, on average, each school could reduce its inputs by 7% whilst maintaining the same quality of pupil performance. The cause of inefficiency lies in perfectible management. In the second stage, efficiency is regressed on school characteristics and environmental variables;external factors outside of the control of headteachers. The model is tested for multicollinearity, heteroskedasticity and endogeneity. Four variables are identified as statistically significant. School efficiency is negatively influenced by (1) the provision of special education, (2) the proportion of disadvantaged pupils enrolled at the school and (3) operations being held on multiple sites, but positively influenced by school size (captured by the number of pupils). The proportion of allophone pupils; schools located in urban areas and the provision of reception classes for immigrant pupils are not significant. Although the significant variables influencing school efficiency are outside of the control of headteachers, it is still possible to either boost the positive impact or curb the negative impact. Dans le canton de Genève (Suisse), les écoles publiques primaires sont caractérisées par un financement assuré par les collectivités publiques (canton et communes) et par une évaluation des élèves à l'aide d'épreuves standardisées à trois moments distincts de leur scolarité. Cela permet de réunir des informations statistiques consistantes. La base de données de l'année 2010-2011 est utilisée dans une analyse en deux étapes de l'efficience des écoles. Dans une première étape, la méthode d'analyse des données par enveloppement (DEA) est utilisée pour calculer un score d'efficience pour chaque école. Cette analyse démontre que l'efficience moyenne des écoles s'élève à 93%. Chaque école pourrait, en moyenne, réduire ses ressources de 7% tout en conservant constants les résultats des élèves aux épreuves standardisées. La source de l'inefficience réside dans un management des écoles perfectible. Dans une seconde étape, les scores d'efficience sont régressés sur les caractéristiques des écoles et sur des variables environnementales. Ces variables ne sont pas sous le contrôle (ou l'influence) des directeurs d'école. Le modèle est testé pour la multicolinéartié, l'hétéroscédasticité et l'endogénéité. Quatre variables sont statistiquement significatives. L'efficience des écoles est influencée négativement par (1) le fait d'offrir un enseignement spécialisé en classe séparée, (2) la proporition d'élèves défavorisés et (3) le fait d'opérer sur plusieurs sites différents. L'efficience des écoles est influencée positivement par la taille de l'école, mesurée par le nombre d'élèves. La proporition d'élèves allophones, le fait d'être situé dans une zone urbaine et d'offrir des classes d'accueil pour les élèves immigrants constituent autant de variables non significatives. Le fait que les variables qui influencent l'efficience des écoles ne soient pas sous le contrôle des directeurs ne signifie pas qu'il faille céder au fatalisme. Différentes pistes sont proposées pour permettre soit de réduire l'impact négatif soit de tirer parti de l'impact positif des variables significatives.
Resumo:
Résumé Le cancer du sein est le cancer le plus commun chez les femmes et est responsable de presque 30% de tous les nouveaux cas de cancer en Europe. On estime le nombre de décès liés au cancer du sein en Europe est à plus de 130.000 par an. Ces chiffres expliquent l'impact social considérable de cette maladie. Les objectifs de cette thèse étaient: (1) d'identifier les prédispositions et les mécanismes biologiques responsables de l'établissement des sous-types spécifiques de cancer du sein; (2) les valider dans un modèle ín vivo "humain-dans-souris"; et (3) de développer des traitements spécifiques à chaque sous-type de cancer du sein identifiés. Le premier objectif a été atteint par l'intermédiaire de l'analyse des données d'expression de gènes des tumeurs, produite dans notre laboratoire. Les données obtenues par puces à ADN ont été produites à partir de 49 biopsies des tumeurs du sein provenant des patientes participant dans l'essai clinique EORTC 10994/BIG00-01. Les données étaient très riches en information et m'ont permis de valider des données précédentes des autres études d'expression des gènes dans des tumeurs du sein. De plus, cette analyse m'a permis d'identifier un nouveau sous-type biologique de cancer du sein. Dans la première partie de la thèse, je décris I identification des tumeurs apocrines du sein par l'analyse des puces à ADN et les implications potentielles de cette découverte pour les applications cliniques. Le deuxième objectif a été atteint par l'établissement d'un modèle de cancer du sein humain, basé sur des cellules épithéliales mammaires humaines primaires (HMECs) dérivées de réductions mammaires. J'ai choisi d'adapter un système de culture des cellules en suspension basé sur des mammosphères précédemment décrit et pat décidé d'exprimer des gènes en utilisant des lentivirus. Dans la deuxième partie de ma thèse je décris l'établissement d'un système de culture cellulaire qui permet la transformation quantitative des HMECs. Par la suite, j'ai établi un modèle de xénogreffe dans les souris immunodéficientes NOD/SCID, qui permet de modéliser la maladie humaine chez la souris. Dans la troisième partie de ma thèse je décris et je discute les résultats que j'ai obtenus en établissant un modèle estrogène-dépendant de cancer du sein par transformation quantitative des HMECs avec des gènes définis, identifiés par analyse de données d'expression des gènes dans le cancer du sein. Les cellules transformées dans notre modèle étaient estrogène-dépendantes pour la croissance, diploïdes et génétiquement normales même après la culture cellulaire in vitro prolongée. Les cellules formaient des tumeurs dans notre modèle de xénogreffe et constituaient des métastases péritonéales disséminées et du foie. Afin d'atteindre le troisième objectif de ma thèse, j'ai défini et examiné des stratégies de traitement qui permettent réduire les tumeurs et les métastases. J'ai produit un modèle de cancer du sein génétiquement défini et positif pour le récepteur de l'estrogène qui permet de modéliser le cancer du sein estrogène-dépendant humain chez la souris. Ce modèle permet l'étude des mécanismes impliqués dans la formation des tumeurs et des métastases. Abstract Breast cancer is the most common cancer in women and accounts for nearly 30% of all new cancer cases in Europe. The number of deaths from breast cancer in Europe is estimated to be over 130,000 each year, implying the social impact of the disease. The goals of this thesis were first, to identify biological features and mechanisms --responsible for the establishment of specific breast cancer subtypes, second to validate them in a human-in-mouse in vivo model and third to develop specific treatments for identified breast cancer subtypes. The first objective was achieved via the analysis of tumour gene expression data produced in our lab. The microarray data were generated from 49 breast tumour biopsies that were collected from patients enrolled in the clinical trial EORTC 10994/BIG00-01. The data set was very rich in information and allowed me to validate data of previous breast cancer gene expression studies and to identify biological features of a novel breast cancer subtype. In the first part of the thesis I focus on the identification of molecular apacrine breast tumours by microarray analysis and the potential imptìcation of this finding for the clinics. The second objective was attained by the production of a human breast cancer model system based on primary human mammary epithelial cells {HMECs) derived from reduction mammoplasties. I have chosen to adopt a previously described suspension culture system based on mammospheres and expressed selected target genes using lentiviral expression constructs. In the second part of my thesis I mainly focus on the establishment of a cell culture system allowing for quantitative transformation of HMECs. I then established a xenograft model in immunodeficient NOD/SCID mice, allowing to model human disease in a mouse. In the third part of my thesis I describe and discuss the results that I obtained while establishing an oestrogen-dependent model of breast cancer by quantitative transformation of HMECs with defined genes identified after breast cancer gene expression data analysis. The transformed cells in our model are oestrogen-dependent for growth; remain diploid and genetically normal even after prolonged cell culture in vitro. The cells farm tumours and form disseminated peritoneal and liver metastases in our xenograft model. Along the lines of the third objective of my thesis I defined and tested treatment schemes allowing reducing tumours and metastases. I have generated a genetically defined model of oestrogen receptor alpha positive human breast cancer that allows to model human oestrogen-dependent breast cancer in a mouse and enables the study of mechanisms involved in tumorigenesis and metastasis.
Resumo:
Agir efficacement contre les incendies volontaires répétitifs représente un défi de taille pour la société et la police. Nous proposons d'utiliser l'intelligence-led policing et le cycle du renseignement comme cadre à une approche permettant une gestion et un suivi global et systématique de ces événements. Mais avant de pouvoir lancer ce processus, un certain nombre de défis doit être surmonté tel que la nature non spécifique des données. Il sera alors possible de mettre en place un processus qui permettra de faire des analyses pour obtenir une vision des incendies, détecter des situations répétitives et des liens entre les événements mettant en évidence des séries. Le renseignement obtenu par l'analyse des données rassemblées peut ensuite être utilisé pour mettre en place des moyens complémentaires d'enquête ou pour prendre des mesures préventives ou répressives.
Resumo:
[Table des matières] 1. Thème. 2. Définitions. 3. Méthodes et données. 3.1. Recherche de littérature. 3.2. Récolte des données. 3.3. Données. 4. Analyse des données. 4.1. Situation générale. 4. 2. Constats valaisans. 4.3. Les taux de mortalité par suicide. 4. 4. Comparaisons des sources. 4.5. Comparaison des phénomènes. 4. 5. Tentatives de suicide. 5. Discussion. 5.1. Résultats principaux. 5.2. Force et faiblesse de l'étude. 5.3. Valeur de cette étude. 5.4. Questions ouvertes. 6. Recommandations. 7. Sites internet avec des informations intéressantes. 8. Annexes. 8.1. Etiologie du suicide. 8.2. Concept de prévention (conditions, types de prévention, niveaux des interventions préventives). 8.3. Programmes - Recommandations professionnelles - Recherche (Suisse, étranger, recherches). 8.4. Littérature.
Resumo:
Le football féminin est perçu comme un des principaux leviers de développement pour les fédérations sportives nationales et pour l'UEFA que ce soit en termes d'atteinte de nouveaux publics, de marketing et aujourd'hui de valeurs (synonyme d'un football plus « responsable »). Cette proximité entraîne des synergies que nous avons étudiées à partir d'un cadre d'analyse construit de manière ad hoc. Ce cadre s'appuie sur une approche par les stratégies d'acteurs en fonction du contexte national et local et de six domaines du fonctionnement interne des deux sections, masculine et féminine. La collecte des données s'est effectuée dans 14 grands clubs européens mixtes de neuf pays européens disposant de cultures très différentes en matière de football féminin. L'analyse des données permet d'observer trois types de modèles : totalement intégré, globalement intégré et partiellement intégré. Les résultats sont discutés aux regards des théories des ressources et des compétences stratégiques de la responsabilité sociale des organisations. Il est alors possible de poser des hypothèses de logiques de fonctionnement de ces clubs mixtes allant d'un continuum entre recherche de légitimation et exploitation d'un nouveau modèle stratégique et économique.
Resumo:
Les questions de mal-être au travail et de risques psychosociaux sont centrales dans le monde du travail actuel. L'ergonomie nous enseigne qu'une analyse des formes d'organisation du travail est nécessaire pour comprendre les origines des plaintes des travailleurs. Dans cette recherche, nous avons étudié une population spécifique, les employés du siège d'une organisation non gouvernementale humanitaire en Suisse (150 personnes environ). Partant du constat de l'expression de nombreuses plaintes de fatigue et de mal-être au travail par ces employés, nous avons cherché à objectiver ces plaintes et avons étudié les éléments d'organisation susceptibles d'y être liés.Dans le cadre d'une démarche inductive, nous avons utilisé conjointement des méthodes qualitatives (entretiens semi-directifs, observation non participante) et quantitatives (questionnaires) et avons appliqué le principe de triangulation méthodologique pour l'analyse des données.Trois thématiques relatives au mode de fonctionnement de l'organisation ont émergé des analyses : le fonctionnement dans l'urgence en permanence, la professionnalisation de l'organisation et le fort engagement des employés dans leur activité.L'organisation fonctionne selon une logique d'urgence en permanence. La nature de ses interventions, qui sont considérées de la plus haute importance, et la forte valorisation des activités « de terrain » conduisent à l'enfermement de l'activité dans la gestion des tâches urgentes, ce qui ne laisse pas de place à l'anticipation et à la planification. Ensuite, cette organisation a connu une forte croissance au cours des dernières décennies : d'une petite association, elle est devenue une véritable institution. La logique de fonctionnement institutionnelle n'est cependant pas venue remplacer totalement la logique associative, mais toutes deux cohabitent. L'organisation continue à demander à ses employés un engagement associatif et militant total mais applique parallèlement un management de type entrepreneurial, ce qui génère des messages paradoxaux pour les employés. Finalement, le fonctionnement de l'organisation dans son ensemble repose sur l'engagement de toute la chaîne des acteurs. Ceci est clairement intégré et repris par les employés du siège : ils relèvent que ce qu'ils font représente bien plus qu'un travail et qu'il est nécessaire de « tout donner », car les besoins sont immenses et la charge de travail énorme. Cependant, la limite entre engagement et surengagement conduisant à l'épuisement est très facilement franchie.Ces éléments participent à générer un environnement de travail potentiellement pathogène, où il est peu légitime pour l'employé de se préoccuper de sa propre santé, et où la charge de travail et le rythme ne lui laissent pas le temps de mettre en place des stratégies de préservation de sa santé. Ce mode de fonctionnement spécifique véhicule des messages paradoxaux et soumet les employés à des exigences contradictoires.
Resumo:
Axée dans un premier temps sur le formalisme et les méthodes, cette thèse est construite sur trois concepts formalisés: une table de contingence, une matrice de dissimilarités euclidiennes et une matrice d'échange. À partir de ces derniers, plusieurs méthodes d'Analyse des données ou d'apprentissage automatique sont exprimées et développées: l'analyse factorielle des correspondances (AFC), vue comme un cas particulier du multidimensional scaling; la classification supervisée, ou non, combinée aux transformations de Schoenberg; et les indices d'autocorrélation et d'autocorrélation croisée, adaptés à des analyses multivariées et permettant de considérer diverses familles de voisinages. Ces méthodes débouchent dans un second temps sur une pratique de l'analyse exploratoire de différentes données textuelles et musicales. Pour les données textuelles, on s'intéresse à la classification automatique en types de discours de propositions énoncées, en se basant sur les catégories morphosyntaxiques (CMS) qu'elles contiennent. Bien que le lien statistique entre les CMS et les types de discours soit confirmé, les résultats de la classification obtenus avec la méthode K- means, combinée à une transformation de Schoenberg, ainsi qu'avec une variante floue de l'algorithme K-means, sont plus difficiles à interpréter. On traite aussi de la classification supervisée multi-étiquette en actes de dialogue de tours de parole, en se basant à nouveau sur les CMS qu'ils contiennent, mais aussi sur les lemmes et le sens des verbes. Les résultats obtenus par l'intermédiaire de l'analyse discriminante combinée à une transformation de Schoenberg sont prometteurs. Finalement, on examine l'autocorrélation textuelle, sous l'angle des similarités entre diverses positions d'un texte, pensé comme une séquence d'unités. En particulier, le phénomène d'alternance de la longueur des mots dans un texte est observé pour des voisinages d'empan variable. On étudie aussi les similarités en fonction de l'apparition, ou non, de certaines parties du discours, ainsi que les similarités sémantiques des diverses positions d'un texte. Concernant les données musicales, on propose une représentation d'une partition musicale sous forme d'une table de contingence. On commence par utiliser l'AFC et l'indice d'autocorrélation pour découvrir les structures existant dans chaque partition. Ensuite, on opère le même type d'approche sur les différentes voix d'une partition, grâce à l'analyse des correspondances multiples, dans une variante floue, et à l'indice d'autocorrélation croisée. Qu'il s'agisse de la partition complète ou des différentes voix qu'elle contient, des structures répétées sont effectivement détectées, à condition qu'elles ne soient pas transposées. Finalement, on propose de classer automatiquement vingt partitions de quatre compositeurs différents, chacune représentée par une table de contingence, par l'intermédiaire d'un indice mesurant la similarité de deux configurations. Les résultats ainsi obtenus permettent de regrouper avec succès la plupart des oeuvres selon leur compositeur.
Resumo:
La syncope est un symptôme clinique fréquent mais son origine demeure indéterminée jusque dans 60% des cas de patients admis dans un centre d'urgences. Le développement de consultations spécialisées de la syncope a considérablement modifié l'évaluation des patients avec une syncope inexpliquée en les orientant vers des stratégies d'investigations non-invasives, tels que le tilt-test, le massage du sinus carotidien et le test ^hyperventilation. Cependant, il existe peu de données dans 10 la littérature concernant dans la performance diagnostique réelle de ces tests fonctionnels.Notre travail de recherche porte sur l'analyse des données des 939 premiers patients adressés à la consultation ambulatoire de la syncope du CHUV pour l'investigation d'une syncope d'origine indéterminée. L'objectif de notre travail de thèse est 1) d'évaluer la performance diagnostique de l'algorithme de prise en charge standardisé et de ses différents tests pratiqués dans le cadre de notre 15 consultation et 2) de déterminer les caractéristiques cliniques communes des patients avec un diagnostic final de syncope d'origine rythmique ou vaso-vagale.Notre travail de thèse démontre qu'un algorithme de prise en charge standardisé basé sur des tests non-invasifs permet de déterminer 2/3 des causes de syncope initialement d'origine indéterminée. Par ailleurs, notre travail montre que des étiologies bénignes, telles que la syncope d'origine vaso- 20 vagale ou psychogène, représentent la moitié des causes syncopales alors que les arythmies cardiaques demeurent peu fréquentes. Finalement, notre travail démontre que l'absence de symptomatologie prodromique, en particulier chez les patients âgés avec une limitation fonctionnelle ou un allongement de la durée de l'onde Ρ à l'électrocardiogramme, suggère une syncope d'origine rythmique. Ce travail de thèse contribuera à optimaliser notre algorithme de prise 25 en charge standardisée de la syncope d'origine indéterminée et ouvre de nouvelles perspectives de recherche dans le développement de modèles basés sur des facteurs cliniques permettant de prédire les principales causes syncopales.
Resumo:
Abstract Textual autocorrelation is a broad and pervasive concept, referring to the similarity between nearby textual units: lexical repetitions along consecutive sentences, semantic association between neighbouring lexemes, persistence of discourse types (narrative, descriptive, dialogal...) and so on. Textual autocorrelation can also be negative, as illustrated by alternating phonological or morpho-syntactic categories, or the succession of word lengths. This contribution proposes a general Markov formalism for textual navigation, and inspired by spatial statistics. The formalism can express well-known constructs in textual data analysis, such as term-document matrices, references and hyperlinks navigation, (web) information retrieval, and in particular textual autocorrelation, as measured by Moran's I relatively to the exchange matrix associated to neighbourhoods of various possible types. Four case studies (word lengths alternation, lexical repulsion, parts of speech autocorrelation, and semantic autocorrelation) illustrate the theory. In particular, one observes a short-range repulsion between nouns together with a short-range attraction between verbs, both at the lexical and semantic levels. Résumé: Le concept d'autocorrélation textuelle, fort vaste, réfère à la similarité entre unités textuelles voisines: répétitions lexicales entre phrases successives, association sémantique entre lexèmes voisins, persistance du type de discours (narratif, descriptif, dialogal...) et ainsi de suite. L'autocorrélation textuelle peut être également négative, comme l'illustrent l'alternance entre les catégories phonologiques ou morpho-syntaxiques, ou la succession des longueurs de mots. Cette contribution propose un formalisme markovien général pour la navigation textuelle, inspiré par la statistique spatiale. Le formalisme est capable d'exprimer des constructions bien connues en analyse des données textuelles, telles que les matrices termes-documents, les références et la navigation par hyperliens, la recherche documentaire sur internet, et, en particulier, l'autocorélation textuelle, telle que mesurée par le I de Moran relatif à une matrice d'échange associée à des voisinages de différents types possibles. Quatre cas d'étude illustrent la théorie: alternance des longueurs de mots, répulsion lexicale, autocorrélation des catégories morpho-syntaxiques et autocorrélation sémantique. On observe en particulier une répulsion à courte portée entre les noms, ainsi qu'une attraction à courte portée entre les verbes, tant au niveau lexical que sémantique.
Resumo:
Résumé: Le département de Gaya, cadre de notre étude, est situé au sud-ouest de la république du Niger. Il dispose d'un important potentiel hydrique composé des eaux de surface (une centaine de mares permanentes, le fleuve Niger sur 106 km) et de sept aquifères superposés comprenant des nappes de subsurface (affleurantes par endroit) et des nappes artésiennes. L'étude sur les usages de l'eau à Gaya a été menée à travers plusieurs axes centrés sur l'estimation et la répartition spatiale des ressources en eau, le cadre juridique et institutionnel régulant leur mise en valeur, les différents secteurs d'utilisation de l'eau ainsi que les contraintes affectant cette utilisation. L'usage de la cartographie à travers les SIG dans le traitement et l'analyse des données, couplée à notre expérience d'une dizaine d'année de travaux dans la région, a permis de dresser des synthèses richement illustrées permettant de mieux comprendre tous les enjeux liés à la problématique des usages de l'eau dans cette partie du Niger. Contrairement à la vision que l'on a traditionnellement du Sahel où le manque d'eau constitue une des contraintes majeures au développement, ici des conditions locales particulières contredisent ce cliché et transposent le débat sur un autre plan. Il s'agit de la maîtrise de l'eau au niveau local à travers l'élaboration d'une politique appropriée qui tienne compte non seulement des spécificités locales de la ressource, mais aussi des différents types d'usages. La politique de l'eau au Niger, définie selon le Schéma directeur de mise en valeur et de gestion des ressources en eau, à travers la mise en place d'un important arsenal juridique et institutionnel, a eu le mérite de tracer un canevas sur la question, mais a montré ses limites au niveau pratique après dix ans d'essai. En effet au niveau de Gaya, ni l'Etat ni les partenaires au développement (bailleurs de fonds extérieurs) n'ont tenu compte des caractéristiques locales de la ressource ou du contexte socioéconomique particulier de la région. Ce qui a entraîné la réalisation d'infrastructures inadaptées aux réalités hydrogéologiques locales ainsi que des choix inappropriés au niveau de certains aménagements. En dépit de l'abondance de la ressource, son accès tant au niveau quantitatif que qualitatif, reste difficile pour une grande partie des acteurs ruraux. Les différents handicaps rencontrés dans la mise en valeur des ressources en eau résultent de cette incohérence de la politique nationale de l'eau, mais aussi de la difficulté de son application sur le terrain où persiste un pluralisme juridique caractérisé par la cohabitation de deux systèmes de régulation à savoir les droits coutumiers et la législation moderne. Ces différents éléments mis en évidence dans cette étude sur la zone de Gaya pourraient servir de base pour un meilleur aménagement des ressources en eau dans le cadre plus large d'une politique d'aménagement du territoire prenant en compte tous les facteurs tant physiques que socioéconomiques de la région. Abstract: The department of Gaya, in which this study was done, is located in the SW area of the Republic of Niger. It has an important hydrological potential composed of surface water (approximately 100 permanent ponds, 106 km of the Niger River) and 7 bodies of underground water sources including sub-surface and artresan wells. This study of the exploitation of wtaer in Gaya has been carried out employing several parameters based on: the estimation and spacial distribution of water ressources, the juridic and institutional rules governing their utilisation and the various constraints affecting this exploitation. The use of mapping when treating and analysing data, coupled with ten years personel field experience, resulted in a richly illustrated synthesis of this data. This, in turn, led to a better comprehension of all the factors related to problems of water utilisation in this particular region of Niger. Contrary to the generally accepted view that the lack of water ressources is a major contributing factor to the lack of development in the Sahel, in Gaya the local conditions contradict this statement. In this region, and at the local level, the proper use of water is based on the elaboration of an appropriate policy which takes into account not only the local specifics of water ressources but the various types of water utilsation as well. Local use of water and water ressources are dependant on established rules. Water policy in Niger is defined by the General Schema based on an important institutional and judicary arsenal of rules and regulations. However, after a ten-year trial period, this system was shown to have its limitations. In Gaya, neither the State nor the development agencies took into consideration local characteristics nor the socio-economic context of the region. This, in turn, resulted in putting in place infrastructures that were not adapted to local hydrogeological realities as well as inappropriate choices in land planning and development. In spite of the abundance of water ressources, access to them remains difficult for most of the rural population. The various difficulties encountered are the result of incoherent water policies on a national level as well as the lack of practical application in this area. This is due to a double judicary system where two regulatory systems co-exist:traditional laws and modern legislation. the different elements brought out by this study could serve as a basis for a better utilisation of water ressources on a larger scale in which land planning and development policies would take into consideration all the physcial as well as the socio-economical factors of this region.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Introduction: The importance of health promotion and prevention and the potential of general practitioners (GPs) to conduct individual prevention procedures have been demonstrated in several studies. Clinical recommendations for screening and prevention activities, an important condition for success, are published regularly, but their implementation into daily practice does not necessarily follow. Information is lacking about the actual conditions of how prevention is carried out on a daily basis by Swiss GPs, about their perceptions and needs, their attitudes and the present barriers they face. Such information is essential for the development of new tools and programs targeting better implementation of clinical recommendations for prevention in primary care in Switzerland. Objectives: The objectives of the study were to analyze how Swiss GPs perceive their role in prevention by obtaining information regarding the following issues: What do disease prevention and health promotion mean to them? What are the current incentives and barriers they face? What are their ideas and suggestions to deal with these barriers? What are their needs and expectations regarding prevention guidelines and tools? Methods: We conducted a qualitative research project using focus groups to examine the questions mentioned above. A total of 13 focus groups took place including GPs from eight cantons: five groups in German- speaking Switzerland and eight in French- speaking Switzerland. Each group was composed of 4-11 GPs, making in total 102 participants, who were paid expenses to cover their participation. The sessions were audio-recorded and transcribed verbatim. Data analysis: Content analysis of the transcriptions began by classifying the data according to a typology, the first level of which was developed in line with the structure of the interview guide. This typology was extended by successively regrouping similar statements. Synopsis and interpretation was then performed on each category thus obtained. This research report is based on the results from the French-speaking cantons. Results: Physicians perceive a change in their role as a consequence of changes in society and the health system. They emphasize the importance of a personalized and long lasting relationship between the family doctor and his/her patient; a privileged position allowing them to perform individualized prevention activities, considered to be more effective, as they are appropriate to the specific situation and needs of the patient. They point out their need for training and for better information concerning prevention and health promotion interventions, and stress difficulties arising from the lack of a clear political signal conferring them with a mandate for prevention. -- INTRODUCTION L'importance de la prévention et de la promotion de la santé et le potentiel des médecins de famillea à mettre en oeuvre des mesures individuelles de prévention, de dépistage et de conseils, a été démontrée dans plusieurs études. Régulièrement durant les dernières années, de nombreuses associations médicales ont publié des recommandations cliniques concernant les activités de dépistage et de prévention qui sont une condition essentielle pour le succès, mais ne sont pas forcément appliquées de manière systématique dans la pratique médicale quotidienne. Des contraintes spécifiques contribuent à l'écart entre le désir des médecins de pratiquer une médecine préventive et la réalité d'un cabinet médical. Nous n'avons que peu de données sur les conditions actuelles dans lesquelles la prévention et la promotion de la santé sont réalisées par les médecins de famille suisses dans leur travail quotidien. Des informations précises et représentatives sur leurs perceptions et leurs besoins, leurs attitudes et les contraintes auxquelles ils sont confrontés manquent. Or ces données sont essentielles dans le développement de nouveaux outils et programmes visant une meilleure implémentation des recommandations cliniques dans le domaine de la prévention et la promotion de la santé dans la médecine de famille en Suisse. OBJECTIFS Le développement de concepts pour une prévention systématique ainsi que d'outils adéquats, tout comme l'amélioration des conditions qui permettent une implémentation à grande échelle, implique, avant tout, l'analyse de la perception que les médecins de famille suisses ont de leur rôle dans la prévention. Par conséquent, cette étude a eu pour objectif d'obtenir des informations concernant les questions suivantes : ? Que signifient la prévention et la promotion de la santé pour les médecins de famille suisses ? ? Quelles sont leurs incitations et les barrières rencontrées ? ? Quelles sont leurs idées et leurs suggestions pour faire face à ces contraintes ? ? Quels sont leurs besoins et leurs attentes concernant les outils pour la prévention ? METHODES Nous avons mené un projet de recherche qualitative en utilisant la technique des focus groups pour examiner les questions mentionnées ci-dessus. Une telle technique de collecte de données est particulièrement adaptée à un domaine où l'on connaît mal les perceptions des parties prenantes. Nous avons mené 13 focus groups au total, comprenant des médecins issus de huit cantons: cinq groupes ont eu lieu en Suisse alémanique et huit groupes en Suisse romande. Chaque groupe était composé de 4 à 11 médecins de famille, avec au total 102 participants qui ont été défrayés pour leur participation. Les séances ont été audio-enregistrées et transcrites. ANALYSE DES DONNEES L'analyse du contenu des transcriptions a commencé par la classification des données selon une typologie dont le premier niveau a été développé à partir de la structure de la grille d'entretiens. Cette typologie a été affinée et élargie en regroupant successivement des propos similaires. Une synthèse a été effectuée pour chaque catégorie. Ce rapport est basé sur les résultats de l'analyse des données des cantons francophones. RESULTATS Les médecins perçoivent un changement de leur rôle dans une société et dans un système de santé qui évoluent. Ils soulignent l'importance de la relation personnalisée et durable du médecin de famille avec son patient, atout précieux, qui leur permet de réaliser des activités de prévention individualisées et adaptées à la situation et aux besoins du patient, considérées plus efficaces. Afin de surmonter leur doutes et découragement par rapport aux interventions de prévention, ils pointent la nécessité d'une formation aux nouvelles connaissances en prévention et promotion de la santé et d'une meilleure information aux médecins quant à leur efficacité et importance. Ils montrent le besoin d'un signal clair des politiques par rapport à l'attribution de ce mandat aux médecins de famille et de leur reconnaissance en tant qu'acteur de prévention dans le système de santé.
Resumo:
Les fluides de coupe sont largement utilisés dans les industries mécaniques des machines-outils pour assurer la lubrification et le refroidissement des pièces métalliques. Lors de l'usinage, les machines-outils provoquent, de par leur grande vitesse de rotation, l'émission d'huile. On estime qu'environ 400'000 travailleurs sont exposés aux fluides de coupe en Suisse, plus de la moitié d'entre eux étant aux huiles entières (minérales ou synthétiques, non diluées avec de l'eau). Dans la littérature, on observe des effets respiratoires chroniques potentiellement précurseurs d'une bronchite et/ou de broncho-pneumopathie chronique obstructive chez des travailleurs exposés de manière chronique aux brouillards d'huile entière. Le problème est que le lien entre le retentissement respiratoire chronique et le niveau d'exposition professionnel des travailleurs exposés aux brouillards d'huile est difficile à mettre en évidence, car la mesure de l'exposition aux brouillards d'huile était jusqu'à présent très imprécise. Une nouvelle technique permettant de mesurer les deux fractions (particulaire et volatile) des brouillards d'huile entière vient d'être validée. L'objectif principal de l'étude est d'évaluer la faisabilité d'une étude de cohorte prospective à large échelle sur le lien entre l'exposition professionnelle chronique aux brouillards d'huile entière , mesurée de manière plus précise selon cette nouvelle technique, et les symptômes, la fonction respiratoire et l'inflammation bronchique. L'objectif secondaire est d'étudier le lien entre l'exposition professionnelle aiguë aux brouillards d'huile entière parmi ces travailleurs (n=14) et les symptômes, la fonction respiratoire et l'inflammation bronchique. Il s'agit d'une étude épidémiologique d'observation de type transversale. Les sujets étudiés sont des salariés de l'industrie du décolletage. La faisabilité a été déterminée sur la base de critères portant sur le recrutement, la récolte des données et l'analyse des données. La récolte de données a eu lieu après 48h de non-exposition, à l'aide d'un questionnaire d'exposition au poste de travail, un curriculum laboris et questionnaire des symptômes, la mesure du NO exhalé, une spirométrie et la mesure individuelle et sur postes fixes des expositions actuelles aux brouillards d'huile entière par la nouvelle méthode. Les difficultés et les points positifs rencontrés ont permis d'émettre des recommandations en vue de la réalisation une étude à plus large échelle. Aucun lien n'a pu être démontré au vu du faible nombre de travailleurs inclus et les niveaux relativement bas d'exposition aux brouillards d'huile entière mesurés. Sur la base de l'étude de faisabilité, une étude de cohorte prospective est recommandée pour établir un lien entre le niveau de brouillards d'huile entière et les effets respiratoires.
Resumo:
Problématique: Les naissances prématurées sont des situations cliniques à risque pour l'enfant. Celui-ci arrive au monde avec une capacité amoindrie à être autonome, que ce soit, par exemple, au niveau respiratoire ou de la régulation thermique. Lors de leur séjour aux soins intensifs, les enfants prématurés subissent des interventions qui peuvent être douloureuses, ils sont souvent manipulés et exposés à des bruits et des lumières intenses; ceci peut induire un stress important pour l'enfant qui est déjà vulnérable du fait de sa prématurité. Lorsque confronté à une situation stressante, l'organisme humain réagit par l'activation de l'axe hypothalamo-hypophysio-surrénalien (HHS). Une des hormones principales sécrétées par l'axe HHS est le cortisol. Plusieurs études suggèrent que le cortisol, lorsque sécrété en quantités importantes, risque d'altérer la matière grise, en induisant une diminution de volume, notamment celui de l'hippocampe (Plotsky & Meaney, 1993; Sapolsky, 2000; McEwen, 1994; 2000; Sandman et al., 1994; Meaney et al., 1991;1996). Ces altérations auraient comme effet un dérèglement de l'axe HHS (Heim & Nemeroff, 1999) avec comme conséquence une variation de la réponse au stress mais aussi de la mémoire et de la régulation émotionnelle (Stam et al., 2000 et Siegel, 1998). Objectifs: Nous allons nous intéresser aux grands prématurés nés à moins de 32 semaines de gestations selon leur exposition à des interventions stressantes et douloureuses ou des complications postnatales. Nous allons étudier l'impact qu'un stress modéré ou sévère sur un prématuré a sur la réponse de l'axe HHS et sur sa régulation émotionnelle lorsque celui-ci est confronté à des situations de stress modéré ultérieurement, plus précisément à six mois d'age corrigé. Méthodologie: Dans le cadre de l'étude «Stress néonatal et réactivité au stress ultérieur: effets préventifs d'une intervention précoce» (SNF 3200 BO-104230) menée au SUPEA en collaboration avec le service de néonatologie du DMCP, le Lab-TAB (Laboratory Temperament Assessment Battery, prelocomotor version 3.1, Goldsmith & Rothbart, 1999) a été utilisé comme outil pour analyser le tempérament d'un enfant par l'analyse de ses réactions émotionnelles à certaines situations. L'enfant, qui était filmé, a été confronté à des mises en scène conçues pour susciter diverses émotions comme la peur, la colère, la frustration, la curiosité ou le plaisir. Un système de codage dérivé de celui du Lab-TAB sera utilisé par deux codeurs différents pour analyser les réactions émotionnelles des enfants. Les taux de cortisol sécrétés ont été mesurés dans la salive de l'enfant. La mesure du cortisol libre dans la salive montre une bonne corrélation avec le cortisol plasmatique ; plusieurs prélèvements de salive ont été faits avant, pendant et après la situation de stress. Les situations filmées n'ont pas encore été codés, ni les taux analysés par l'équipe de la SUPEA. Nous allons observer 40 vidéos, 20 d'enfants nés prématurément et 20 d'enfants nés à terme comme groupe contrôle, et examiner la réponse endocrinienne au stress ainsi que leur régulation émotionnelle au niveau de leur comportement comme l'excitation, les pleurs, l'évitement... Hypothèse : L'intensité de l'exposition au stress postnatal chez l'enfant prématuré induirait des variations de la réponse de l'axe HHS mais aussi de la régulation émotionnelle. Il n'est pas clair selon la littérature actuelle si les variations des réponses de l'axe HHS dues à l'exposition à un stress précoce vont dans les sens de l'hypo- ou l'hyperréactivité, et si cette réponse corrèle avec la régulation émotionnelle au niveau des comportements. C'est ce que l'analyse des données nous permettra de déterminer.
Resumo:
"Thèse présentée à la Faculté des études supérieures En vue de l'obtention du grade de Docteur en droit"