584 resultados para méthodes qualitatives


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Objectifs: Cette étude relève la prévalence des principaux facteurs de risque cardiovasculaire dans les coronaropathies précoces (P-CAD) familiales, survenant chez au moins deux frères et/ou soeurs d'une même fratrie. Méthodes: Nous avons recruté 213 survivants atteints de P-CAD, issus de 103 fratries, diagnostiqués avant l'âge de 50 ans chez les hommes et 55 ans chez les femmes. La présence ou non d'hypertension, d'hypercholestérolémie, d'obésité et de tabagisme a été documentée au moment de l'événement chez 163 de ces patients (145 hommes et 18 femmes). Chaque patient a été comparé à deux individus de même âge et sexe, chez qui un diagnostic de P-CAD «sporadique» (non familiale) était posé, et à trois individus choisis au hasard parmi la population générale. Résultats: En comparaison de la population générale, les patients atteints de P-CAD sporadique avaient une prévalence supérieure pour 1 'hypertension (29% vs. 14%, p<0.001), le cholestérol (54% vs. 33%, p<0.001), l'obésité (20% vs. 13%, p<0.001) et le tabagisme (76% vs. 39%, p<0.001). Ces facteurs de risque étaient de prévalences similaires, voire supérieures chez les patients atteints de P-CAD familiale (43% [p<0.05 vs. P-CAD sporadiques], 58% [p=0.07], 21% et 72%) respectivement). Seulement 7 (4%) des 163 patients atteints de P-CAD familiale et 22 (7%) des 326 patients atteints de P-CAD sporadique, ne présentaient aucun facteur de risque cardiovasculaire, comparés à 167 (34%) des 489 patients issus de la population générale. Conclusions: Les facteurs de risque cardiovasculaire classiques et réversibles ont une haute prévalence chez les patients atteints de P-CAD familiale. Ce fait rend improbable une contribution génétique prédominante, agissant en l'absence de facteurs de risque. Abstract: Objectives: This study was designed to assess the prevalence of major cardiovascular risk factors in familial premature coronary artery disease (P-CAD), affecting two or more siblings within one sibship. Background: Premature CAD has a genetic component. It remains to be established whether familial P-CAD is due to genes acting independently from major cardiovascular risk factors. Methods: We recruited 213 P-CAD survivors from 103 sibships diagnosed before age ?50 (men) or ?55 (women) years old. Hypertension, hypercholesterolemia, obesity, and smoking were documented at the time of the event in 163 patients (145 men and 18 women). Each patient was compared with two individuals of the same age and gender, diagnosed with sporadic (nonfamilial) P-CAD, and three individuals randomly sampled from the general population. Results: Compared with the general population, patients with sporadic P-CAD had a higher prevalence of hypertension (29% vs. 14%, p < 0.001), hypercholesterolemia (54% vs. 33%, p < 0.001), obesity (20% vs. 13%, p < 0.001), and smoking (76% vs. 39%, p < 0.001). These risk factors were equally or even more prevalent in patients with familial P-CAD (43% [p < 0.05 vs. sporadic P-CAD], 58% [p = 0.07], 21% and 72%, respectively). Overall, only 7 (4%) of 163 of patients with familial P-CAD and 22 (7%) of 326 of patients with sporadic P-CAD had none of these conditions, as compared with 167 (34%) of 489 patients in the general population. Conclusions: Classic, remediable risk factors are highly prevalent in patients with familial P-CAD. Accordingly, a major contribution of genes acting in the absence of these risk factors is unlikely

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: Le scanner peut aider au diagnostic et la caractérisation des valvulopathies et des lésions associées (aorte, coronaires). Le scanner est un examen incontournable pour l'évaluation pré-thérapeutique des procédures TAVI (transfémorale ou transapicale). Le scanner peut être utile pour caractériser les insuffisances aortiques. Grâce aux développements récents dans les thérapies peu invasives et au progrès du CT, le rôle du radiologue est redevenu central dans la prise en charge de certaines valvulopathies aortiques. Résumé: Les valvulopathies aortiques sont des maladies fréquentes. Leur exploration repose largement sur l'échocardiographie et sur l'IRM. Les progrès technologiques en scanner cardiaque ont permis à ce dernier d'explorer la valve aortique et ses pathologies. Ce cours est principalement consacré aux méthodes d'acquisition et de traitement des images dédiées à l'exploration de la valve aortique (plan de coupes, planimétrie, scores...). Une attention particulière est réservée aux considérations anatomiques spécifiques à celle-ci (variantes anatomiques). Les indications du scanner cardiaque dans les valvulopathies seront résumées (sténoses, insuffisances, pathologie tumorale et pathologies inflammatoires). Dans la sténose de la valve, outre ses performances diagnostiques, le scanner plus ou moins couplé à l'exploration des vaisseaux périphériques, est devenu une méthode intournable dans le bilan pré-thérapeutique. La connaissance des paramètres à évaluer (taille de l'anneau, position des coronaires, orientation du plan de la valve...) et la standardisation des mesures sont un élément clé pour une prise en charge optimale. Dans les insuffisances aortiques, les méthodes de quantification (planimétrie) peuvent être utilisées pour les caractériser avec des performances comparables à celles obtenues par d'autres techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant même d'entamer ma recherche de sujet pour le travail de maîtrise, j'avais déjà une certitude: je souhaitais choisir un thème qui m'intéressait, certes, mais surtout qui arriverait à me passionner, de façon à pouvoir y mettre toute mon énergie. Le choix initial de m'orienter vers ma future spécialité, la psychiatrie, s'est vite confirmé, et un rayon de l'IUMG en particulier a très rapidement attiré ma curiosité: celui de l'ethnopsychiatrie. Pour le choix du thème de ce travail, mon expérience de vie, suite à un mariage mixte, et mon inté- rêt pour les migrants, ont compté, ainsi que les nombreux stages effectués en milieux multicultu- rels et ma probable future orientation en psychiatrie systémique. Face à l'augmentation de la migration et des déplacements des populations et des individus ainsi qu'aux mélanges interculturels qui en résultent, les recherches transculturelles connaissent, depuis quelques années, un développement important: ceci est valable en psychiatrie, en psychopathologie comme en psychothérapie. Pendant mes stages, j'ai remarqué que l'accueil et la prise en charge des personnes étrangères sont une possibilité, pour les professionnels issus de tous les domaines, que ce soit d'un milieu médico- psychologique, social ou éducatif, de remettre en cause les méthodes théoriques et techniques habi- tuelles. En effet, dès que l'on est amené à s'occuper de personnes d'une culture différente de la nô- tre, une partie de nos théories, de notre manière d'intervention clinique et de nos principes de for- mation se trouve forcément remise en question. Le choix de mieux connaître et proposer cette nouvelle discipline par un travail de master s'est basé également en fonction de l'ampleur du parcours historique que l'ethnopsychiatrie nous permettait d'explorer. Par mon travail, j'ai donc essayé de retracer le parcours socio-historique de l'ethnopsychiatrie de- puis ses origines. Cela n'a pas été facile car, même si théoriquement cette discipline s'est dévelop- pée aux alentours du début du XXe siècle, entre l'Europe et les lieux où l'Occident élargissait son domaine, il n y a pas unanimité sur un fondateur précis. Cependant, à plusieurs reprises, Emil Kraepelin est cité comme le fondateur de cette discipline, et c'est pour cette raison que j'ai décidé de focaliser mon attention sur ce grand psychiatre, pour es- sayer de comprendre pourquoi plusieurs auteurs le considèrent comme le père de l'ethnopsychia- trie. Pour ce faire, dans une première partie, ma recherche a donc consisté en une revue de la littérature médicale spécialisée. 4 Je me suis basée tout d'abord sur des sources primaires, en cherchant des articles écrits par Kraepe- lin lui-même, consultant principalement les revues germanophones et anglo-saxonnes susceptibles d'avoir publié ses articles. J'ai également consulté un choix de traités de psychiatrie qu'il a publié. Dans la deuxième partie de mes recherches, j'ai passé en revue la littérature secondaire, en me ba- sant sur des articles qui ont été écrits sur lui par différents auteurs, psychiatres et historiens. La thè- se du Dr. Christoph Bendick a été utilisée en particulier: «Emil Kraepelin's Forschungsreise nach Java», a été un outil précieux pour retrouver aussi bien des récits primaires inédits du psychiatre que maintes sources de littérature secondaire. En analysant cette littérature, j'ai essayé de dégager les principaux thèmes d'évolution entre le XIXe et le XXe siècle, en cherchant en parallèle d'éventuelles répercussions des travaux de psy- chiatrie comparée du médecin allemand sur la postérité, ainsi que sur la psychiatrie moderne. En progressant dans mon travail, je me suis pertinemment posé la question suivante: Kraepelin était-il vraiment le premier qui se fut intéressé à une psychiatrie « exotique » ou, au contraire, l'ambition de comparer la folie occidentale à des peuples et civilisations étrangers avait-elle déjà commencé bien avant lui ? Aurait-il apporté quelque chose de différent dans sa recherche, qui nous permettrait aujourd'hui de lui attribuer le statut de fondateur de l'ethnopsychiatrie ? Afin d'essayer de répondre à cette réflexion, ma méthodologie a consisté en un dépouillement d'une célèbre revue de psychiatrie française, Les annales médico-psychologiques, depuis le premier numéro paru en 1843 jusqu'à l'aube de la deuxième guerre mondiale, à la recherche d'articles trai- tant de la folie exotique. Pour accomplir cette tâche, un article de R. Collignon, psychologue-anthropologue travaillant sur l'histoire de la psychiatrie en Afrique, m'a été d'une aide très précieuse. Ce texte, paru dans la re- vue Psychopathologie Africaine, qui répertorie tous les articles traitants de la psychiatrie coloniale, m'a évité de devoir analyser personnellement toute la collection des A.M.P., ce qui a permis un gain de temps considérable. Une analyse approfondie de cette littérature m'a permis de me forger une idée sur la question et de dégager en même temps, dans la troisième partie du travail, les principaux thèmes d'évolution en ethnopsychiatrie entre le XIXe et le XXe siècle. Finalement, en disséquant les théories d'un autre auteur qui s'est passionné pour l'ethnopsychiatrie, le psychanalyste Georges Devereux, considéré également comme le fondateur de cette discipline, j'ai essayé de comprendre les changements qui se sont opérés dans ce domaine pendant la période qui les sépare. Un regard particulier a été porté sur les possibles répercussions de l'ancienne eth- nopsychiatrie, de connotation coloniale, sur une ethnopsychiatrie plus «moderne», laquelle, suite aux travaux de Devereux, a évolué depuis quelques années surtout dans les domaines des études de la migration et de l'intégration. 5 Cette ethnopsychiatrie contemporaine inclut aujourd'hui des phénomènes uniques attribués à une origine culturelle qui, depuis 1995, sont regroupés dans le DSM IV sous le nom de Culture-Bound Syndromes. Ce travail de master esquisse donc un double mouvement: Europe-Occident, Occident-Europe. Sur ce chemin, aux alentours de 1900, sont posés les premières grandes lignes et récits d'une ethnopsy- chiatrie, née en un premier temps entre l'Europe et ses colonies et ensuite entre l'Europe et le reste du monde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé -Caractéristiques architecturales des génomes bactériens et leurs applications Les bactéries possèdent généralement un seul chromosome circulaire. A chaque génération, ce chromosome est répliqué bidirectionnellement, par deux complexes enzymatiques de réplication se déplaçant en sens opposé depuis l'origine de réplication jusqu'au terminus, situé à l'opposé. Ce mode de réplication régit l'architecture du chromosome -l'orientation des gènes par rapport à la réplication, notamment - et est en grande partie à l'origine des pressions qui provoquent la variation de la composition en nucléotides du génome, hors des contraintes liées à la structure et à la fonction des protéines codées sur le chromosome. Le but de cette thèse est de contribuer à quantifier les effets de la réplication sur l'architecture chromosomique, en s'intéressant notamment aux gènes des ARN ribosomiques, cruciaux pour la bactérie. D'un autre côté, cette architecture est spécifique à l'espèce et donne ainsi une «identité génomique » aux gènes. Il est démontré ici qu'il est possible d'utiliser des marqueurs «naïfs » de cette identité pour détecter, notamment dans le génome du staphylocoque doré, des îlots de pathogénicité, qui concentrent un grand nombre de facteurs de virulence de la bactérie. Ces îlots de pathogénicité sont mobiles, et peuvent passer d'une bactérie à une autre, mais conservent durant un certain temps l'identité génomique de leur hôte précédent, ce qui permet de les reconnaître dans leur nouvel hôte. Ces méthodes simples, rapides et fiables seront de la plus haute importance lorsque le séquençage des génomes entiers sera rapide et disponible à très faible coût. Il sera alors possible d'analyser instantanément les déterminants pathogéniques et de résistance aux antibiotiques des agents pathogènes. Summary The bacterial genome is a highly organized structure, which may be referred to as the genome architecture, and is mainly directed by DNA replication. This thesis provides significant insights in the comprehension of the forces that shape bacterial chromosomes, different in each genome and contributing to confer them an identity. First, it shows the importance of the replication in directing the orientation of prokaryotic ribosomal RNAs, and how it shapes their nucleotide composition in a tax on-specific manner. Second, it highlights the pressure acting on the orientation of the genes in general, a majority of which are transcribed in the same direction as replication. Consequently, apparent infra-arm genome rearrangements, involving an exchange of the leading/lagging strands and shown to reduce growth rate, are very likely artifacts due to an incorrect contig assembly. Third, it shows that this genomic identity can be used to detect foreign parts in genomes, by establishing this identity for a given host and identifying the regions that deviate from it. This property is notably illustrated with Staphylococcus aureus: known pathogenicity islands and phages, and putative ancient pathogenicity islands concentrating many known pathogenicity-related genes are highlighted; the analysis also detects, incidentally, proteins responsible for the adhesion of S. aureus to the hosts' cells. In conclusion, the study of nucleotide composition of bacterial genomes provides the opportunity to better understand the genome-level pressures that shape DNA sequences, and to identify genes and regions potentially related to pathogenicity with fast, simple and reliable methods. This will be of crucial importance when whole-genome sequencing will be a rapid, inexpensive and routine tool.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) L'histoire des religions autant dans ses procédés que dans ses concepts est fondée sur la comparaison. Tels le mythe, le sacrifice, l'initiation ou la purification, ces concepts comparatifs ont fini par être neutralisés dans une ontologie à prétention universelle. Des religions on en est revenu à la religion, pour le plus grand profit des théologiens chrétiens, protestants et catholiques, qui y ont trouvé une nouvelle légitimité académique. Raison supplémentaire pour revenir sur les démarches comparatives et pour en critiquer les effets totalisants : la comparaison s'impose comme méthode à condition d'être contrastive et différentielle. Elle induit un regard relativisant et décentré ; ce regard oblique d'une part rend justice aux spécificités des manifestations et pratiques religieuses décrites dans leur diversité ; d'autre part il est la condition même, en sciences humaines en général, d'une position critique, antidote indispensable aux replis disciplinaires et institutionnels de nos contemporains. Les contributions réunies ici à la suite d'une journée d'échange passée à comparer les démarches comparatives en histoire des religions entraînent lectrices et lecteurs des rites du polythéisme grec aux pratiques contemporaines du yoga, en passant par différentes prétentions universalisantes du monothéisme chrétien, par les pratiques de l'hospitalité en régime rabbinique et en hindouisme brahmanique, mais aussi par la question du salut individuel en philosophie néoplatonicien, ne ou en théologie augustinienne, par les gestes de la prière dans les religions amérindiennes et dans la mystique chrétienne ou par les prophétismes chrétien et musulman ; ceci par le biais de méthodes comparatives se fondant sur une démarche historique, structurale, discursive ou cognitive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Prevalence of type 2 diabetes is increasing worldwide at alarming rates, probably secondarily to that of obesity. As type 2 diabetes is characterized by blood hyperglycemia, controlling glucose entry into tissues from the bloodstream is key to maintain glycemia within acceptable ranges. In this context, several glucose transporter isoforms have been cloned recently and some of them have appeared to play important regulatory roles. Better characterizing two of them (GLUT8 and GLUT9) was the purpose of my work. The first part of my work was focused on GLUT8, which is mainly expressed in the brain and is able to transport glucose with high affinity. GLUT8 is retained intracellularly at basal state depending on an N-terminal dileucine motif, thus implying that cell surface expression may be induced by extracellular triggers. In this regard, I was interested in better defining GLUT8 subcellular localization at basal state and in finding signals promoting its translocation, using an adenoviral vector expressing a myc epitope-tagged version of the transporter, thus allowing expression and detection of cell-surface GLUT8 in primary hippocampal neurons and PC 12 cells. This tool enabled me to found out that GLUT8 resides in a unique compartment different from lysosomes, endoplasmic reticulum, endosomes and the Golgi. In addition, absence of GLUT8 translocation following pharmacological activation of several signalling pathways suggests that GLUT8 does not ever translocate to the cell surface, but would rather fulfill its role in its unique intracellular compartment. The second part of my work was focused on GLUT9, which -contrarily to GLUT8 - is unable to transport glucose, but retains the ability to bind glucose-derived cross-linker molecules, thereby suggesting that it may be a glucose sensor rather than a true glucose transporter. The aim of the project was thus to define if GLUT9 triggers intracellular signals when activated. Therefore, adenoviral vectors expressing GLUTS were used to infect both ßpancreatic and liver-derived cell lines, as GLUTS is endogenously expressed in the liver. Comparison of gene expression between cells infected with the GLUTS-expressing adenovirus and cells infected with a GFP-expressing control adenovirus ended up in the identification of the transcription factor HNF4α as being upregulated in aGLUT9-dependent manner. Résumé La prévalence du diabète de type 2 augmente de façon alarmante dans le monde entier, probablement secondairement à celle de l'obésité. Le diabète de type 2 étant caractérisé par une glycémie sanguine élevée, l'entrée du glucose dans les tissus depuis la circulation sanguine constitue un point de contrôle important pour maintenir la glycémie à des valeurs acceptables. Dans ce contexte, plusieurs isoformes de transporteurs au glucose ont été clonées récemment et certaines d'entre elles sont apparues comme jouant d'importants rôles régulateurs. Mieux caractériser deux d'entre elles (GLUT8 et GLUT9) était le but de mon travail. La première partie de mon travail a été centrée sur GLUT8, qui est exprimé principalement dans le cerveau et qui peut transporter le glucose avec une haute affinité. GLUT8 est retenu intracellulairement à l'état basal de façon dépendante d'un motif dileucine N-terminal, ce qui implique que son expression à la surface cellulaire pourrait être induite par des stimuli extracellulaires. Dans cette optique, je me suis intéressé à mieux définir la localisation subcellulaire de GLUT8 à l'état basal et à trouver des signaux activant sa translocation, en utilisant comme outil un vecteur adénoviral exprimant une version marquée (tag myc) du transporteur, me permettant ainsi d'exprimer et de détecter GLUT8 à la surface cellulaire dans des neurones hippocampiques primaires et des cellules PC12. Cet outil m'a permis de montrer que GLUT8 réside dans un compartiment unique différent des lysosomes, du réticulum endoplasmique, des endosomes, ainsi que du Golgi. De plus, l'absence de translocation de GLUT8 à la suite de l'activation pharmacologique de plusieurs voies de signalisation suggère que GLUT8 ne transloque jamais à la membrane plasmique, mais jouerait plutôt un rôle au sein même de son compartiment intracellulaire unique. La seconde partie de mon travail a été centrée sur GLUT9, lequel -contrairement à GLUT8 -est incapable de transporter le glucose, mais conserve la capacité de se lier à des molécules dérivées du glucose, suggérant que ce pourrait être un senseur de glucose plutôt qu'un vrai transporteur. Le but du projet a donc été de définir si GLUT9 active des signaux intracellulaires quand il est lui-même activé. Pour ce faire, des vecteurs adénoviraux exprimant GLUT9 ont été utilisés pour infecter des lignées cellulaires dérivées de cellules ßpancréatiques et d'hépatocytes, GLUT9 étant exprimé de façon endogène dans le foie. La comparaison de l'expression des gènes entre des cellules infectées avec l'adénovirus exprimant GLUT9 et un adénovirus contrôle exprimant la GFP a permis d'identifier le facteur de transcription HNF4α comme étant régulé de façon GLUT9-dépendante. Résumé tout public Il existe deux types bien distincts de diabète. Le diabète de type 1 constitue environ 10 des cas de diabète et se déclare généralement à l'enfance. Il est caractérisé par une incapacité du pancréas à sécréter une hormone, l'insuline, qui régule la concentration sanguine du glucose (glycémie). Il en résulte une hyperglycémie sévère qui, si le patient n'est pas traité à l'insuline, conduit à de graves dommages à divers organes, ce qui peut mener à la cécité, à la perte des membres inférieurs, ainsi qu'à l'insuffisance rénale. Le diabète de type 2 se déclare plus tard dans la vie. Il n'est pas causé par une déficience en insuline, mais plutôt par une incapacité de l'insuline à agir sur ses tissus cibles. Le nombre de cas de diabète de type 2 augmente de façon dramatique, probablement à la suite de l'augmentation des cas d'obésité, le surpoids chronique étant le principal facteur de risque de diabète. Chez l'individu sain, le glucose sanguin est transporté dans différents organes (foie, muscles, tissu adipeux,...) où il est utilisé comme source d'énergie. Chez le patient diabétique, le captage de glucose est altéré, expliquant ainsi l'hyperglycémie. Il est ainsi crucial d'étudier les mécanismes permettant ce captage. Ainsi, des protéines permettant l'entrée de glucose dans la cellule depuis le milieu extracellulaire ont été découvertes depuis une vingtaine d'années. La plupart d'entre elles appartiennent à une sous-famille de protéines nommée GLUT (pour "GLUcose Transporters") dont cinq membres ont été caractérisés et nommés selon l'ordre de leur découverte (GLUT1-5). Néanmoins, la suppression de ces protéines chez la souris par des techniques moléculaires n'affecte pas totalement le captage de glucose, suggérant ainsi que des transporteurs de glucose encore inconnus pourraient exister. De telles protéines ont été isolées ces dernières années et nommées selon l'ordre de leur découverte (GLUT6-14). Durant mon travail de thèse, je me suis intéressé à deux d'entre elles, GLUT8 et GLUT9, qui ont été découvertes précédemment dans le laboratoire. GLUT8 est exprimé principalement dans le cerveau. La protéine n'est pas exprimée à la surface de la cellule, mais est retenue à l'intérieur. Des mécanismes complexes doivent donc exister pour déplacer le transporteur à la surface cellulaire, afin qu'il puisse permettre l'entrée du glucose dans la cellule. Mon travail a consisté d'une part à définir où se trouve le transporteur à l'intérieur de la cellule, et d'autre part à comprendre les mécanismes capables de déplacer GLUT8 vers la surface cellulaire, en utilisant des neurones exprimant une version marquée du transporteur, permettant ainsi sa détection par des méthodes biochimiques. Cela m'a permis de montrer que GLUT8 est localisé dans une partie de la cellule encore non décrite à ce jour et qu'il n'est jamais déplacé à la surface cellulaire, ce qui suggère que le transporteur doit jouer un rôle à l'intérieur de la cellule et non à sa surface. GLUT9 est exprimé dans le foie et dans les reins. Il ressemble beaucoup à GLUT8, mais ne transporte pas le glucose, ce qui suggère que ce pourrait être un récepteur au glucose plutôt qu'un transporteur à proprement parler. Le but de mon travail a été de tester cette hypothèse, en comparant des cellules du foie exprimant GLUT9 avec d'autres n'exprimant pas la protéine. Par des méthodes d'analyses moléculaires, j'ai pu montrer que la présence de GLUT9 dans les cellules du foie augmente l'expression de HNF4α, une protéine connue pour réguler la sécrétion d'insuline dans le pancréas ainsi que la production de glucose dans le foie. Des expériences complémentaires seront nécessaires afin de mieux comprendre par quels mécanismes GLUT9 influence l'expression de HNF4α dans le foie, ainsi que de définir l'importance de GLUT9 dans la régulation de la glycémie chez l'animal entier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Le nombre de teignes du cuir chevelu et de la peau glabre étant en nette augmentation, l'identification du pathogène qui est indispensable pour un traitement ciblé, a, par conséquence, un grand intérêt pour la santé publique. Dans divers cas, un animal de compagnie peut être identifié en tant que source du pathogène. La fréquence de cultures restant stériles est particulièrement élevée en cas de prétraitement antifongique. Objectif: Le but de ce travail est de mettre au point une méthode rapide d'identification du dermatophyte pathogène in situ par PCR/séquençage dans les cas de teignes du cuir chevelu et/ou de la peau glabre. Matériel et méthodes : De l'ADN a été extrait de squames (N=5) et cheveux (N=21) dont l'examen direct démontrait une infection fongique (N=26) ou se révèlait négatif (N=1). Ensuite, une première PCR du segment 28s de l'ADN ribosomale fongique a été effectuée, suivie par une PCR nichée intérieure à ce segment. L'amplicon a été séquencé et le champignon est identifié par alignement. Résultats : Seule la PCR enchainée a permis d'obtenir une quantité suffisante d'amplicon pour permettre le séquençage. Dans 4 cas sur 5 de tinea pedis, 10 sur 12 de tinea glabra, respectivement 4 sur 4 de tinea capitis, dans lesquels un dermato- phyte a été identifié en culture, le même dermatophyte a été identifié par PCR/séquençage. Une fois sur 27 prélèvements, un autre dermatophyte a été identifié par PCR/séquençage. Ce résultat pourrait être dû à une fausse identification du champignon en culture. Dans un cas de tinea pedis et un cas de tinea corporis, la culture est restée stérile, mais un dermatophyte a pu être identifié par PCR et séquençage. Conclusions : La méthode décrite est à la fois rapide (24 h au lieu de deux semaines pour la culture), sensible et très spécifique. Elle est particulièrement utile dans les cas de teigne du cuir chevelu, dans lesquels le traitement est différent selon l'espèce de dermatophyte et où il s'agit d'un traitement systémique lourd, souvent chez l'enfant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les nombreuses mines de plomb et d'argent du Valais témoignent d'une activité minière importante par le passé, sans toutefois dévoiler ni l'importance des minéralisations, ni l'ancienneté de l'exploitation. La présente recherche a pour but de comprendre pourquoi les grandes mines sont concentrées dans une région, et de déterminer la chronologie de leur exploitation. L'originalité de ce travail réside dans son interdisciplinarité, plus précisément dans l'application des méthodes minéralogiques pour résoudre une problématique historique. Afin d'évaluer les ressources minières en plomb et en argent du Valais, 57 mines et indices ont été repérés et échantillonnés. Les signatures isotopiques du Pb (74 analyses) et les compositions chimiques élémentaires (45 analyses) ont été déterminées. Les plus grandes exploitations se situent dans la nappe de Siviez-Mischabel, au Sud d'une ligne Vallée du Rhône / Val de Bagnes ainsi que dans le Lötschental. Elles sont liées, d'après leur signature isotopique de plomb, à des minéralisations d'âge calédonien (408 à 387 Ma) ou tardi-hercynien (333 à 286 Ma). À ces périodes, l'ancien continent est très lourd et subit une subsidence thermique. Des premières fractures d'extrême importance se forment. Comme il s'agit d'accidents tectoniques majeurs, des gisements de grande extension peuvent se former dans ce contexte. D'autres minéralisations se situent dans les domaines helvétiques (Massif des Aiguilles Rouges, Massif du Mont Blanc et couverture sédimentaire), couvrant une région au Nord de la Vallée du Rhône et du Val d'Entremont. D'âge post-hercynien à tardi-alpin (notons qu'il n'y a pas de minéralisations d'âge tertiaire), elles sont pour la plupart liées à des intrusions granitiques, sources de plomb juvénile. Les mines situées dans ces unités tectoniques sont nettement moins étendues que celles de la nappe de Siviez-Mischabel, ce qui permet de penser que les minéralisations correspondantes le sont également. Les périodes d'exploitation des mines peuvent être déterminées par quatre approches différentes l'archéologie minière, la lecture des textes historiques, l'étude des déchets métallurgiques et la comparaison de la signature isotopique du plomb, que l'on mesure dans un objet archéologique bien daté (monnaie, bijoux etc.), avec celles des minerais. Cette dernière méthode a été appliquée et développée dans le cadre de la présente recherche. Pour ce faire, 221 échantillons d'objet en plomb ou en argent datés entre l'Âge du Fer et le Moyen Age ont été analysés par la méthode des isotopes de plomb et comparés à environ 1800 signatures isotopiques de minerais des gisements les plus importants en Suisse et en Europe. Avant l'époque romaine et jusqu'au 1 er siècle de cette époque, le plomb provient principalement des mines de la péninsule ibérique alors en pleine activité. Un apport des mines d'Europe tempérée, notamment des Vosges, reste à confirmer. A partir du 1" siècle de notre ère, le plomb a principalement été importé en Suisse occidentale de grands centres de productions situées en Allemagne du Nord (région d'Eifel). Les mines de plomb valaisannes, notamment celles de Siviez, débutent leur exploitation en même temps, principalement pour couvrir les besoins locaux, mais également pour l'exportation jusque dans l'arc lémanique et, dans une moindre importance, au-delà. À partir du 4ème siècle, le besoin en plomb a été couvert par un apport des mines locales et par la refonte d'objets anciens. Ce changement d'approvisionnement est probablement lié aux tensions créées par les invasions germaniques durant la seconde moitié du 3' siècle ; le marché suisse n'est dès lors plus approvisionné par le nord, c'est-à-dire par la vallée du Rhin. Quant à l'argent, l'exploitation de ce métal est attestée à partir de la fin du La Tène, peu après l'apparition de ce métal dans la région valaisanne. L'échantillonnage ne couvrant pas l'époque romaine, rien n'est connu pour cette période. A partir du 5" siècle, une exploitation d'argent est de nouveau attestée. Cependant, l'exploitation d'argent des mines locales ne gagne en importance qu'à partir du Moyen Âge avec les frappes monétaires, notamment les frappes carolingiennes et épiscopales valaisannes. Les sources d'argent sont différentes selon leur utilisation : à part quelques exceptions notamment vers la fin du La Tène et au tardo-antique, les bijoux et objets de cultes ont été souvent créés à partir d'argent refondu, contrairement aux monnaies pour lesquelles l'argent provient des mines locales. On note un approvisionnement différent de ce métal pour les objets, notamment les monnaies, selon leur lieu de fabrication : on peut clairement distinguer les objets valaisans de ceux du Plateau Suisse. SUMMARY The many lead and silver mines of the Valais testify of an important mining activity in the past, without however revealing neither the importance of the mineralizations, nor the era of the exploitation. The purpose of this research is to understand why the large mines are concentrated in one region, and to determine the history of their exploitation. The uniqueness of this work lies in its interdisciplinarity, more precisely in the application of mineralogical methods to solve historical problems. In order to evaluate the lead and silver mining resources of the Valais region, 57 mines and ore deposits were located and sampled. The isotope signatures of Pb (74 analyses) and the compositions of the chemical elements (45 analyses) were determined. The largest activities are in the Siviez-Mischabel area, located in the South of the boundary formed by the Rhone, Bagnes and Lotschental valleys. According to their lead isotope signatures, they are linked to mineralizations of the Caledonian (408 to 387 my) or tardi-Hercynian (333 to 286 my) orogenies. In those times, the old continent was very heavy and underwent a thermal subsidence. First fractures of great significance were formed. Through these major tectonic events, large extended ore deposits can be formed. Other mineralizations are found in the helvetic regions situated north of the Rhone and the Entremont valley (the Aiguilles Rouges basement, Mount Blanc basement and the covering sediment). Because they are from post-hercynien to tardi-alpine age (there are no mineralizations of tertiary age), they are mainly linked to granite intrusions, the sources of juvenile lead. The mines found in these tectonic units are significantly less extensive than those of the Siviez-Mischabel area, leading to the assumption that the respective mineralizations extend accordingly. The history of exploitation of the mines can be determined by four different sources: mining archaeology, historical texts, metallurgical waste, and the comparison of the isotope signature of the lead from accurately dated archaeological objects (currency, jewels etc), with those of the ores. This last approach was applied and developed within the framework of this research. The lead isotope signatures of 221 lead or silver objects from the Iron Age to the Middle Age were compared with approximately 1800 samples of ore of the most important ore deposits in Switzerland and Europe. Before the Roman time up to the 1st century, lead comes mainly from the mines of the Iberian Peninsula then in full activity. A contribution of the mines of Central Europe, in particular of the Vosges, remains to be confirmed. From the 1st century on, lead was mainly imported into Western Switzerland from Northern Germany (Eiffel region). The lead mines in the Valais region, in particular those of Siviez, begin their exploitation at the same time, mainly to meet the local needs, but also for export to the lemanic basin and of lesser importance, beyond. As from the 4th century, the need of lead was met by the production from local mines and the recycling of old objects. This change of supply is probably related to the tensions created by the Germanic invasions during second half of the 3rd century; as a consequence, the Swiss market is not supplied any more by the north, i.e. the Rhine valley. Silver production is confirmed starting from the end of La Tene, shortly after the appearance of this metal in the Valais region. Since no objects of Roman origin were analyzed, nothing is known for this period. From the 5th century on, silver production is again confirmed. However, significant silver production from local mines starts only in the Middle Age with the coinage, in particular Carolingian and Episcopal minting from the Valais region. The sources of silver differ according to their use: besides some exceptions in particular towards the end of La Tene and the tardi-Roman, the jewels and objects of worships were often created from recycled silver, contrary to the coins the silver for which comes from the local mines. A different source of silver is observed according to the location of coin manufacture: Objects originating from the Valais region are clearly distinguished from those from the Plateau Suisse. ZUSAMMENFASSUNG Die grosse Zahl von Blei- und Silberminen im Wallis ist Zeugnis einer bedeutenden Bergbautätigkeit, es fehlen aber Hinweise über ihren Umfang und den Zeitraum ihrer Ausbeutung. Die vorliegende Arbeit sucht zu ergründen, warum grosse Minen sich in einer eng begrenzten Region häufen und in welchem Zeitraum sie genutzt wurden. Die Besonderheit der Studie liegt in ihrer Interdisziplinarität, genauer in der Anwendung von mineralogischen Methoden zur Beantwortung historischer Fragestellungen. Zur Beurteilung der Lagerstätten wurden von 57 Minen und Aufschlüssen Proben entnommen oder Nachweise erbracht und mittels 74 Isotopen-Analysen von Blei und 45 chemischen Gesamtanalysen ausgewertet. Die wichtigsten Vorkommen liegen in der Siviez- Mischabel- Decke südlich der Linie Rhonetal- Val de Bagnes, sowie im Lötschental. Die Bleiisotopen- Alter weisen ihre Entstehung der kaledonischen (408 - 387 Mio. J.) oder der spät- herzynischen (333 - 286 Mio. J.) Gebirgsbildungsphase zu. In dieser Periode ist die kompakte Landmasse sehr schwer und erfairt eine thermische Absenkung. Es bilden sich tektonische Brüche von kontinentaler Ausdehnung. Die grossen tektonischen Bewegungen ermöglichen die Bildung von ausgedehnten Lagerstätten. Andere Vorkommen finden sich im Bereich der Helvetischen Alpen (Aiguilles Rouges Massiv, Mont-Blanc-Massiv und Sediment-Decken) im Gebiet nördlich des Rhonetales bis zum Val d'Entremont. Altersmässig sind sie der nach-hercynischen bis zur spät-alpidischen Orogenese zuzuweisen (auffällig ist das Fehlen von Vorkommen im Tertiär) und haben sich meist in der Folge von Granit- Intrusion, dem Ursprung von primärem Blei ausgebildet. Die Bergwerke in diesem Bereich sind deutlich weniger ausgedehnt als jene in der Siviez-Mischabel-Decke und entsprechen wahrscheinlich dem geringen Umfang der zugehörigen Vorkommen. Die Nutzungsperioden der Minen können mit vier verschiedenen Methoden bestimmt werden: Minenarchäologie, Historische Quellen, Auswertung von metallischen Abfällen (Schlacken) und Vergleich der Bleiisotopen-Zusammensetzung von Erzen mit jener von zeitlich gut datierbaren archäologischen Gegenständen (Münzen, Schmuckstücke). Die letztere Methode wurde im Rahmen der vorliegenden Forschungsarbeit entwickelt und angewendet. Zu diesem Zweck wurden an 221 Proben von Blei- oder Silberobjekten, die in die Periode zwischen Eisenzeit und Mittelalter eingestuft werden können, Bleiisotopen- Analysen durchgeführt und mit ca. 1800 Proben aus den wichtigsten Lagerstätten der Schweiz und Europas verglichen. Vor der Römerzeit und bis ins 1. Jahrh. stammt das Blei vornehmlich aus den in jener Zeit in voller Ausbeutung begriffenen Minen der Iberischen Halbinsel. Der Beitrag von Mitteleuropa, besonders der Vogesen, muss noch bestätigt werden. Ab dem 1. Jahrh. nach Chr. wurde die Westschweiz hauptschlich mit Blei aus den grossen Produktionszentren Norddeutschlands, vorwiegend der Eifel, versorgt. In dieser Periode setzt die Ausbeutung der Bleiminen des Wallis, besonders von Siviez, ein. Sie dienen der Deckung des örtlichen Bedarfs aber auch der Ausfuhr in das Gebiet des Genfersees und in einem bescheidenen Rahmen sogar darüber hinaus. Ab dem 4. Jahrhundert wurden vermehrt alte Objekte eingeschmolzen. Dieser Wechsel der Versorgungsquellen war vermutlich eine Folge der Wölkerwanderung in der zweiten Hälfte des 3. Jahrhunderts. Ab diesem Zeitpunkt war Helvetien der Zugang zu den Versorgungsquellen des Nordens, besonders des Rheinlandes, verwehrt. Der Abbau von Silber ist ab dem Ende des La Tène nachgewiesen, nur wenig nach dem Auftreten dieses Metalls im Wallis. Über die Römerzeit können wegen dem Fehlen entsprechender Proben keine Aussagen gemacht werden. Eine erneute Abbauperiode ist ab dem 5. Jahrhundert nachgewiesen. Die Produktion der örtlichen Minen erreicht aber erst im Mittelalter eine gewisse Bedeutung mit der Prägung von Mnzen durch die Karolinger und die Walliser Bischöfe. Die Herkunft des Silbers ist abhängig von dessen Verwendung. Mit wenigen Ausnahmen in der Zeit des La Tène und der späteren Römerzeit wurde für Kunst- und Kult- Gegenstände rezykliertes Silber verwendet, für Münzprägungen neues Silber aus den örtlichen Minen. Von Einfluss auf die Herkunft war auch der Produktionsstandort: Die Objekte aus dem Wallis unterscheiden sich deutlich von jenen des Mittellandes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses méthodes de classification automatique de textes (supervisée ou non) existent. Elles se sont particulièrement développées depuis la création du web en vue d'améliorer les moteurs de recherche. Au delà de ce champs d'application, elles peuvent aussi être utiles pour « découvrir » ou « redécou­vrir » ce qui caractérise une classe de textes aussi simplement que possible. Dans l'approche statistique développée ici, il s'agira de partitionner des parties de textes en types de discours tels que narratif, explicatif, argumentatif etc. en utilisant un minimum d'information, à savoir les catégories morphosyn­taxiques (CMS). Les premiers résultats obtenus mettent en évidence des liens significatifs entre les CMS, les types de discours et des textes annotés par un expert humain ; ces relations sont toutefois encore incomplètes et difficiles à interpréter d'un point de vue linguistique.