63 resultados para Matériaux à empreintes
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
Les tumeurs malignes des cavités naso-sinusiennes (CNS) représentent environ 3% des cancers ORL. La poussière de bois est reconnue comme cancérigène pour l'homme (IARC, classe 1A) et la maladie professionnelle formellement identifiée est le CNS ou le cancer de l'ethmoïde. L'adénocarcinome des CNS est une maladie professionnelle admise chez certains travailleurs spécialisés tels les menuisiers et les ébénistes. Selon les enquêtes WOODEX dans les 25 états membres de UE en 2006, environ 3.6 millions de travailleurs sont exposés par voie respiratoire à la poussière de bois, soit 2% de la population active. En France, 307 000 travailleurs sont exposés, et il y a environ 200 cas de cancers sino-nasaux reconnus comme maladie professionnelle par année. La forte proportion de travailleurs du bois développant un adénocarcinome des CNS a suggéré diverses pistes, tel que le tanin pour les bois durs, le formaldéhyde pour les contre-plaqués et le benzo(a)pyrène produit par le bois surchauffé. Il est reconnu que le tanin ne provoque pas de cancer dans l'exposition à la poussière de thé. Le formaldéhyde est un irritant mais il est aussi classé cancérogène. La piste des hydrocarbures aromatiques polycycliques (HAP) cancérogènes provoqués par le bois surchauffé est séduisante. Nous avons étudié leur teneur en fonction des opérations pratiquées sur le bois en cabine d'expérimentation. Les matériaux testés sont du sapin brut, du chêne et chêne imprégné de polyuréthane. La poussière de bois contient des HAP au niveau du µg/g ou ppm. Le bois imprégné de vernis PU produit 100 fois plus de HAP que le bois brut lors des opérations de ponçage.
Resumo:
Le forensicien joue fréquemment le rôle d'expert judiciaire. Dans cette responsabilité, il doit par exemple évaluer le lien qu'est susceptible d'entretenir une trace avec une source putative (une personne, un objet) donnée. L'expert examine aussi parfois la relation entre deux traces (proviennent-elles de la même source ?), combine les indices, ou interprète les activités possibles en regard des traces recueillies. Un mouvement dominant et intégrateur préconise d'effectuer cette évaluation au moyen de probabilités qui expriment dans un cadre formel les incertitudes inhérentes à ce genre de questions. Basé sur le théorème découvert par le révérend Bayes sur la probabilité des causes, le rapport de vraisemblance équilibre le point de vue de l'accusation (par exemple, probabilité de la trace, sachant que x en est à l'origine) et de la défense (la probabilité de la trace si la source n'est pas x). L'exploitation de ce modèle fait appel à l'expérience de l'expert, mais aussi à de grandes quantités de données représentatives qui doivent encore être rassemblées. Une tendance consiste aussi à exploiter pour cela les données stockées par l'utilisation de systèmes automatisés (empreintes digitales, projectiles, etc.). De nouvelles possibilités d'extraire des caractéristiques encore inexplorées à partir des traces sont susceptibles d'augmenter considérablement les moyens pour les experts judiciaires d'apporter des réponses probabilistes dans des circonstances toujours plus variées aux autorités judiciaires qui les mandatent.
Resumo:
Dans les dernières années du 20ème siècle, l'aluminium a fait l'objet de beaucoup de communications outrancières et divergentes cautionnées par des scientifiques et des organismes faisant autorité. En 1986, la société PECHINEY le décrète perpétuel tel le mouvement « L'aluminium est éternel. Il est recyclable indéfiniment sans que ses propriétés soient altérées », ce qui nous avait alors irrité. Peu de temps après, en 1990, une communication tout aussi outrancière et irritante d'une grande organisation environnementale, le World Wild Fund, décrète que « le recyclage de l'aluminium est la pire menace pour l'environnement. Il doit être abandonné ». C'est ensuite à partir de la fin des années 1990, l'explosion des publications relatives au développement durable, le bien mal nommé. Au développement, synonyme de croissance obligatoire, nous préférons société ou organisation humaine et à durable, mauvaise traduction de l'anglais « sustainable », nous préférons supportable : idéalement, nous aurions souhaité parler de société durable, mais, pour être compris de tous, nous nous sommes limités à parler dorénavant de développement supportable. Pour l'essentiel, ces publications reconnaissent les très graves défauts de la métallurgie extractive de l'aluminium à partir du minerai et aussi les mérites extraordinaires du recyclage de l'aluminium puisqu'il représente moins de 10% de la consommation d'énergie de la métallurgie extractive à partir du minerai (on verra que c'est aussi moins de 10% de la pollution et du capital). C'est précisément sur le recyclage que se fondent les campagnes de promotion de l'emballage boisson, en Suisse en particulier. Cependant, les données concernant le recyclage de l'aluminium publiées par l'industrie de l'aluminium reflètent seulement en partie ces mérites. Dans les années 1970, les taux de croissance de la production recyclée sont devenus plus élevés que ceux de la production électrolytique. Par contre, les taux de recyclage, établis à indicateur identique, sont unanimement tous médiocres comparativement à d'autres matériaux tels le cuivre et le fer. Composante de l'industrie de l'aluminium, le recyclage bénéficie d'une image favorable auprès du grand public, démontrant le succès des campagnes de communication. A l'inverse, à l'intérieur de l'industrie de l'aluminium, c'est une image dévalorisée. Les opinions émises par tous les acteurs, commerçants, techniciens, dirigeants, encore recueillies pendant ce travail, sont les suivantes : métier de chiffonnier, métier misérable, métier peu technique mais très difficile (un recycleur 15 d'aluminium n'a-t-il pas dit que son métier était un métier d'homme alors que celui du recycleur de cuivre était un jeu d'enfant). A notre avis ces opinions appartiennent à un passé révolu qu'elles retraduisent cependant fidèlement car le recyclage est aujourd'hui reconnu comme une contribution majeure au développement supportable de l'aluminium. C'est bien pour cette raison que, en 2000, l'industrie de l'aluminium mondiale a décidé d'abandonner le qualificatif « secondaire » jusque là utilisé pour désigner le métal recyclé. C'est en raison de toutes ces données discordantes et parfois contradictoires qu'a débuté ce travail encouragé par de nombreuses personnalités. Notre engagement a été incontestablement facilité par notre connaissance des savoirs indispensables (métallurgie, économie, statistiques) et surtout notre expérience acquise au cours d'une vie professionnelle menée à l'échelle mondiale dans (recherche et développement, production), pour (recherche, développement, marketing, stratégie) et autour (marketing, stratégie de produits connexes, les ferro-alliages, et concurrents, le fer) de l'industrie de l'aluminium. Notre objectif est de faire la vérité sur le recyclage de l'aluminium, un matériau qui a très largement contribué à faire le 20ème siècle, grâce à une revue critique embrassant tous les aspects de cette activité méconnue ; ainsi il n'y a pas d'histoire du recyclage de l'aluminium alors qu'il est plus que centenaire. Plus qu'une simple compilation, cette revue critique a été conduite comme une enquête scientifique, technique, économique, historique, socio-écologique faisant ressortir les faits principaux ayant marqué l'évolution du recyclage de l'aluminium. Elle conclut sur l'état réel du recyclage, qui se révèle globalement satisfaisant avec ses forces et ses faiblesses, et au-delà du recyclage sur l'adéquation de l'aluminium au développement supportable, adéquation largement insuffisante. C'est pourquoi, elle suggère les thèmes d'études intéressant tous ceux scientifiques, techniciens, historiens, économistes, juristes concernés par une industrie très représentative de notre monde en devenir, un monde où la place de l'aluminium dépendra de son aptitude à satisfaire les critères du développement supportable. ABSTRACT Owing to recycling, the aluminium industry's global energetic and environmental prints are much lower than its ore extractive metallurgy's ones. Likewise, recycling will allow the complete use of the expected avalanche of old scraps, consequently to the dramatic explosion of aluminium consumption since the 50's. The recycling state is characterized by: i) raw materials split in two groups :one, the new scrap, internal and prompt, proportional to semi-finished and finished products quantities, exhibits a fairly good and regular quality. The other, the old scrap, proportional to the finished products arrivïng at their end-of--life, about 22 years later on an average, exhibits a variable quality depending on the collect mode. ii) a poor recycling rate, near by that of steel. The aluminium industry generates too much new internal scrap and doesn't collect all the availa~e old scrap. About 50% of it is not recycled (when steel is recycling about 70% of the old scrap flow). iii) recycling techniques, all based on melting, are well handled in spite of aluminium atiiníty to oxygen and the practical impossibility to purify aluminium from any impurity. Sorting and first collect are critical issues before melting. iv) products and markets of recycled aluminium :New scraps have still been recycled in the production lines from where there are coming (closed loop). Old scraps, mainly those mixed, have been first recycled in different production lines (open loop) :steel deoxidation products followed during the 30's, with the development of the foundry alloys, by foundry pieces of which the main market is the automotive industry. During the 80's, the commercial development of the beverage can in North America has permitted the first old scrap recycling closed loop which is developing. v) an economy with low and erratic margins because the electrolytic aluminium quotation fixes scrap purchasing price and recycled aluminium selling price. vi) an industrial organisation historically based on the scrap group and the loop mode. New scrap is recycled either by the transformation industry itself or by the recycling industry, the remelter, old scrap by the refiner, the other component of the recycling industry. The big companies, the "majors" are often involved in the closed loop recycling and very seldom in the open loop one. To-day, aluminium industry's global energetic and environmental prints are too unbeara~ e and the sustainaЫe development criteria are not fully met. Critical issues for the aluminium industry are to better produce, to better consume and to better recycle in order to become a real sustainaЫe development industry. Specific issues to recycling are a very efficient recycling industry, a "sustainaЫe development" economy, a complete old scrap collect favouring the closed loop. Also, indirectly connected to the recycling, are a very efficient transformation industry generating much less new scrap and a finished products industry delivering only products fulfilling sustainaЫe development criteria.
Resumo:
Ce livre, publié grâce aux soutiens logistiques et financiers du Lausanne Underground Film and Music Festival et du Groupe de la Riponne, est le premier de la collection Rip on / off. Textes édités et traduits (de l'anglais) par Christian Indermuhle et Thibault Walter dans le cadre des activités éditoriales du Groupe de la Riponne à l'occasion du Lausanne Underground Film and Music Festival 2008. Avec des collaborations de Nikola Mounoud, Boris Wlassof, Fernando Sixto, Guy-Marc Hinant, Naut Humon pour les textes ; de Julien Notter et Sébastien Vigne pour le graphisme. Un CD original, Form & Disposition, composé et masterisé par Zbigniew Karkowski, joué aux percussions par Daniel Buess et enregistré par Alex Buess en septembre 2008 aux studios 2.8.1 à Bâle, est offert avec ce livre. "Ces textes ne sont pas des compléments à l'oeuvre musicale de Zbigniew Karkowski, ils n'en sont ni une théorie, ni une explication. La musique se suffit à elle-même, elle déploie ses propres régimes d'intelligence et de conceptualités. Il s'agit donc ici de dire autre chose. Et de permettre à zk de rendre compte de sa pratique et de sa longue expérimentation de la matérialité des sons et de leur puissance. Quand nous avons choisi d'éditer, de traduire ces textes et de les enrichir de matériaux nouveaux, nous savions que nous ne pouvions nous dispenser des réseaux souterrains multipliés qu'un tel projet suppose. Ainsi, et suite à plusieurs rencontres, notamment dans le cadre de concerts donnés depuis 2005 sur la scène du luff, nous avons demandé à zk d'écrire ce livre, de rassembler ses textes d'il y a vingt ans ceux-là mêmes qui flottaient à la dérive du web, et de les compléter en enrichissant les entretiens qu'il avait eus en 2002 avec Boris Wlassof, dont les textes avaient initialement été publiés dans le numéro 59 de Revue et Corrigée. Nous avons choisi par ailleurs d'aider ou de perdre le lecteur en lui proposant, pour se guider un peu, en fin de parcours, deux glossaires reprenant quelques uns des termes musicaux et des personnages évoqués dans ce livre, et aussi d'inviter Fernando Sixto et Naut Humon à nous donner l'écho de deux oreilles ayant entendu l'oeuvre de zk, afin que ce livre multipliât les accès à ses univers musicaux, et qu'il ne soit pas le marbre qui refermât leur tombeau. Le bruit est vivant, c'est cette vitalité qu'il s'agit ici d'écouter."
Resumo:
RESUME En Amérique Centrale et en Amérique du Sud, la leishmaniose cutanéo-muqueuse (LCM) est provoquée par le protozoaire Leishmania du sous-genre Viannia dont font partie L. (V.) braziliensis, L. (V.) panamensis et L. (V.) guyanensis. Dans la LCM, après guérison apparente de la lésion primitive, des lésions secondaires peuvent apparaître dues à la migration de l'infection à partir du site d'inoculation vers les muqueuses de l'ororhino-pharynx. Ce type de dissémination, communément appelé métastase, peut se produire plusieurs années après la guérison de la lésion cutanée initiale, et est un facteur majeur contribuant à la morbidité associée à la LCM. L'expression reproductible de l'activité métastatique au sein de populations discrètes de leishmanies chez le hamster fournit un modèle expérimental permettant d'étudier le degré de virulence du parasite. Nous avons utilisé des clones de L. (V.) guyanensis présentant des phénotypes stables allant d'un caractère hautement métastatique (M+) à non-métastatique (M-) comme outils pour mettre en évidence des facteurs spécifiques liés à la métastase chez les leishmanies du Nouveau Monde. Des analyses protéomiques comparatives utilisant l'électrophorèse bidimensionnelle sur gel de polyacrylamide couplée à de la spectrométrie de masse ont permis l'identification de plusieurs formes de la tryparedoxine peroxidase (TXNPx) en tant que polypeptides associés au phénotype métastatique. TXNPx, une enzyme de la famille des peroxiredoxines (Prxs), protéines antioxydantes, fonctionne comme la dernière peroxydase d'une cascade d'oxydoréductases qui réduit le peroxyde d'hydrogène aux dépens de NADPH. Toutes les Prxs sont caractérisées par un (1-Cys Prx) ou par deux résidus cystéines (2-Cys Prx), respectivement placés dans un environnement structurel conservé de la protéine et sont centrales dans la réaction catalytique. Des immuno-empreintes (« immunoblotting ») ont révélé que TXNPx est présente sous forme dimérique dans les promastigotes (M+) alors que dans les promastigotes, (M-) TXNPx est présente sous forme monomérique et dimérique. Cette caractéristique spécifique de dimérisation pourrait expliquer les différentes activités enzymatiques observées entre les deux promastigotes (M+) et (M-) en présence de peroxyde d'hydrogène ainsi que leur différence de survie et de charge parasitaire à l'intérieur des macrophages. Par conséquent, le processus métastatique pourrait être lié à la capacité du parasite à échapper efficacement aux défenses microbicides de la cellule hôte. ABSTRACT In South and Central America, protozoan parasites of the Leishmania Viannia subgenus including L. (V.) braziliensis, L. (V.) guyanensis and L. (V). panamensis cause mucocutaneous leishmaniasis (MCL). In MCL, after apparent cure of the primary lesion, secondary lesions may appear in the nasopharyngeal tissues of the infected host due to dissemination of the infection from the inoculation site. This type of dissemination, known as metastasis, can occur several years after healing of the original cutaneous lesion, and is a major contributory factor to the morbidity associated with MCL. The reproducible expression of metastasis by discrete populations of Leishmania parasites in hamsters provides an experimental model to examine the expression of parasite virulence. We used laboratory clones of L. (V.) guyanensis with stable phenotypes ranging from highly metastatic (M+) to non-metastatic (M-) as tools for the discovery of specific factors associated with metastasis in New World Leishmania species. Comparative proteome analyses via 2D-electrophoresis (2-DE) coupled with mass spectrometry (MS) enabled the identification of various isoforms of tryparedoxin peroxidase (TXNPx) as polypeptides associated with the metastatic phenotype. TXNPx, an enzyme related to the antioxidant peroxiredoxin family (Prx) functions as the terminal peroxidase of a redox cascade that reduces hydroperoxides by NADPH. All Prxs are characterized by one (1-Cys Prx) or two cysteine residue(s) (2-Cys Prx), respectively, located in a conserved structural environment of the protein which are central for the catalytic reaction. Immunoblotting analysis revealed that, under non-reducing denaturing conditions, TXNPx is present in dimeric forms in (M+) promastigotes, whereas in (M-) promastigotes, both monomeric and dimeric forms are found. This specific dimerization feature may explain the different enzymatic activities of both (M+) and (M-) promastigote parasites in the presence of H2O2 and their difference in survival and parasite load inside macrophages. Therefore, the metastatic process could be related to the ability of the parasite to efficiently evade the microbicidal effect of the host cell.
Resumo:
Résumé au large public Notre corps est constitué de différents types de cellules. La condition minimale ou primordiale pour la survie des cellules est d'avoir de l'énergie. Cette tâche est assumée en partie par une protéine qui se situe dans la membrane de chaque cellule. Nommé Na, K¬ATPase ou pompe à sodium, c'est une protéine pressente dans toutes les cellules chez les mammifères est composée de deux sous-unités, α et β. En transportant 3 ions de sodium hors de la cellule et 2 ions de potassium à l'intérieur de la cellule, elle transforme l'énergie chimique sous forme de l'ATP en énergie motrice, qui permet aux cellules par la suite d'échanger des matériaux entre l'espace intracellulaire et extracellulaire ainsi que d'ingérer des nutriments provenant de son environnement. Le manque de cette protéine chez la souris entraîne la mort de l'embryon. Des défauts fonctionnels de cette protéine sont responsables de plusieurs maladies humaines comme par exemple, un type de migraine. En dehors de sa fonction vitale, cette protéine est également engagée dans diverses activités physiologiques comme la contractilité musculaire, l'activité nerveuse et la régulation du volume sanguin. Vue l'importance de cette protéine, sa découverte par Jens C. Skou en 1957 a été honorée d'un Prix Noble de chimie quarante ans plus tard. Depuis lors, nous connaissons de mieux en mieux les mécanismes de fonctionnement de la Na, K-ATPase. Entre autre, sa régulation par une famille de protéines appelées protéines FXYD. Cette famille contient 7 membres (FXYD 1-7). L'un d'entre eux nommé FXYD 2 est lié à une maladie héréditaire connue sous le nom de hypomagnesemia. Nous disposons actuellement d'informations concernant les conséquences de la régulation par les protéines FXYD sur activité de la Na, K-ATPase, mais nous savons très peu sur le mode d'interaction entre les protéines FXYD et la Na, K-ATPase. Dans ce travail de thèse, nous avons réussi à localiser des zones d'interaction dans la sous- unité a de la Na, K-ATPase et dans FXYD 7. En même temps, nous avons déterminé un 3ème site de liaison spécifique au sodium de la Na, K-ATPase. Une partie de ce site se situe à l'intérieur d'un domaine protéique qui interagit avec les protéines FXYD. De plus, ce site a été démontré comme responsable d'un mécanisme de transport de la Na, K-ATPase caractérisé par un influx ionique. En conclusion, les résultats de ce travail de thèse fournissent de nouvelles preuves sur les régions d'interaction entre la Na, K-ATPase et les protéines FXYD. La détermination d'un 3ème site spécifique au sodium et sa relation avec un influx ionique offrent la possibilité 1) d'explorer les mécanismes avec lesquels les protéines FXYD régulent l'activité de la Na, ATPase et 2) de localiser un site à sodium qui est essentielle pour mieux comprendre l'organisation et le fonctionnement de la Na, K-ATPase. Résumé Les gradients de concentration de Na+ et de K+ à travers la membrane plasmatique des cellules animales sont cruciaux pour la survie et l'homéostasie de cellules. De plus, des fonctions cellulaires spécifiques telles que la reabsorption de Na dans le rein et le côlon, la contraction musculaire et l'excitabilité nerveuse dépendent de ces gradients. La Na, K¬ATPase ou pompe à sodium est une protéine membranaire ubiquitaire. Elle crée et maintient ces gradients en utilisant l'énergie obtenu par l'hydrolyse de l'adénosine triphosphate. L'unité fonctionnelle minimale de cette protéine se compose d'une sous-unité catalytique α et d'une sous-unité régulatrice β. Récemment, il a été montré que des membres de la famille FXYD, sont des régulateurs tissu-spécifiques de la Na, K-ATPase qui influencent ses propriétés de transport. Cependant, on connaît peu de chose au sujet de la nature moléculaire de l'interaction entre les protéines FXYD et la Na, K-ATPase. Dans cette étude, nous fournissons, pour la première fois, l'évidence directe que des résidus du domaine transmembranaire (TM) 9 de la sous-unité α de la Na, K-ATPase sont impliqués dans l'interaction fonctionnelle et structurale avec les protéines FXYD. De plus nous avons identifié des régions dans le domaine transmembranaire de FXYD 7 qui sont importantes pour l'association stable avec la Na, K-ATPase et une série de résidus responsables des régulations fonctionnelles. Nous avons aussi montré les contributions fonctionnelles du TM 9 de la Na, K-ATPase à la translocation de Na + en déterminant un 3ème site spécifique au Na+. Ce site se situe probablement dans un espace entre TM 9, TM 6 et TM 5 de la sous-unité α de la pompe à sodium. De plus, nous avons constaté que le 3ème site de Na + est fonctionnellement lié à un courant entrant de la pompe sensible à l'ouabaïne et activé par le pH acide. En conclusion, ce travail donne de nouvelles perspectives de l'interaction structurale et fonctionnelle entre les protéines FXYD et la Na, K-ATPase. En outre, les contributions fonctionnelles de TM 9 offrent de nouvelles possibilités pour explorer le mécanisme par lequel les protéines FXYD régulent les propriétés fonctionnelles de la Na, K-ATPase. La détermination du 3ème site au Na + fournit une compréhension avancée du site spécifique au Na + de la Na, K-ATPase et du mécanisme de transport de la Na, K-ATPase. Summary The Na+ and K+ gradients across the plasma membrane of animal cells are crucial for cell survival and homeostasis. Moreover, specific tissue functions such as Na+ reabsorption in kidney and colon, muscle contraction and nerve excitability depend on the maintenance of these gradients. Na, K-ATPase or sodium pump, an ubiquitous membrane protein, creates and maintains these gradients by using the energy from the hydrolysis of ATP. The minimal functional unit of this protein is composed of a catalytic α subunit and a regulatory β subunit. Recently, members of the FXYD family, have been reported to be tissue-specific regulators of Na, K-ATPase by influencing its transport properties. However, little is known about the molecular nature of the interaction between FXYD proteins and Na, K-ATPase. In this study, we provide, for the first time, direct evidence that residues from the transmembrane (TM) domain 9 of the α subunit of Na, K-ATPase are implicated in the functional and structural interaction with FXYD proteins. Moreover, we have identified regions in the TM domain of FXYD 7 important for the stable association with Na, K-ATPase and a stretch of residues responsible for the functional regulations. We have further revealed the functional contributions of TM 9 of the Na, K-ATPase α subunit to the Na+ translocation by determining a 3rd Na+-specific cation binding site. This site is likely in a space between TM 9, TM 6 and TM 5 of the a subunit of the sodium pump. Moreover, we have found that the 3rd Na+ binding site is functionally linked to an acidic pH- activated ouabain-sensitive inward pump current. In conclusion, this work gives new insights into the structural and functional interaction between FXYD proteins and Na, K-ATPase. Functional contributions of TM 9 offer new possibilities to explore the mechanism by which FXYD proteins regulate functional properties of Na, K-ATPase. The determination of the 3rd Na+ binding site provides an advanced understanding concerning the Na+ -specific binding site of Na, K-ATPase and the 3rd Na+ site related transport mechanism.
Resumo:
RESUME Les améliorations méthodologiques des dernières décennies ont permis une meilleure compréhension de la motilité gastro-intestinale. Il manque toutefois une méthode qui permette de suivre la progression du chyme le long du tube gastro-intestinal. Pour permettre l'étude de la motilité de tout le tractus digestif humain, une nouvelle technique, peu invasive, a été élaborée au Département de Physiologie, en collaboration avec l'EPFL. Appelée "Magnet Tracking", la technique est basée sur la détection du champ magnétique généré par des matériaux ferromagnétiques avalés. A cet usage, une pilule magnétique, une matrice de capteurs et un logiciel ont été développés. L'objet de ce travail est de démontrer la faisabilité d'un examen de la motilité gastro-intestinale chez l'Homme par cette méthode. L'aimant est un cylindre (ø 6x7 mm, 0.2 cm3) protégé par une gaine de silicone. Le système de mesure est constitué d'une matrice de 4x4 capteurs et d'un ordinateur portable. Les capteurs fonctionnent sur l'effet Hall. Grâce à l'interface informatique, l'évolution de la position de l'aimant est suivie en temps réel à travers tout le tractus digestif. Sa position est exprimée en fonction du temps ou reproduite en 3-D sous forme d'une trajectoire. Différents programmes ont été crées pour analyser la dynamique des mouvements de l'aimant et caractériser la motilité digestive. Dix jeunes volontaires en bonne santé ont participé à l'étude. L'aimant a été avalé après une nuit de jeûne et son séjour intra digestif suivi pendant 2 jours consécutifs. Le temps moyen de mesure était de 34 heures. Chaque sujet a été examiné une fois sauf un qui a répété sept fois l'expérience. Les sujets restaient en décubitus dorsal, tranquilles et pouvaient interrompre la mesure s'ils le désiraient. Ils sont restés à jeûne le premier jour. L'évacuation de l'aimant a été contrôlée chez tous les sujets. Tous les sujets ont bien supporté l'examen. Le marqueur a pu être détecté de l'oesophage au rectum. La trajectoire ainsi constituée représente une conformation de l'anatomie digestive : une bonne superposition de celle-ci à l'anatomie est obtenue à partir des images de radiologie conventionnelle (CT-scan, lavement à la gastrografine). Les mouvements de l'aimant ont été caractérisés selon leur périodicité, leur amplitude ou leur vitesse pour chaque segment du tractus digestif. Ces informations physiologiques sont bien corrélées à celles obtenues par des méthodes établies d'étude de la motilité gastro-intestinale. Ce travail démontre la faisabilité d'un examen de la motilité gastro-intestinal chez l'Homme par la méthode de Magnet Tracking. La technique fournit les données anatomiques et permet d'analyser en temps réel la dynamique des mouvements du tube digestif. Cette méthode peu invasive ouvre d'intéressantes perspectives pour l'étude de motilité dans des conditions physiologiques et pathologiques. Des expériences visant à valider cette approche en tant que méthode clinique sont en voie de réalisation dans plusieurs centres en Suisse et à l'étranger. SUMMARY Methodological improvements realised over the last decades have permitted a better understanding of gastrointestinal motility. Nevertheless, a method allowing a continuous following of lumina' contents is still lacking. In order to study the human digestive tract motility, a new minimally invasive technique was developed at the Department of Physiology in collaboration with Swiss Federal Institute of Technology. The method is based on the detection of magnetic field generated by swallowed ferromagnetic materials. The aim of our work was to demonstrate the feasibility of this new approach to study the human gastrointestinal motility. The magnet used was a cylinder (ø6x7mm, 0.2 cm3) coated with silicon. The magnet tracking system consisted of a 4x4 matrix of sensors based on the Hall effect Signals from the sensors were digitised and sent to a laptop computer for processing and storage. Specific software was conceived to analyse in real time the progression of the magnet through the gastrointestinal tube. Ten young and healthy volunteers were enrolled in the study. After a fasting period of 12 hours, they swallowed the magnet. The pill was then tracked for two consecutive days for 34 hours on average. Each subject was studied once except one who was studied seven times. Every subject laid on his back for the entire experiment but could interrupt it at anytime. Evacuation of the magnet was controlled in all subjects. The examination was well tolerated. The pill could be followed from the esophagus to the rectum. The trajectory of the magnet represented a "mould" of the anatomy of the digestive tube: a good superimposition with radiological anatomy (gastrografin contrast and CT) was obtained. Movements of the magnet were characterized by periodicity, velocity, and amplitude of displacements for every segment of the digestive tract. The physiological information corresponded well to data from current methods of studying gastrointestinal motility. This work demonstrates the feasibility of the new approach in studies of human gastrointestinal motility. The technique allows to correlate in real time the dynamics of digestive movements with the anatomical data. This minimally invasive method is ready for studies of human gastrointestinal motility under physiological as well as pathological conditions. Studies aiming at validation of this new approach as a clinically relevant tool are being realised in several centres in Switzerland and abroad. Abstract: A new minimally invasive technique allowing for anatomical mapping and motility studies along the entire human digestive system is presented. The technique is based on continuous tracking of a small magnet progressing through the digestive tract. The coordinates of the magnet are calculated from signals recorded by 16 magnetic field sensors located over the abdomen. The magnet position, orientation and trajectory are displayed in real time. Ten young healthy volunteers were followed during 34 h. The technique was well tolerated and no complication was encountered, The information obtained was 3-D con-figuration of the digestive tract and dynamics of the magnet displacement (velocity, transit time, length estimation, rhythms). In the same individual, repea-ted examination gave very reproducible results. The anatomical and physiological information obtained corresponded well to data from current methods and imaging. This simple, minimally invasive technique permits examination of the entire digestive tract and is suitable for both research and clinical studies. In combination with other methods, it may represent a useful tool for studies of Cl motility with respect to normal and pathological conditions.
Resumo:
The analysis by electron microprobe allows the evaluation of the quantity of Fe3+ ih spinels with considerable errors. The use of a correction equation which is based on a the calibration of analyses with an electron microprobe in relation to those carried out with Mossbauer spectroscopy gives more precise evaluations of Fe3+. In fact, it allows a calculation of the oxygen fugacity in peridotitic xenoliths. The obtained results show that peridotites of the French Central Massif crystallised under oxygen fugacities which were higher than those of the Moroccan Anti-Atlas.
Resumo:
La prise en charge de patients souffrant de brûlures profondes et étendues reste un défi important pour les chirurgiens reconstructeurs. Ceci est d'autant plus vrai que les grands progrès réalisés dans la réanimation assurent actuellement la survie de patients brûlés sur plus de 90% de leur surface corporelle. De ce fait la reconstruction moderne a dû innover et est devenue une chirurgie complexe nécessitant un plan stratégique impliquant des matériaux et des méthodes chirurgicales multiples adaptées à chaque situation clinique. Ce type de prise en charge nécessite aussi la collaboration étroite et coordonnée de plusieurs équipes hautement spécialisées. Le taux de survie ainsi que de la qualité de vie de ces patients sont alors nettement améliorés. De même nous observons clairement que le nombre de complications secondaires telles que les rétractions et les instabilités cicatricielles ont également diminué de façon significative.Mots-clés: brûlure, greffe, culture, substitut dermique, reconstruction.
Resumo:
L'ANSES vient de publier un rapport formulant un certain nombre de recommandations pour prévenir les divers risques affectant la santé des travailleurs exposés aux bitumes. Au-delà du potentiel cancérogène des produits bitumineux et de leurs émissions, les experts de l'ANSES ont mis en évidence dans leur expertise l'existence d'effets respiratoires et suspectent également des effets cardiovasculaires et immunotoxiques. Selon les postes de travail, les niveaux d'exposition sont plus ou moins importants. La température est également un facteur de variation de l'émission de fumée, et par conséquent de l'exposition des travailleurs au risque chimique par voie d'inhalation. Le rapport souligne également la question du risque d'exposition par voie cutanée, à l'heure actuelle encore peu considéré. Enfin, les activités de rabotage et de recyclage de plus en plus pratiquées doivent faire l'objet d'une attention particulière en raison des matériaux précédemment utilisés qui peuvent contenir de l'amiante, des silices, d'anciens bitumes soufrés...
Resumo:
Right from the beginning of the development of the medical specialty of Physical and Rehabilitation Medicine (PRM) the harmonization of the fields of competence and the specialist training across Europe was always an important issue. The initially informal European collaboration was formalized in 1963 under the umbrella of the European Federation of PRM. The European Academy of PRM and the UEMS section of PRM started to contribute in 1969 and 1974 respectively. In 1991 the European Board of Physical and Rehabilitation Medicine (EBPRM) was founded with the specific task of harmonizing education and training in PRM in Europe. The EBPRM has progressively defined curricula for the teaching of medical students and for the postgraduate education and training of PRM specialists. It also created a harmonized European certification system for medical PRM specialists, PRM trainers and PRM training sites. European teaching initiatives for PRM trainees (European PRM Schools) were promoted and learning material for PRM trainees and PRM specialists (e-learning, books and e-books, etc.) was created. For the future the Board will have to ensure that a minimal specific undergraduate curriculum on PRM based on a detailed European catalogue of learning objectives will be taught in all medical schools in Europe as a basis for the general medical practice. To stimulate the harmonization of national curricula, the existing postgraduate curriculum will be expanded by a syllabus of competencies related to PRM and a catalogue of learning objectives to be reached by all European PRM trainees. The integration of the certifying examination of the PRM Board into the national assessment procedures for PRM specialists will also have to be promoted.
Resumo:
The integration of the differential equation of the second law of Fick applied to the diffusion of chemical elements in a semi-infinite solid made it easier to estimate the time of stay of olivine mega-cristals in contact with the host lava The results of this research show the existence of two groups of olivine. The first remained in contact with the magmatic liquid during 19 to 22 days, while the second remained so during only 5 to 9 days. This distinction is correlative to that based on the qualitative observation.