629 resultados para Détection de noyaux de recul
Resumo:
RESUME: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse Les canaux sodiques ASICs (Acid-Sensing Ion Channels) participent à la signalisation neuronale dans les systèmes nerveux périphérique et central. Ces canaux non voltage dépendants sont impliqués dans l'apprentissage, l'expression de la peur, la neurodégénération consécutive à une attaque cérébrale et la douleur. Les bases moléculaires sous-tendant leur activité ne sont pas encore totalement comprises. Ces canaux sont activés par une acidification du milieu extracellulaire et régulés, entre autres, par des ions tels que le Ca2+, le Zn2+ et le CI". La cristallisation de ASIC inactivé a été publiée. Le canal est un trimére de sous-unités identiques ou homologues. Chaque sous-unité a été décrite en analogie à un avant bras, un poignet et une main constituée d'un pouce, d'un doigt, d'une articulation, une boule β et une paume. Nous avons appliqué une approche bioinformatique systématique pour identifier les pH senseurs putatifs de ASICIa. Le rôle des pH senseurs putatifs a été testé par mutagénèse dirigée et des modifications chimiques combinées à une analyse fonctionnelle afin de comprendre comment les variations de ρ H ouvrent ces canaux. Les pH senseurs sont des acides aspartiques et glutamiques éparpillés sur la boucle extracellulaire suggérant que les changements de pH contrôlent l'activation et l'inactivation de ASIC en (dé)protonant ces résidus en divers endroits de la protéine. Par exemple lors de l'activation, la protonation des résidus à l'interface entre le pouce, la boule β et le doigt d'une même sous-unité induit un mouvement du pouce vers la bouie β et le doigt. De même lors de l'inactivation du canal les paumes des trois sous-unités formant une cavité se rapprochent. D'après notre approche bioinformatique, aucune histidine n'est impliquée dans la détection des variations de pH extracellulaire c'est-à-dire qu'aucune histidine ne serait un pH-senseur. Deux histidines de ASIC2a lient le Zn2+ et modifient l'affinité apparente du canal pour les protons. Une seule des deux est conservée parmi tous les ASICs, hASICIa H163. Elle forme un réseau de liaison hydrogène avec ses voisins conservés. L'étude détaillée de ce domaine, Pinterzone, montre son importance dans l'expression fonctionnelle des canaux. La perturbation de ce réseau par l'introduction d'un résidu hydrophobe (cystéine) par mutagénèse dirigée diminue l'expression du canal à la membrane plasmique. La modification des cystéines introduites par des réactifs spécifiques aux groupements sulfhydryle inhibe les canaux mutés en diminuant leur probabilité d'ouverture. Ces travaux décrivent les effets de l'acidification du milieu extracellulaire sur les canaux ASICs. ABSTRACT: Study of pH-dependent activation and inactivation of ASIC channels Benoîte BARGETON, Department of Pharmacology and Toxicology, University of Lausanne, Rue du Bugnon 27, CH-1G05 Lausanne, Switzerland The ASIC (Acid-Sensing Ion Channels) sodium channels are involved in neuronal signaling in the central and peripheral nervous system. These non-voltage-gated channels are involved in learning, the expression of fear, neurodegeneration after ischemia and pain sensation. The molecular bases underlying their activity are not yet fully understood. ASICs are activated by extracellular acidification and regulated, eg by ions such as Ca2+, the Zn2+ and CI". The crystallization of inactivated ASIC has been published. The channel is a trimer of identical or homologous subunits. Each subunit has been described in analogy to a forearm, wrist and hand consisting of a thumb, a finger, a knuckle, a β-ball and a palm. We applied a systematic computational approach to identify putative pH sensor(s) of ASICIa. The role of putative pH sensors has been tested by site-directed mutagenesis and chemical modification combined with functional analysis in order to understand how changes in pH open these channels. The pH sensors are aspartic and glutamic acids distributed throughout the extracellular loop, suggesting that changes in pH control activation and inactivation of ASIC by protonation / deprotonation of many residues in different parts of the protein. During activation the protonation of various residues at the interface between the finger, the thumb and the β-ball induces the movement of the thumb toward the finger and the β-ball. During inactivation of the channel the palms of the three subunits forming a cavity approach each other. No histidine has been shown to be involved in extracellular pH changes detection, i.e. no histidine is a pH- sensor. Two histidines of ASIC2 bind Zn2+ and alter the apparent affinity of channel for protons. Only one of the two His is conserved among all ASICs, hASICIa H163. This residue is part of a network of hydrogen bonding with its conserved neighbors. The detailed study of this area, the interzone, shows its importance in the functional expression of ASICs. Disturbance of this network by the introduction of hydrophobic residues decreases the cell surface channel expression. Chemical modification of the introduced cysteines by thiol reactive compounds inhibits the mutated channels by a reduction of their open probability. These studies describe the effects of extracellular acidification on ASICs. RESUME GRAND PUBLIC: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse La transmission synaptique est un processus chimique entre deux neurones impliquant des neurotransmetteurs et leurs récepteurs. Un dysfonctionnement de certains types de synapses est à l'origine de beaucoup de troubles nerveux, tels que certaine forme d'épilepsie et de l'attention. Les récepteurs des neurotransmetteurs sont de très bonnes cibles thérapeutiques dans de nombreuses neuropathologies. Les canaux ASICs sont impliqués dans la neurodégénération consécutive à une attaque cérébrale et les bloquer pourraient permettre aux patients d'avoir moins de séquelles. Les canaux ASICs sont des détecteurs de l'acidité qui apparaît lors de situations pathologiques comme l'ischémie et l'inflammation. Ces canaux sont également impliqués dans des douleurs. Cibler spécifiquement ces canaux permettrait d'avoir de nouveaux outils thérapeutiques car à l'heure actuelle l'inhibiteur de choix, l'amiloride, bloque beaucoup d'autres canaux empêchant son utilisation pour bloquer les ASICs. C'est pourquoi il faut connaître et comprendre les bases moléculaires du fonctionnement de ces récepteurs. Les ASICs formés de trois sous-unités détectent les variations de l'acidité puis s'ouvrent transitoirement pour laisser entrer des ions chargés positivement dans la cellule ce qui active la signalisation neuronale. Afin de comprendre les bases moléculaires de l'activité des ASICs nous avons déterminé les sites de liaison des protons (pH-senseurs), ligands naturels des ASICs et décrit une zone importante pour l'expression fonctionnelle de ces canaux. Grâce à une validation systématique de résultats obtenus en collaboration avec l'Institut Suisse de Bioinformatique, nous avons décrit les pH-senseurs de ASICIa. Ces résultats, combinés à ceux d'autres groupes de recherche, nous ont permis de mieux comprendre comment les ASICs sont ouverts par une acidification du milieu extracellulaire. Une seconde étude souligne le rôle structural crucial d'une région conservée parmi tous les canaux ASICs : y toucher c'est diminuer l'activité de la protéine. Ce domaine permet l'harmonisation des changements dus à l'acidification du milieu extracellulaire au sein d'une même sous-unité c'est-à-dire qu'elle participe à l'induction de l'inactivation due à l'activation du canal Cette étude décrit donc quelle région de la protéine atteindre pour la bloquer efficacement en faisant une cible thérapeutique de choix.
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Après avoir situé le contexte de la recherche et défini les enjeux principaux du travail, différents types de nanoparticules, ainsi que leurs principales caractéristiques, sont parcourues. L'élaboration de critères de sélection ayant permis de déterminer les types de nanoparticules potentiellement adaptés à !a détection de traces papillaires, l'étude s'est alors focalisée sur deux familles de composés: les quantum dots et les nanoparticules d'oxyde de silicium. Deux types de quantum dots ont été synthétisés : le tellurure de cadmium et le sulfure de zinc). Ils n'ont toutefois pas permis la détection de traces papillaires réalistes. En effet, seules des traces fraîches et enrichies en sécrétions ont pu être mises en évidence. Toutefois, des résultats ont été obtenus avec les deux types de quantum dots pour la détection de traces papillaires sanglantes. Après optimisation, les techniques rivalisent avec les méthodes couramment appliquées en routine. Cependant, l'interaction se produisant entre les traces et les nanoparticules n'a pas pu être déterminé. Les nanoparticules d'oxyde de silicium ont dès lors été appliquées dans le but de comprendre plus en détails les interactions avec les traces papillaires. Ces nanoparticules ont l'avantage d'offrir un très bon contrôle de surface, permettant ainsi une étude détaillée des phénomènes en jeu. Des propriétés de surface variables ont dès lors été obtenues en greffant diverses molécules à la surface des nanoparticules d'oxyde de silicium. Après avoir exploré différentes hypothèses d'interaction, il a pu être déterminé qu'une réaction chimique se produit lors qu'un groupement de type carboxyle est présent à la surface des particules. Ce groupement réagit avec les fonctions amines primaires des sécrétions. L'interaction chimique a ensuite pu être renforcée par l'utilisation d'un catalyseur, permettant d'accélérer la réaction. Dans la dernière partie du travail, les nanoparticules d'oxyde de silicium ont été comparées à une technique utilisée en routine, la fumigation de cyanoacrylate. Bien que des études plus approfondies soient nécessaires, il s'avère que l'application de nanoparticules d'oxyde de silicium permet une détection de très bonne qualité, moins dépendante du donneur que les techniques courantes. Ces résultats sont prometteurs en vue du développement d'une technique possédant une sensibilité et une sélectivité accrue. - Having situated the background of research and identified key issues of work, different types of nanoparticles and their main features are reviewed. The development of selection criteria lead to the identification of nanoparticles types potentially suitable for fingermarks detection. The study focused then On two families of compounds: quantum dots and silicon oxide nanoparticles. Two types of quantum dots were synthesized and characterised: cadmium telluride and zinc sulphide. Unfortunally, they did not allow the detection realistic fingermarks. Indeed, only fresh and groomed fingermarks have been detected. However, results have been obtained with both types of quantum dots for the detection of fingermarks in blood. After optimization procedures, the quantum dots based teshniques compete with the methods currently used in routine. However, the interaction occurring between fingermarks and nanoparticles could not be determined. Silicon oxide nanoparticles have therefore been applied in order to understand in detail the interactions With fingermarks. These nanoparticles have the advantage of providing a very good surface control, allowing am in-depth study of the phenomena involved. Versatile surface properties were therefore obtained by grafting various molecules on the surface of silicon oxide nanoparticles. Different hypotheses were investigated and it was determined that a chemical reaction occurred between the surface functionalised nanoparticles and the fingermark residues. The carboxyl groups on the surface of the particles react with primary amines of the secretions. Therefore, this interaction was improved by the use of a catalyst. In the last part of the work, silicon oxide nanoparticles were compared to a routinely used technique: cyanocrylate fuming. Although further studies are still needed, it appears that the application of silicon oxide nanoparticles allows fingermark detection of very good quality, with a lowered donor dependency. These results are promising for the development of techniques with greater sensitivity and selectivity.
Resumo:
Au vu de l'augmentation de la prévalence de l'insuffisance rénale chronique (IRC), une détection précoce a été proposée. Certaines organisations de santé proposent des mesures de détection précoce (par exemple : taux de filtration glomérulaire). L'efficacité du dépistage de l'IRC n'est cependant pas connue puisqu'aucune étude randomisée contrôlée n'a été conduite. Si le test de dépistage de l'IRC est simple et peu onéreux, un dépistage n'est justifié que s'il améliore le pronostic par rapport à l'absence de dépistage avec un rapport risques-bénéfices favorable et un rapport coût-efficacité acceptable. Sur la base d'études observationnelles et de modèles de rapport coût-efficacité, le dépistage de l'IRC doit être proposé chez les patients hypertendus et/ou diabétiques mais pas dans la population générale. [Abstract] Given the increasing prevalence of chronic kidney disease (CKD), early detection has been proposed. Some organizations recommend CKD screening. Yet, the efficacy of CKD screening is unknown given the absence of randomized controlled trial conducted so far. While CKD screening tests (e.g., glomerular filtration rate) are simple and inexpensive, CKD screening can only be justified if it reduces CKD-related mortality and/or CKD-related morbidity compared to no screening. In addition, CKD screening must provide more benefits than risks to the participants and must be cost-effective. Based on observational studies and cost-effectiveness models, CKD screening has to be proposed to high risk population (patients with hypertension and/or diabetes) but not to the general population.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
Contexte : La stimulation du nerf vague est une technique neurochirurgicale qui consiste en l'implantation d'une électrode envoyant des impulsions autours de celui-ci. Depuis l'approbation de la FDA en 1997 aux Etats-Unis, elle est utilisée chez certains patients épileptiques pharmaco-résistants et dont la chirurgie classique n'est pas envisageable [1], Par exemple lorsque qu'aucun foyer épileptique n'est identifiable, qu'une zone éloquente du cortex est atteinte ou encore qu'il y a de multiples points de départ. On parle généralement de patient « répondeur » lorsqu'une diminution de plus de 50% des crises est observée après l'opération. La proportion de patients répondeurs est estimée entre 20 à 50% [2], avec une action positive sur l'éveil [3]. Le mécanisme d'action de cette thérapie reste largement inconnu même si quelques ébauches d'hypothèses ont été formulées, notamment une action inhibitrice sur le noyau solitaire du nerf vague qui pourrait avoir comme effet de moduler des projections ascendantes diffuses via le locus coeruleus [3, 4]. Objectifs : Le but de ce travail est d'observer les effets de la stimulation du nerf vague sur le métabolisme cérébral et potentiellement d'élaborer des hypothèses sur le mécanisme d'action de ce traitement. Il faudra plus précisément s'intéresser au tronc cérébral, contenant le locus coeruleus (métabolisme de la noradrénaline) et aux noyaux du raphé (métabolisme de la sérotonine), deux neurotransmetteurs avec effet antiépileptique [5]. Le but sera également d'établir des facteurs prédictifs sur la façon de répondre d'un patient à partir d'une imagerie cérébrale fonctionnelle avant implantation, notamment au niveau du métabolisme cortical, particulièrement frontal (éveil) sera intéressant à étudier. Méthodes : Un formulaire d'information ainsi que de consentement éclairé sera remis à chaque patient avant inclusion dans l'étude. Les informations de chaque patient seront également inscrites dans un cahier d'observation (Case Report Form, CRF). Le travail s'organisera essentiellement sur deux populations. Premièrement, chez les patients déjà opérés avec un stimulateur en marche, nous réaliserons qu'une imagerie PET au F-18-fluorodeoxyglucose (FDG) post-opératoire qui seront comparés à une base de données de patients normaux (collaboration Dr E. Guedj, AP-HM, La Timone, Marseille). Nous confronterons également les images de ces patients entre elles, en opposant les répondeurs (diminution des crises de ≥50%) aux non-répondeurs. Deuxièmement, les patients non encore opérés auront un examen PET basal avant implantation et 3-6 mois après la mise en marche du stimulateur. Nous évaluerons alors les éventuelles modifications entre ces deux imageries PET, à la recherche de différences entre les répondeurs et non-répondeurs, ainsi que de facteurs prédictifs de bonne réponse dans l'imagerie de base. Toutes les comparaisons d'images seront effectuées grâce avec le programme d'analyse SPM08. Résultats escomptés : Nous espérons pouvoir mettre en évidence des modifications du métabolisme cérébral au FDG sur la base de ces différentes images. Ces constatations pourraient nous permettre de confirmer ou d'élargir les hypothèses physiologiques quant aux effets du traitement par stimulation vagale. Nous aimerions, de plus, amener à définir des facteurs prédictifs sur la façon de répondre d'un patient au traitement à l'aide du PET au F-18-FDG de départ avant implantation. Plus value escomptée : Ces résultats pourront donner des pistes supplémentaires quant au fonctionnement de la stimulation vagale chez les patients avec épilepsie réfractaire et servir de base à de nouvelles recherches dans ce domaine. Ils pourraient aussi donner des éléments pronostics avant l'implantation pour aider la sélection des patients pouvant bénéficier de ce type de thérapie.
Resumo:
Contexte: L'intervention "Break The Chains" 2012 de l'OFSP a l'intention des gays visait à informer sur la primo-infection et a inciter a un test de dépistage VIH. Design: L'évaluation a recouru a un design Pre-Post avec 2 dispositifs: A) enquête par questionnaire Internet avec une vague avant la campagne et une après (transversal repete); B) 1) relevé centré sur le canton de Zurich du nombre de test effectues par des gays durant le premier semestre 2012 utilisant des données récoltées par Sentinella, par les centres de test utilisant l'application BerDa et auprès des praticiens de HIV-Prakt; et 2) recueil d'information par le questionnaire internet post-intervention des intentions d'effectuer un test VIH. Résultats: 366 HSH ont répondu au questionnaire de la phase pré-, et 964 à la phase post-intervention. 69.8% ont entendu parler de la campagne. Parmi les répondants ayant identifie le message, 48.6% se sont sentis concernes. Avant la campagne, 34.2% des répondants identifiaient les 4 symptômes de la primo-infection, 46.4% se sentaient bien informes et 79.2% connaissaient le délai minimum pour qu'un test informe sur une absence d'infection; après la campagne, ces proportions étaient 39.6%, 62.0% et 85.2%. 17.1% des répondants ont déclaré avoir fait/avoir l'intention de faire, un test VIH suite à la campagne. Le nombre de tests effectues par les répondants Internet montre effectivement un pic dans le 2e trimestre 2012; les données BerDa montrent une stabilité du nombre total de tests. Les données épidémiologiques montrent une augmentation de la proportion et du nombre d'infections récentes détectées durant ce 2e trimestre, mais une diminution des infections anciennes. Conclusions: L'intervention BTC a amélioré légèrement les connaissances relatives à la phase de primo-infection du VIH et a la nécessité d'effectuer un test VIH. Elle semble avoir incite le public cible à effectuer un test VIH qui n'aurait pas été réalisé autrement et a peut-être ainsi contribuer a la détection d'infections récentes.
Resumo:
Partant d'une suggestion de Kant, l'article explore si et comment rendre compte de l'effacement de la question du bonheur dans la philosophie morale moderne contemporaine. Un examen rapide des positions de Kant, Habermas et de l'utilitarisme confirme, dans ces doctrines en tout cas, l'hypothèse de cet effacement. En interrogeant enfin les sources, il suggère que ce recul est lié à celui d'une ontologie téléologique et termine en se demandant si l'aristotélisme peut et doit être rejoué dans le contexte contemporain.
Resumo:
Les gènes orthologues divergent sur plusieurs aspects durant l'évolution. Après une revue de la littérature cherchant à montrer de la divergence entre les orthologues de l'humain et de la souris, j'ai souligné les différentes causes de cette divergence. En comparant les gènes qui divergent en fonction, je n'ai pas trouvé de lien avec la divergence des séquences, pour cette raison je me suis penché sur l'étude de l'expression. Notamment, j'ai étudié le niveau, la spécificité ainsi que la présence/absence d'expression des orthologues humain-souris liés aux maladies Mendéliennes. Malgré les similarités trouvées entre l'humain et la souris, j'ai détecté une différence d'expression spécifique à une des deux espèces liée a un phénotype précis (gène essentiel/non-essentiel). Cela m'a permis de conclure que la différence sur le plan phénotypique entre l'humain et la souris est mieux expliquée par les patrons d'expression plutôt que le niveau d'expression ou la sélection. J'ai été également intéressé par l'évolution des séquences d'ADN codantes pour des protéines, en particulier sur le rôle de la sélection. J'ai commencé par une étude sur la fiabilité de détection de la sélection positive en comparant des séquences divergentes. J'ai trouvé, en utilisant le model de branche-site que la sélection peut être détectée sur des séquences qui ont divergé il y a plus de 500 millions d'années. J'ai analysé le biais de GC entres les séquences sans trouver une influence sur l'estimation de la sélection positive. Finalement, Je crois que ce travail est une première étape dans l'établissement d'un lien entre la sélection et les patrons d'expression des gènes chez les vertébrés.
Resumo:
Les POCT (point of care tests) ont un grand potentiel d'utilisation en médecine infectieuse ambulatoire grâce à leur rapidité d'exécution, leur impact sur l'administration d'antibiotiques et sur le diagnostic de certaines maladies transmissibles. Certains tests sont utilisés depuis plusieurs années (détection de Streptococcus pyogenes lors d'angine, anticorps anti-VIH, antigène urinaire de S. pneumoniae, antigène de Plasmodium falciparum). De nouvelles indications concernent les infections respiratoires, les diarrhées infantiles (rotavirus, E. coli entérohémorragique) et les infections sexuellement transmissibles. Des POCT, basés sur la détection d'acides nucléiques, viennent d'être introduits (streptocoque du groupe B chez la femme enceinte avant l'accouchement et la détection du portage de staphylocoque doré résistant à la méticilline). POCT have a great potential in ambulatory infectious diseases diagnosis, due to their impact on antibiotic administration and on communicable diseases prevention. Some are in use for long (S. pyogenes antigen, HIV antibodies) or short time (S. pneumoniae antigen, P. falciparum). The additional major indications will be community-acquired lower respiratory tract infections, infectious diarrhoea in children (rotavirus, enterotoxigenic E. coli), and hopefully sexually transmitted infections. Easy to use, these tests based on antigen-antibody reaction allow a rapid diagnosis in less than one hour; the new generation of POCT relying on nucleic acid detection are just introduced in practice (detection of GBS in pregnant women, carriage of MRSA), and will be extended to many pathogens
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
En Suisse, l'offre en matière de jeu est très importante. Que ce soit pour les loteries ou les casinos, les revenus bruts des jeux (RBJ) ont augmenté considérablement au cours de ces dix dernières années. Une offre de prévention et de traitement s'est développée en Suisse romande et le nombre de joueurs qui consultent ne cesse d'augmenter. Toutefois, il n'en reste pas moins qu'il s'agit là d'une petite proportion des joueurs problématiques qui font appel aux services d'aide. Le Programme intercantonal de lutte contre la dépendance au jeu (PILDJ) vise en premier lieu à sensibiliser la population au problème du jeu excessif. Il prévoit pour cela, notamment, de faciliter l'accès à l'information et au traitement. Par ailleurs, il a aussi pour objectif de sensibiliser les professionnels, afin d'améliorer la détection et la prise en charge des joueurs pathologiques. Le PILDJ entend finalement centraliser les informations relatives aux actions menées dans les cantons afin d'améliorer l'échange d'expériences. La coordination de ce Programme a été confiée au Groupement romand d'études des addictions (GREA). Le PILDJ comprend la mise sur pied de 4 modules parmi lesquels figure l'Etude romande sur le jeu. Ce rapport présente les résultats des volets couverts par l'Etude romande sur le jeu. [résumé, p. 5]