671 resultados para Fonction caracteristique
Resumo:
Dans ce livre sur les rapports de la foi, de la religion et de la culture, l'auteur - dont Flammarion avait publié un magistral Essai sur le mysticisme grec - et spécialiste de la religion de la Rome antique, très critique envers la phénoménologie religieuse, (Rudolf Otto, Van der Leeuw, Eliade), passe tour à tour en revue « la profession de foi » et les Confessions chrétiennes, la christologie au Concile de Florence, la notion d'« ordre cosmique » dans le domaine indo-iranien, la querelle médiévale des Investitures, le thème du « mandat céleste » en Chine, etc. Toutes les productions magico-religieuses sont ici interprétées comme autant de formations historiques dont il s'agit de retracer les processus d'apparition et de développement ainsi que la fonction culturelle spécifique dans un contexte donné. Mais sont également mis en perspective les pratiques, discours, représentations propres aux savoirs qui étudient ces productions. Une vision des faits religieux qui montre que l'histoire des religions « a problématisé les objets de foi, mais non la foi elle-même », l'abandonnant à la psychologie, à la philosophie ou à l'anthropologie. Or la foi a une histoire, étroitement liée à celle de l'Occident : elle n'est pas, selon l'auteur, une qualité innée chez l'homme, mais relève de circonstances culturelles, non exportables hors de l'Occident. Un essai profondément stimulant...
Resumo:
Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
Le but de mon travail de master est de présenter les résultats à une année postopératoire d'une étude prospective sur une nouvelle prothèse totale du genou : la F.I.R.S.T. Evolution. Cette prothèse s'intéresse à des patients plus jeunes, avec une importante laxité des ligaments collatéraux. L'étude finale suivra à cinq ans une cohorte de cinquante patients environ. Actuellement, nous suivons 17 patients opérés avec cette prothèse (dont 9 femmes et 8 hommes, 9 genoux droits et 8 genoux gauches) avec un âge moyen de 69,10 ans (de 42 à 83 ans). Pour l'obtention des résultats, les patients ont remplis des questionnaires spécifiques couramment utilisés (Eq5D, WOMAC, KSS, échelle analogique de la douleur EVA/VAS, UCLA activity-rating level), ont bénéficié de contrôles radiologiques réguliers et d'une analyse régulière de la marche, à trois vitesses différentes. Cette analyse est objective et se base sur un système de capteurs miniaturisés. Les résultats cliniques obtenus à une année démontrent une amélioration globale de la fonction du genou et de la qualité de vie perçue par le patient (Eq5D, WOMAC, EVA/VAS, KSS, UCLA). Les données à une année de l'analyse de marche montrent une amélioration significative dans tous les paramètres du cycle de marche et aux différentes vitesses. En comparant nos résultats avec ceux précédemment obtenus, nous pouvons être satisfaits car ils se sont améliorés depuis la dernière échéance à 6 mois. De plus, nos résultats à une année suivent ceux obtenus dans d'autres études utilisant les mêmes questionnaires et une analyse objective de la marche. On s'attend à ce que ces données se stabilisent voire continuent de s'améliorer dans les années à venir.
Hyperhomocysteinemia is independently associed with albuminuria in the population-based CoLaus study
Resumo:
L'homocystéine est un molécule potentiellement atherogénique et est considéré comme facteur de risque indépendant pour les maladies cardiovasculaires. Pour les patients avec une maladie rénale chronique ou en général avec une fonction rénale diminuée le taux d'homocystéine dans le sérum est élevé. L'acide urique est associé avec un risque augmenté de développer une maladie rénale et prédit la mortalité pour les patients avec une maladie rénale chronique. Le but de cette étude était d'évaluer l'association entre des taux sériques d'homocystéine élevés est la présence d'une fonction rénale diminuée, exprimé par une filtration glomérulaire diminuée ou une albuminurie dans une sélection de la population de Lausanne. Nous avons aussi investigué l'effet de l'acide urique sur cette relation. Pour évaluer si l'association entre l'homocystéine est l'albuminurie pourra être causal, nous avons en même temps investigué l'association entra l'albuminurie est le polymorphisme du gène de la methylènetetrafolate réductase (MTHFR) fortement corrélé avec les taux sériques de l'homocystéine. L'étude CoLaus est transversale et basée sur la population. Elle représente une sélection aléatoire, non stratifié de la population générale de la ville de Lausanne, Suisse, âgée 35-75 ans (n=56.694). 5913 personnes étaient incluses dans l'analyse. La prévalence de l'albuminurie augmente dans les catégories de taux sériques croissants d'homocystéine. L'acide urique est associé avec la concentration sérique de l'homocystéine. Hyperhomocystéinémie et des taux sérique d'acide urique augmentés sont associés avec l'albuminurie, indépendant de l'hypertonie et du diabète. Dans cette étude basée sur une large population, l'association entre des taux sérique elevés d'homocystéine et la prévalence augmentée de l'albuminurie est indépendante de la fonction glomérulaire, indiquant que cette association n'est pas simplement la conséquence de la fonction rénale réduite. Hyperhomocystéinémie est associé avec un risque doublé pour une albuminurie, ce qu'est similaire au risque associé à l'hypertonie ou au diabète type 2. Cette association est indépendante de l'acide urique. Ce résultat suggère que l'hyperhomocystéinémie est un marqueur indépendant des la dysfonction rénale. Individus avec le polymorphisme du MTHFR associé avec des concentrations sériques élevées d'homocystéine sont associé avec un risque augmenté pour une albuminurie. Tous ces résultats supportent l'hypothèse que l'homocystéine cause des dommages rénaux.
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
SummaryGene duplication and neofunctidnalization are important processes in the evolution of phenotypic complexity. They account for important evolutionary novelties that confer ecological adaptation, such as the major histocompatibility complex (MHC), a multigene family with a central role in vertebrates' adaptive immune system. Multigene families, which evolved in large part through duplication, represent promising systems to study the still strongly depbated relative roles of neutral and adaptive processes in the evolution of phenotypic complexity. Detailed knowledge on ecological function and a well-characterized evolutionary history place the mammals' MHC amongst ideal study systems. However mammalian MHCs usually encompass several million base pairs and hold a large number of functional and non-functional duplicate genes, which makes their study complex. Avian MHCs on the other hand are usually way more compact, but the reconstruction of. their evolutionary history has proven notoriously difficult. However, no focused attempt has been undertaken so far to study the avian MHC evolutionary history in a broad phylogenetic context and using adequate gene regions.In the present PhD, we were able to make important contributions to the understanding of the long-term evolution of the avian MHC class II Β (MHCI1B). First, we isolated and characterized MHCIIB genes in barn owl (Tyto alba?, Strigiformes, Tytonidae), a species from an avian lineage in which MHC has not been studied so far. Our results revealed that with only two functional MHCIIB genes the MHC organization of barn owl may be similar to the 'minimal essential' MHC of chicken (Gallus gallus), indicating that simple MHC organization may be ancestral to birds. Taking advantage of the sequence information from barn owl, we studied the evolution of MHCIIB genes in 13 additional species of 'typical' owls (Strigiformes, Strigidae). Phylogenetic analyses revealed that according to their function, in owls the peptide-binding region (PBR) encoding exon 2 and the non-PBR encoding exon 3 evolve by different patterns. Exon 2 exhibited an evolutionary history of positive selection and recombination, while exon 3 traced duplication history and revealed two paralogs evolving divergently from each other in owls, and in a shorebird, the great snipe {Gallinago media). The results from exon 3 were the first ever from birds to demonstrate gene orthology in species that diverged tens of millions of years ago, and strongly questioned whether the taxa studied before provided an adequate picture of avian MHC evolution. In a follow-up study, we aimed at explaining a striking pattern revealed by phylogenetic trees analyzing the owl sequences along with MHCIIB sequences from other birds: One owl paralog (termed DAB1) grouped with sequences of passerines and falcons, while the other (DAB2) grouped with wildfowl, penguins and birds of prey. This could be explained by either a duplication event preceding the evolution of these bird orders, or by convergent evolution of similar sequences in a number of orders. With extensive phylogenetic analyses we were able to show, that indeed a duplication event preceeded the major avian radiation -100 my ago, and that following this duplication, the paralogs evolved under positive selection. Furthermore, we showed that the divergently evolving amino acid residues in the MHCIIB-encoded β-chain potentially interact with the MHCI I α-chain, and that molecular coevolution of the interacting residues may have been involved in the divergent evolution of the MHCIIB paralogs.The findings of this PhD are of particular interest to the understanding of the evolutionary history of the avian MHC and, by providing essential information on long-term gene history in the avian MHC, open promising perspectives for advances in the understanding of the evolution of multigene families in general, and for avian MHC organization in particular. Amongst others I discuss the importance of including protein structure in the phylogenetic study of multigene families, and the roles of ecological versus molecular selection pressures. I conclude by providing a population genomic perspective on avian MHC, which may serve as a basis for future research to investigate the relative roles of neutral processes involving effective population size effects and of adaptation in the evolution of avian MHC diversity and organization.RésuméLa duplication de gènes et leur néo-fonctionnalisation sont des processus importants dans l'évolution de la complexité phénotypique. Ils sont impliqués dans l'apparition d'importantes nouveautés évolutives favorisant l'adaptation écologique, comme c'est le cas pour le complexe majeur d'histocompatibilité
Resumo:
La majorité des organelles d'une cellule adaptent leur nombre et leur taille pendant les processus de division cellulaire, de trafic vésiculaire ou suite à des changements environnementaux par des processus de fusion et de fragmentation membranaires. Ceci est valable notamment pour le golgi, les mitochondries, les péroxisomes et les lysosomes. La vacuole est le compartiment terminal de la voie endocytaire dans la levure Saccharomyces cerevisiae\ elle correspond aux lysosomes des cellules mammifères. Suite à un choc hyperosmotique, la vacuole se fragmente en plusieurs petites vésicules. Durant ce projet, cette fragmentation a été étudiée en utilisant la technique de microscopie confocale in vivo. J'ai observé que la division de la vacuole se produit d'une façon asymétrique. La première minute après le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase est dépendante de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que d'un gradient transmembranaire de protons. Pendant les 10-15 minutes qui suivent, des vésicules se détachent dans les régions où l'on observe les invaginations pendant la phase initiale. Cette deuxième phase qui mène à la fission des nouveaux compartiments vacuolaires dépend de la production du lipide PI(3,5)P2 par la protéine Fab1. J'ai établi la suite des événements du processus de fragmentation des vacuoles et propose la possibilité d'un rôle régulateur de la protéine kinase cycline-dépendante Pho85.¦En outre, j'ai tenté d'éclaircir plus spécifiquement le rôle de Vps1 pendant la fusion et fission des vacuoles. J'ai trouvé que tous les deux processus sont dépendants de l'activité GTPase de cette protéine. De plus l'association avec la membrane vacuolaire paraît régulée par le cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'un autre facteur protéinique, ce qui permet de conclure à une interaction directe avec des lipides de la membrane. Cette interaction est au moins partiellement effectuée par le domaine GTPase, ce qui est une nouveauté pour un membre de cette famille de protéines. Une deuxième partie de Vps1, nommée insert B, est impliquée dans la liaison à la vacuole, soit par interaction directe avec la membrane, soit par régulation du domaine GTPase. En assumant que Vps1 détienne deux régions capables de liaison aux membranes, je conclus qu'elle pourrait fonctionner comme facteur de « tethering » lors de la fusion des vacuoles.¦-¦La cellule contient plusieurs sous-unités, appelées organelles, possédant chacune une fonction spécifique. Dépendant des processus qui s'y déroulent à l'intérieur, un environnement chimique spécifique est requis. Pour maintenir ces différentes conditions, les organelles sont séparées par des membranes. Lors de la division cellulaire ou en adaptation à des changements de milieu, les organelles doivent être capables de modifier leur morphologie. Cette adaptation a souvent lieu par fusion ou division des organelles. Le même principe est valable pour la vacuole dans la levure. La vacuole est une organelle qui sert principalement au stockage des aliments et à la dégradation des différents composants cellulaires. Alors que la fusion des vacuoles est un processus déjà bien décrit, la fragmentation des vacuoles a jusqu'ici été peu étudiée. Elle peut être induit par un choc osmotique: à cause de la concentration de sel élevé dans le milieu, le cytosol de la levure perd de l'eau. Par un flux d'eau de la vacuole au cytosol, la cellule est capable d'équilibrer celui-ci. Quand la vacuole perd du volume, elle doit réadapter le rapport entre surface membranaire et volume, ce qui se fait efficacement par une fragmentation d'une grande vacuole en plusieurs petites vésicules. Comment ce processus se déroule d'un point de vue morphologique n'a pas été décrit jusqu'à présent. En analysant la fragmentation vacuolaire par microscopie, j'ai trouvé que celle-ci se déroule en deux phases. Pendant la première minute suivant le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase dépend de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que du gradient transmembranaire de protons. Ce gradient s'établit par une pompe membranaire, la V-ATPase, qui transporte des protons dans la vacuole en utilisant l'énergie libérée par hydrolyse d'ATP. Après cette phase initiale, la formation de nouvelles vésicules vacuolaires dépend de la synthèse du lipide PI(3,5)P2.¦Dans la deuxième partie de l'étude, j'ai tenté de décrire comment Vps1 lie la membrane pour effectuer un remodelage de la vacuole. Vps1 est nécessaire pour la fusion et la fragmentation des vacuoles. J'ai découvert que tous les deux processus dépendent de sa capacité d'hydrolyser du GTP. Ainsi l'association avec la membrane est couplée au cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'une autre protéine, et interagit donc très probablement avec les lipides de la membrane. Deux parties différentes de la protéine sont impliquées dans la liaison, dont une, inattendue, le domaine GTPase.¦-¦Numerous organelles undergo membrane fission and fusion events during cell division, vesicular traffic, or in response to changes in environmental conditions. Examples include Golgi (Acharya et al., 1998) mitochondria (Bleazard et al., 1999) peroxisomes (Kuravi et al., 2006) and lysosomes (Ward et al., 1997). In the yeast Saccharomyces cerevisiae the vacuole is the terminal component of the endocytic pathway and corresponds to lysosomes in mammalian cells. Yeast vacuoles fragment into multiple small vesicles in response to a hypertonic shock. This rapid and homogeneous reaction can serve as a model to study the requirements of the fragmentation process. Here, I investigated osmotically induced fragmentation by time-lapse microscopy. I observe that the small fragmentation products originate directly from the large central vacuole by asymmetric scission rather than by consecutive equal divisions and that fragmentation occurs in two distinct phases. During the first minute, vacuoles shrink and generate deep invaginations, leaving behind tubular structures. This phase requires the dynamin-like GTPase Vps1 and the vacuolar proton gradient. In the subsequent 10-15 minutes, vesicles pinch off from the tubular structures in a polarized fashion, directly generating fragmentation products of the final size. This phase depends on the production of phosphatidylinositol- 3,5-bisphosphate by the Fab1 complex. I suggest a possible regulation of vacuole fragmentation by the CDK Pho85. Based on my microscopy study I established a sequential involvement of the different fission factors.¦In addition to the morphological description of vacuole fragmentation I more specifically aimed to shed some light on the role of Vps1 in vacuole fragmentation and fusion. I find that both functions are dependent on the GTPase activity of the protein and that also the membrane association of the dynamin-like protein is coupled to the GTPase cycle. I found that Vps1 has the capacity for direct lipid binding on the vacuole and that this lipid binding is at least partially mediated through residues in the GTPase domain, a complete novelty for a dynamin family member. A second stretch located in the region of insert Β has also membrane-binding activity or regulates the association with the vacuole through the GTPase domain. Under the assumption of two membrane-binding regions I speculate on Vps1 as a possible tethering factor for vacuole fusion.
Resumo:
Notre étude consiste en une recherche longitudinale pour laquelle une cohorte d'élèves a été suivie depuis la Grande Section de l'école maternelle française (élèves de 5-6 ans) jusqu'au Cours Élémentaire 1re année de l'école élémentaire française (élèves de 7-8 ans) dans des situations ordinaires de classe. À ces niveaux scolaires, l'un des principaux objectifs du curriculum est l'apprentissage de la lecture. Nous considérons que l'élève construit les compétences de lecture à acquérir, i.e. les compétences caractérisant son développement potentiel, en s'appuyant sur les compétences caractérisant son développement actuel (Vygotski, 1934/1997). Lorsqu'il apprend à lire, l'élève a à sa disposition des moyens sémiotiques relatifs à la connaissance des objets et leurs usages, ainsi qu'aux gestes et leur signification (Moro & Rodriguez, 2005), ce que nous appelons globalement la matérialité. En conséquence, dans cette recherche, nous faisons l'hypothèse que ces premières habiletés relatives à la matérialité, constituent une ressource dans les situations d'enseignement- apprentissage de la lecture. Nous réalisons une étude de cas dont le recueil des données, à caractère ethnographique, est constitué de moments de classe enregistrés en vidéo, et ce, quatre fois par année scolaire. Ces douze enregistrements vidéo sont complétés par deux entretiens semi-directifs et un entretien d'auto- confrontation ; ils sont aussi mis en lien avec les Instructions officielles (programmes scolaires). L'analyse est à la fois macrogénétique et microgénétique. Pour chaque observation, concernant l'analyse macrogénétique, nous réalisons le synopsis à partir duquel nous sélectionnons des épisodes significatifs porteurs de matérialité. Les épisodes significatifs sont constitués des événements remarquables dont les analyses microgénétiques nécessitent l'utilisation d'outils, à savoir les tableaux des matérialités et les photogrammes. Notre étude montre que la matérialité permet aux élèves de devenir lecteurs et que les formes de cette matérialité changent en fonction de l'avancée des acquisitions des élèves et des dimensions de la lecture (code et compréhension) à apprendre. - Our research consists of a longitudinal study in which one group of pupils in ordinary classroom situations has been followed from the top level of French pre-elementary school (5- to 6 year-old pupils) to the second level of French primary school (7- to 8 year-old pupils). For these three school grades, one of the main objectives in the curriculum is learning to read. We consider that pupils build their new reading skills, i.e. the skills characterizing their potential development, by relying on skills characterizing their actual development (Vygotski, 1934/1997). When learning to read, pupils yet have at their disposal semiotic abilities related to knowledge both of material objects and their uses, and of basic gestures and their meaning (Moro & Rodriguez, 2005), all of this we sum up under the term of materiality. Consequently, in our research, we make the hypothesis that the children's basic abilities related to materiality constitute a resource in teaching-learning situations. We have chosen to carry out a case study. The data collected consist of videos of class sequences carried out four times a year for three years. These twelve videos are supplemented by two semi- structured interviews with the teacher, one "self-confronting" interview in which the teacher is brought to discuss her actions and by the analysis of the ministry's school curricula. Our analysis is both macrogenetic and microgenetic. For each teaching sequence, on the level of macrogenetic analysis, we have made up the synopsis from which we have selected significant episodes in terms of materiality. The significant episodes are composed of remarkable events the microgenetic analysis of which requires the use of tools such as materiality boards and photograms. Our study shows that materiality enables pupils to develop reading skills and that the forms that materiality takes on change according to the pupils' acquisition progress and the aspects of reading (code and comprehension) still to be learned.
Resumo:
RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.
Resumo:
Rapport de synthèse : Introduction : le vieillissement cutané est un processus biologique complexe auquel participe une exposition excessive au rayonnement ultraviolet du soleil. En particulier, les longueurs d'onde des rayons ultraviolets A et B (UV-A et UV-B) peuvent induire une augmentation de la synthèse de protéases, comme la métalloprotéinase matricielle 1 (MMP-1), qui est impliquée dans le processus de vieillissement. La thermothérapie par infrarouges, dont les longueurs d'onde sont plus longues que celles des UV, est largement utilisée à des fins thérapeutiques ou cosmétiques. Or, il a été démontré que les infrarouges en filtration aqueuse (IRFA) pouvaient induire une augmentation de la production de MMP-1 et par conséquent être nocifs. Il serait donc intéressant d'évaluer les effets des IRFA au niveau cellulaire et moléculaire. But Expérimental : étudier les effets des lampes à infrarouges en filtration aqueuse utilisées en clinique sur des fibroblastes cutanés humains en culture, afin d'analyser l'expression du gène codant pour la protéine MMP-1. Méthode : des fibroblastes cutanés humain ont été irradiés d'une part avec approximativement 88% d'IRFA (780-1400 nm) et 12% de lumière rouge (LR, 665-780 nm) avec 380 mW/cm2 IRFA(+LR) (333 mW/cm2 IRFA) et d'autre part avec des UV-A comme contrôle. Des courbes de survie cellulaire ont été établies après une exposition allant de 15 minutes à 8 heures au IRFA(+LR) (340-10880 J/cm2 wIRA(+RL), 300-9600 J/cm2 wIRA) ou de 15 à 45 minutes aux UV-A(+BL) (25-75 J/cm2 UV-A(+BL). L'induction de l'ARNm du gène de la MMP-1 a été analysé dans les fibroblastes cutanés humain à deux températures physiologiques (30°C et 37°C) lors d'expositions uniques de 15 à 60 minutes aux IRFA(+LR) (340-1360 J/cm2 IRFA(+LR), 300-1200 J/cm2 IRFA) ou de 30 minutes aux UV-A(+BL) (50 J/cm2 UVA(+BL)). De plus, nous avons effectué des irradiations répétées, une a chaque passage cellulaire jusqu'au passage. 10 de 15 minutes d'IRFA(+LR) 340 J/cm2 IRFA(+LR), 300 J/cm2 IRFA) . Résultats : une exposition unique aux UV-A (+BL) entraîne chez des fibroblastes cutanés humains une augmentation de la mort cellulaire, ainsi qu'une forte augmentation de l'expression du gène codant pour la MMP-1. L'augmentation mise en évidence pour cet ARNm varie en fonction de la technique utilisée : elle est de 11 ± 1 fois par RT-PCR classique, de 76 ± 2 fois par RT-PCR quantitative à 30°C, et de 75 ± 1 fois par RT-PCR quantitative à 37°C. Par contre, une exposition unique ou répétée aux IRFA (+LR) n'induit aucune augmentation de la mort cellulaire, ni de l'expression de l'ARNm de la MMP-1 chez ces fibroblastes. Conclusions : les résultats de cette étude montrent que, contrairement aux rayons ultraviolets, les IRFA (+LR) ne semblent impliqués ni dans le vieillissement, ni dans la mort cellulaire, même utilisés à des doses très élevées. Ces résultats sont en accord avec certaines investigations in vivo montrant une induction de MMP-1 par des UV et non des infrarouges. Ces dernières études suggèrent d'ailleurs plutôt un rôle protecteur des IRFA (+LR).
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
Kidneys are the main regulator of salt homeostasis and blood pressure. In the distal region of the tubule active Na-transport is finely tuned. This transport is regulated by various hormonal pathways including aldosterone that regulates the reabsorption at the level of the ASDN, comprising the late DCT, the CNT and the CCD. In the ASDN, the amiloride-sensitive epithelial Na-channel (ENaC) plays a major role in Na-homeostasis, as evidenced by gain-of function mutations in the genes encoding ENaC, causing Liddle's syndrome, a severe form of salt-sensitive hypertension. In this disease, regulation of ENaC is compromised due to mutations that delete or mutate a PY-motif in ENaC. Such mutations interfere with Nedd4-2- dependent ubiquitylation of ENaC, leading to reduced endocytosis of the channel, and consequently to increased channel activity at the cell surface. After endocytosis ENaC is targeted to the lysosome and rapidly degraded. Similarly to other ubiquitylated and endocytosed plasma membrane proteins (such as the EGFR), it is likely that the multi-protein complex system ESCRT is involved. To investigate the involvement of this system we tested the role of one of the ESCRT proteins, Tsg101. Here we show that Tsg101 interacts endogenously and in transfected HEK-293 cells with all three ENaC sub-units. Furthermore, mutations of cytoplasmic lysines of ENaC subunits lead to the disruption of this interaction, indicating a potential involvement of ubiquitin in Tsg101 / ENaC interaction. Tsg101 knockdown in renal epithelial cells increases the total and cell surface pool of ENaC, thus implying TsglOl and consequently the ESCRT system in ENaC degradation by the endosomal/lysosomal system. - Les reins sont les principaux organes responsables de la régulation de la pression artérielle ainsi que de la balance saline du corps. Dans la région distale du tubule, le transport actif de sodium est finement régulé. Ce transport est contrôlé par plusieurs hormones comme l'aldostérone, qui régule la réabsorption au niveau de l'ASDN, segment comprenant la fin du DCT, le CNT et le CCD. Dans l'ASDN, le canal à sodium épithélial sensible à l'amiloride (ENaC) joue un rôle majeur dans l'homéostasie sodique, comme cela fut démontré par les mutations « gain de fonction » dans les gênes encodant ENaC, causant ainsi le syndrome de Liddle, une forme sévère d'hypertension sensible au sel. Dans cette maladie, la régulation d'ENaC est compromise du fait des mutations qui supprime ou mute le domaine PY présent sur les sous-unités d'ENaC. Ces mutations préviennent l'ubiquitylation d'ENaC par Nedd4-2, conduisant ainsi à une baisse de l'endocytose du canal et par conséquent une activité accrue d'ENaC à la surface membranaire. Après endocytose, ENaC est envoyé vers le lysosome et rapidement dégradé. Comme d'autres protéines membranaires ubiquitylées et endocytées (comme l'EGFR), il est probable que le complexe multi-protéique ESCRT est impliqué dans le transport d'ENaC au lysosome. Pour étudier l'implication du système d'ESCRT dans la régulation d'ENaC nous avons testé le rôle d'une protéine de ces complexes, TsglOl. Notre étude nous a permis de démontrer que TsglOl se lie aux trois sous-unités ENaC aussi bien en co-transfection dans des cellules HEK-293 que de manière endogène. De plus, nous avons pu démontrer l'importance de l'ubiquitine dans cette interaction par la mutation de toutes les lysines placées du côté cytoplasmique des sous-unités d'ENaC, empêchant ainsi l'ubiquitylation de ces sous-unités. Enfin, le « knockdown » de TsglOl dans des cellules épithéliales de rein induit une augmentation de l'expression d'ENaC aussi bien dans le «pool» total qu'à la surface membranaire, indiquant ainsi un rôle pour TsglOl et par conséquent du système d'ESCRT dans la dégradation d'ENaC par la voie endosome / lysosome. - Le corps humain est composé d'organes chacun spécialisé dans une fonction précise. Chaque organe est composé de cellules, qui assurent la fonction de l'organe en question. Ces cellules se caractérisent par : - une membrane qui leur permet d'isoler leur compartiment interne (milieu intracellulaire ou cytoplasme) du liquide externe (milieu extracellulaire), - un noyau, où l'ADN est situé, - des protéines, sortent d'unités fonctionnelles ayant une fonction bien définie dans la cellule. La séparation entre l'extérieure et l'intérieure de la cellule est essentielle pour le maintien des composants de ces milieux ainsi que pour la bonne fonction de l'organisme et des cellules. Parmi ces composants, le sodium joue un rôle essentiel car il conditionne le maintien de volume sanguin en participant au maintien du volume extracellulaire. Une augmentation du sodium dans l'organisme provoque donc une augmentation du volume sanguin et ainsi provoque une hypertension. De ce fait, le contrôle de la quantité de sodium présente dans l'organisme est essentiel pour le bon fonctionnement de l'organisme. Le sodium est apporté par l'alimentation, et c'est au niveau du rein que va s'effectuer le contrôle de la quantité de sodium qui va être retenue dans l'organisme pour le maintien d'une concentration normale de sodium dans le milieu extracellulaire. Le rein va se charger de réabsorber toutes sortes de solutés nécessaires pour l'organisme avant d'évacuer les déchets ou le surplus de ces solutés en produisant l'urine. Le rein va se charger de réabsorber le sodium grâce à différentes protéines, parmi elle, nous nous sommes intéressés à une protéine appelée ENaC. Cette protéine joue un rôle important dans la réabsorption du sodium, et lorsqu'elle fonctionne mal, comme il a pu être observé dans certaines maladies génétiques, il en résulte des problèmes d'hypo- ou d'hypertension. Les problèmes résultant du mauvais fonctionnement de cette protéine obligent donc la cellule à réguler efficacement ENaC par différents mécanismes, notamment en diminuant son expression et en dégradant le « surplus ». Dans cette travail de thèse, nous nous sommes intéressés au mécanisme impliqué dans la dégradation d'ENaC et plus précisément à un ensemble de protéines, appelé ESCRT, qui va se charger « d'escorter » une protéine vers un sous compartiment à l'intérieur de la cellule ou elle sera dégradée.
Resumo:
Cette étude visait, chez les médecins romands potentiellement confrontés à des maladies en lien avec le travail (généralistes, internistes, dermatologues, allergologues, pneumologues, ORL, rhumatologues et psychiatres des cantons de Genève, Vaud, Valais, Neuchâtel, Jura, Fribourg et de la partie francophone du canton de Berne), à identifier et à décrire : - leur perception des liens entre la santé et le travail, - leurs pratiques vis à vis des maladies liées au travail incluant les difficultés et obstacles qu'ils rencontraient pour la prise en charge thérapeutique, organisationnelle ou assurantielle de ces maladies, - leurs attentes vis à vis de services que l'IST leur fournit ou pourrait leur fournir. Sur 2570 médecins contactés, 34% ont renvoyé un questionnaire (élaboré à la suite d'entretiens semi-directifs auprès de certains d'entre eux) et 32% ont finalement été inclus dans l'étude (soit 806 médecins). Les médecins inclus sont représentatifs de l'ensemble de la population de l'étude sur 3 critères : âge, canton et spécialité. Les résultats permettent de distinguer 4 profils de médecins : - les médecins généralistes, internistes et rhumatologues, qui sont souvent confrontés aux maladies liées au travail, très actifs dans la prise en charge spécifique de ces maladies (en particulier en ce qui concerne le travail du patient et les démarches auprès des assurances), et très demandeurs de services potentiels de l'IST ; - les allergologues et les pneumologues, qui sont peu confrontés aux maladies liées au travail, mais très actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et très demandeurs de services potentiels de l'IST ; - les dermatologues et les ORL, qui sont peu confrontés aux maladies liées au travail, moins actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et peu demandeurs de services potentiels de l'IST ; - les psychiatres, qui sont souvent confrontés aux maladies liées au travail, peu actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et peu demandeurs de services potentiels de l'IST. En fonction de ces résultats, des actions ciblées vers les différentes spécialistes pourront être mises en place ultérieurement.