1000 resultados para Deguelia utilis
Resumo:
RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Pendant ma thèse de doctorat, j'ai utilisé des espèces modèles, comme la souris et le poisson-zèbre, pour étudier les facteurs qui affectent l'évolution des gènes et leur expression. Plus précisément, j'ai montré que l'anatomie et le développement sont des facteurs clés à prendre en compte, car ils influencent la vitesse d'évolution de la séquence des gènes, l'impact sur eux de mutations (i.e. la délétion du gène est-elle létale ?), et leur tendance à se dupliquer. Où et quand il est exprimé impose à un gène certaines contraintes ou au contraire lui donne des opportunités d'évoluer. J'ai pu comparer ces tendances aux modèles classiques d'évolution de la morphologie, que l'on pensait auparavant refléter directement les contraintes s'appliquant sur le génome. Nous avons montré que les contraintes entre ces deux niveaux d'organisation ne peuvent pas être transférées simplement : il n'y a pas de lien direct entre la conservation du génotype et celle de phénotypes comme la morphologie. Ce travail a été possible grâce au développement d'outils bioinformatiques. Notamment, j'ai travaillé sur le développement de la base de données Bgee, qui a pour but de comparer l'expression des gènes entre différentes espèces de manière automatique et à large échelle. Cela implique une formalisation de l'anatomie, du développement et de concepts liés à l'homologie grâce à l'utilisation d'ontologies. Une intégration cohérente de données d'expression hétérogènes (puces à ADN, marqueurs de séquence exprimée, hybridations in situ) a aussi été nécessaire. Cette base de données est mise à jour régulièrement et disponible librement. Elle devrait contribuer à étendre les possibilités de comparaison de l'expression des gènes entre espèces pour des études d'évo-devo (évolution du développement) et de génomique. During my PhD, I used model species of vertebrates, such as mouse and zebrafish, to study factors affecting the evolution of genes and their expression. More precisely I have shown that anatomy and development are key factors to take into account, influencing the rate of gene sequence evolution, the impact of mutations (i.e. is the deletion of a gene lethal?), and the propensity of a gene to duplicate. Where and when genes are expressed imposes constraints, or on the contrary leaves them some opportunity to evolve. We analyzed these patterns in relation to classical models of morphological evolution in vertebrates, which were previously thought to directly reflect constraints on the genomes. We showed that the patterns of evolution at these two levels of organization do not translate smoothly: there is no direct link between the conservation of genotype and phenotypes such as morphology. This work was made possible by the development of bioinformatics tools. Notably, I worked on the development of the database Bgee, which aims at comparing gene expression between different species in an automated and large-scale way. This involves the formalization of anatomy, development, and concepts related to homology, through the use of ontologies. A coherent integration of heterogeneous expression data (microarray, expressed sequence tags, in situ hybridizations) is also required. This database is regularly updated and freely available. It should contribute to extend the possibilities for comparison of gene expression between species in evo-devo and genomics studies.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
Le fonctionnement du système nerveux est sensible aux variations de la concentration d'acide. Une acidification des tissus peut se produire pendant une activité neuronale intense ou dans des situations physiopathologiques telles que l'inflammation ou les lésions cérébrales. Les canaux ioniques sensibles à l'acide (ASIC) sont activés par acidification et jouent un rôle important dans la détection des changements d'acide. Les ASICs contribuent à la dégénérescence neuronale après une lésion cérébrale, puisque leur inhibition limite la lésion neuronale. L'acidification induite par une inflammation du tissu nerveux conduit à des stimuli de douleur, qui sont détectés par ces canaux. En effet, les toxines qui bloquent spécifiquement les ASICs montrent des effets analgésiques dans des modèles animaux. La structure 3D d'ASIC peut être comparée à une main qui tient une boule entre son pouce et le doigt. Les différents domaines d'ASIC sont appelés doigt, pouce, jointure, boule-ß et paume. Les domaines transmembranaires représentent le poignet de cette main. Mon projet de thèse vise à décrire les mouvements survenant sur ce canal pendant son activité. A cet effet, j'ai utilisé une technique combinée qui permet la mesure des mouvements en temps réel durant l'activité du canal. J'ai montré les réarrangements des domaines extracellulaires pendant l'activité ASIC. Ces mouvements sont transmis au pore du canal, ou ils contrôlent sa fermeture et ouverture. La direction de ces mouvements a été évaluée pour les domaines doigt et jointure, et nous avons montré qu'ils s'éloignent de la boule-ß lors de l'acidification. J'ai également été en mesure de décrire les mouvements qui se produisent dans la poche acidique, une zone qui est considérée comme importante, car elle représente le site de liaison de certaines toxines de venin qui agissent sur les ASICs. J'ai ainsi pu montrer que les domaines doigt et le pouce qui forment la poche acidique se rapprochent l'un de l'autre pendant l'activation du canal. Ces résultats sont en accord avec des observations précédentes réalisées sur les ASICs par d'autres chercheurs. Enfin, cette analyse approfondie permet d'améliorer les connaissances sur le contrôle de l'activité ASIC; de plus, les mécanismes trouvés ici sont probablement partagés entre les canaux de la famille à laquelle appartiennent les ASICs. -- Les acid-sensing ion channels (ASICs) sont des canaux sodiques ouverts par les protons et principalement exprimés dans le système nerveux. Ils sont impliqués dans la détection des protons dans de nombreux états physiologiques et pathologiques comme l'ischémie et la perception de la douleur. La structure cristalline de l'isoforme ASIC1 de poulet a été déterminée dans l'état désensibilisé et ouvert. Les études fonctionnelles indiquent que la protonation des résidus clés dans la boucle extracellulaire déclenche des changements de conformation conduisant à l'ouverture du canal. Cependant, les mécanismes moléculaires qui relient la protonation à l'ouverture et la fermeture du canal n'ont pas encore été clarifiés. Dans cette étude, nous avons utilisé la voltage-clamp fluorimétrie (VCF) pour révéler les mouvements de l'activité associée qui se produisent dans les différents domaines de l'ASICla. Les fluorophores positionnés dans le pouce, la paume, le doigt, l'articulation et dans les domaines de l'entrée du pore extracellulaire ont montré des signaux de VCF liés à des changements de conformation au cours de l'activité du canal. La synchronisation des changements de fluorescence indique une séquence complexe de mouvements en fonction du pH. La cinétique de la fluorescence et des signaux de courant ont été comparés les uns aux autres afin de déterminer si le mouvement détecté par le signal de fluorescence correspond à une transition fonctionnelle définie du canal. Certains des résidus testés se sont révélés être étroitement liés à la désensibilisation du canal ou au rétablissement après la désensibilisation. En outre, nous avons trouvé qu'un tryptophane endogène de la boule-ß diminue le signal de fluorescence des sondes positionnées dans les domaines doigt et jointure. L'augmentation observée de ces signaux indique que ces domaines s'éloignent à une distance à partir de la boucle de la boule-ß. Sur la base de ce principe, nous avons généré des paires Trp-Cys « quencher», dans lequel le Cys est utilisé comme site d'ancrage pour attacher le fluorophore. Ensuite, nous avons évalué les changements de conformation qui se produisent au niveau de la poche acide, une zone importante pour la fonction et la régulation d'ASIC. Les signaux de fluorescence indiquent un mouvement de l'hélice supérieure du pouce vers le doigt et une rotation de la boule-ß dans le sens horaire. L'analyse de la cinétique indique que les mouvements des sous-domaines qui composent la poche acide se produisent pendant la désensibilisation du canal. Mon projet de doctorat représente la première analyse approfondie des changements conformationnels dépendants de l'activité des ASICs et fournit des informations sur les mécanismes de contrôle de l'activité du canal qui sont probablement partagés avec d'autres canaux proches.
Resumo:
En Suisse, comme dans la plupart des pays industrialisés, le stress au travail et l'épuisement qui en découle sont devenus, au cours des dernières décennies, une réalité qui ne cesse de s'accentuer. Différentes disciplines scientifiques ont tenté de rendre compte, depuis le milieu du siècle dernier, des difficultés rencontrées par les individus dans le cadre de leur travail, avec une prédominance marquée pour des analyses de type causaliste. Dans le cadre de cette étude doctorale, nous nous sommes penché sur le cas d'un office régional de placement, mais avec une perspective sensiblement différente. La grille de lecture psychodynamique utilisée permet en effet de donner accès au sens des situations de travail et d'ouvrir sur une compréhension originale des mécanismes à l'origine des problèmes de santé mentale au travail. Cette approche permet ainsi de comprendre les rapports complexes que les individus entretiennent avec leur travail tel que structuré et organisé, et d'analyser leur expérience en termes de plaisir, de souffrance, de défenses face à la souffrance et de répercussions sur la santé. Dans ce but, nous avons utilisé une méthodologie basée sur des entrevues collectives, afin de stimuler l'expression libre des travailleurs. L'enquête s'est déroulée en deux temps : une première série d'entretiens de groupe a permis la récolte des données empiriques, puis une seconde série, appelée entretiens de restitution, a donné la possibilité aux participants de réagir sur l'interprétation de leur parole faite par le chercheur, et de valider l'analyse. Nos résultats mettent alors en évidence que le travail, tel qu'organisé au sein de cette institution de service public, apparaît considérablement pathogène, mais heureusement compensé par le pouvoir structurant de la relation d'aide aux assurés. Ils montrent également que l'expérience subjective de travail des participants a pour principales sources de souffrance la perception désagréable d'un manque de reconnaissance, d'autonomie et de pouvoir sur leurs actes. - In Switzerland and in other industrialized countries, work-related stress and resulting burn-out has become an ever increasing problem in recent decades. Many researchers Jrom many different fields have made efforts to understand the difficulties employees encounter at work since the middle of the last century. Most of this research is based on a cause and effect analysis approach. For this doctoral research project, we have analyzed cases handled by an unemployment office in Switzerland. We have taken a novel approach by using a number of psychodynamic criteria which permitted us to interpret situations at work and to open up a new way of understanding the mechanisms at work which lead to mental health problems. This approach allows us to understand account the complex relationship people have towards structured and organized work as well as to take into account and to analyze their experience in terms of pleasure, suffering, defense mechanisms against suffering and the consequences on their mental health. In order to achieve this goal we performed collective interviews in order to encourage workers to express themselves freely. The interviews were divided into two series. The first series of group interviews allowed us to collect empirical statistics and the second series gave the workers an opportunity to react to the researchers ' analysis of their answers and to validate the researchers ' interpretation of their answers. Our results show that work has considerable negative effects on mental health. Fortunately, these negative effects are counterbalanced by the psychological support system offered by the unemployment office. Our project also shows that the subjective negative experiences of workers are caused by their perceptions of being under-appreciated, lack of autonomy and having no power over their acts.
Resumo:
The Zermatt-Saas Fee Zone (ZSZ) in the Western Alps consists of multiple slices of ultramafic, mafic and metasedimentary rocks. They represent the remnants of the Mesozoic Piemonte-Ligurian oceanic basin which was subducted to eclogite facies conditions with peak pressures and temperatures of up to 20-28 kbar and 550-630 °C, followed by a greenschist overprint during exhumation. Previous studies, emphasizing on isotopie geochronology and modeling of REE-behavior in garnets from mafic eclogites, suggest that the ZSZ is buildup of tectonic slices which underwent a protracted diachronous subduction followed by a rapid synchronous exhumation. In this study Rb/Sr geochronology is applied to phengite included in garnets from metasediments of two different slices of the ZSZ to date garnet growth. Inclusion ages for 2 metapelitic samples from the same locality from the first slice are 44.25 ± 0.48 Ma and 43.19 ± 0.32 Ma. Those are about 4 Ma older than the corresponding matrix mica ages of respectively 40.02 ± 0.13 Ma and 39.55 ± 0.25 Ma. The inclusion age for a third calcschist sample, collected from a second slice, is 40.58 ± 0.24 Ma and the matrix age is 39.8 ± 1.5 Ma. The results show that garnet effectively functioned as a shield, preventing a reset of the Rb/Sr isotopie clock in the included phengites to temperatures well above the closure of Sr in mica. The results are consistent with the results of former studies on the ZSZ using both Lu/Hf and Sm/Nd geochronology on mafic eclogites. They confirm that at least parts of the ZSZ underwent close to peak metamorphic HP conditions younger than 43 m.y. ago before being rapidly exhumed about 40 m.y. ago. Fluid infiltration in rocks of the second slice occurred likely close to the peak metamorphic conditions, resulting in rapid growth of garnets. Similar calcschists from the same slice contain two distinct types of porphyroblast garnets with indications of multiple growth pulses and resorption indicated by truncated chemical zoning patterns. In-situ oxygen isotope Sensitive High Resolution Ion Microprobe (SHRIMP) analyses along profiles on central sections of the garnets reveal variations of up to 5 %o in individual garnets. The complex compositional zoning and graphite inclusion patterns as well as the variations in oxygen isotopes correspond to growing under changing fluid composition conditions caused by external infiltrated fluids. The ultramafic and mafic rocks, which were subducted along with the sediments and form the volumetrically most important part of the ZSZ, are the likely source of those mainly aqueous fluids. - La Zone de Zermatt-Saas Fee (ZZS) est constituée de multiples écailles de roches ultramafiques, mafiques et méta-sédimentaires. Cette zone, qui affleure dans les Alpes occidentales, représente les restes du basin océanique Piémontais-Ligurien d'âge mésozoïque. Lors de la subduction de ce basin océanique à l'Eocène, les différentes roches composant le planché océanique ont atteint les conditions du faciès éclogitique avec des pressions et des températures maximales estimées entre 20 - 28 kbar et 550 - 630 °C respectivement, avant de subir une rétrogression au faciès schiste vert pendant l'exhumation. Différentes études antérieures combinant la géochronologie isotopique et la modélisation des mécanismes gouvernant l'incorporation des terres rares dans les grenats des éclogites mafiques, suggèrent que la ZZS ne correspond pas à une seule unité, mais est constituée de différentes écailles tectoniques qui ont subi une subduction prolongée et diachrone suivie d'une exhumation rapide et synchrone. Afin de tester cette hypothèse, j'ai daté, dans cette étude, des phengites incluses dans les grenats des méta-sédiments de deux différentes écailles tectoniques de la ZZS, afin de dater la croissance relative de ces grenats. Pour cela j'ai utilisé la méthode géochronologique basée sur la décroissance du Rb87 en Sr87. J'ai daté trois échantillons de deux différentes écailles. Les premiers deux échantillons proviennent de Triftji, au nord du Breithorn, d'une première écaille dont les méta-sédiments sont caractérisés par des bandes méta-pélitiques à grenat et des calcschistes. Le troisième échantillon a été collectionné au Riffelberg, dans une écaille dont les méta-sédiments sont essentiellement des calcschistes qui sont mélangés avec des roches mafiques et des serpentinites. Ce mélange se trouve au-dessus de la grande masse de serpentinites qui forment le Riffelhorn, le Trockenersteg et le Breithorn, et qui est connu sous le nom de la Zone de mélange de Riffelberg (Bearth, 1953). Les inclusions dans les grenats de deux échantillons méta-pélitiques de la première écaille sont datées à 44.25 ± 0.48 Ma et à 43.19 ± 0.32 Ma. Ces âges sont à peu près 4 Ma plus vieux que les âges obtenus sur les phengites provenant de la matrice de ces mêmes échantillons qui donnent des âges de 40.02 ± 0.13 Ma et 39.55 ± 0.25 Ma respectivement. Les inclusions de phengite dans les grenats appartenant à un calcschiste de la deuxième écaille ont un âge de 40.58 ± 0.24 Ma alors que les phengites de la matrice ont un âge de 39.8 ± 1.5 Ma. Pour expliquer ces différences d'âge entre les phengites incluses dans le grenat et les phengites provenant de la matrice, nous suggérons que la cristallisation de grenat ait permis d'isoler ces phengites et de les préserver de tous rééquilibrage lors de la suite du chemin métamorphique prograde, puis rétrograde. Ceci est particulièrement important pour expliquer l'absence de rééquilibrage des phengites dans des conditions de températures supérieures à la température de fermeture du système Rb/Sr pour les phengites. Les phengites en inclusions n'ayant pas pu être datées individuellement, nous interprétons l'âge de 44 Ma pour les inclusions de phengite comme un âge moyen pour l'incorporation de ces phengites dans le grenat. Ces résultats sont cohérents avec les résultats des études antérieures de la ZZS utilisant les systèmes isotopiques de Sm/Nd et Lu/Hf sur des eclogites mafiques. ils confirment qu'aux moins une partie de la ZZS a subi des conditions de pression et de température maximale il y a moins de 44 à 42 Ma avant d'être rapidement exhumée à des conditions métamorphiques du faciès schiste vert supérieur autour de 40 Ma. Cette étude détaillée des grenats a permis, également, de mettre en évidence le rôle des fluides durant le métamorphisme prograde. En effet, si tous les grenats montrent des puises de croissance et de résorption, on peut distinguer, dans différents calcschists provenant de la deuxième écaille, deux types distincts de porphyroblast de grenat en fonction de la présence ou non d'inclusions de graphite. Nous lions ces puises de croissances/résorptions ainsi que la présence ou l'absence de graphite en inclusion dans les grenats à l'infiltration de fluides dans le système, et ceci durant tous le chemin prograde mais plus particulièrement proche et éventuellement peu après du pic du métamorphisme comme le suggère l'âge de 40 Ma mesuré dans les inclusions de phengites de l'échantillon du Riffelberg. Des analyses in-situ d'isotopes d'oxygène réalisé à l'aide de la SHRIMP (Sensitive High Resolution Ion Microprobe) dans des coupes centrales des grenats indiquent des variations jusqu'à 5 %o au sein même d'un grenat. Les motifs de zonations chimiques et d'inclusions de graphite complexes, ainsi que les variations du δ180 correspondent à une croissance de grenat sous des conditions de fluides changeantes dues aux infiltrations de fluides externes. Nous lions l'origine de ces fluides aqueux aux unités ultramafiques et mafiques qui ont été subductés avec les méta-sédiments ; unités ultramafiques et mafiques qui forment la partie volumétrique la plus importante de la ZZS.
Resumo:
Résumé (français)ContexteLe tabagisme est connu pour produire un effet coupe-faim chez la plupart des fumeurs. La crainte de la prise de poids à l'arrêt de la cigarette l'emporte souvent sur la perception des bénéfices sur la santé associés à l'abandon du tabac, particulièrement chez les adolescents. Nous avons examiné quel a été le rôle de l'industrie du tabac dans cet effet de la fumée sur l'appétit et sur le contrôle du poids.MéthodesNous avons réalisé une recherche systématique dans les archives de six grandes compagnies de tabac américaines et du Royaume-Uni (American Tobacco, Philip Morris, RJ Reynolds, Lorillard, Brown & Williamson et British American Tobacco) qui avaient été mises en cause dans les procès du tabac en 1998 aux Etats-Unis. Les résultats concernent les années 1949 à 1999.RésultatsLes archives de ces industries montrent qu'elles ont mis au point et ont utilisé diverses stratégies pour améliorer les effets du tabagisme sur le poids et l'appétit, la plupart du temps en réalisant des modifications chimiques des cigarettes. Des substances coupe-faim, telles que l'acide tartrique et le 2-acétylpyridine ont notamment été ajoutées aux cigarettes.ConclusionEn tout cas par le passé, ces compagnies de tabac ont activement modifié leurs cigarettes afin d'en augmenter l'effet de diminution de l'appétit, notamment en y ajoutant des substances coupe-faim.
Resumo:
Sensory information is an important factor in shaping neuronal circuits during development and adulthood. In the barrel cortex of adult rodents, cells from layer IV are able to adapt their functional state to an increased flow of sensory information from the mystacial whisker follicles. Previous studies in our group have shown that whisker stimulation induces the formation of inhibitory synapses in the corresponding barrel (Knott et al., 2002) and decreases neuronal responses toward the deflection of the stimulated whisker (Quairiaux et al., 2007). Together these observations have turned the barrel cortex into a model to study homeostatic plasticity. At the cellular level, neuronal activity triggers intracellular signaling cascades leading to a transcriptional response. To further characterize the molecular pathways involved in the synaptic changes after whisker stimulation in the adult mouse, a previous doctoral student in our group performed a microarray analysis on laser-dissected barrels in sections through layer IV. This study identified the regulation (up and down) of a series of genes in the stimulated barrels (thesis of Johnston-Wenger, 2010). We here focused on ten genes that presented the highest fold change according to the microarray analysis. Out of these genes, 7 are known as neuronal activity-dependent genes (Tnncl, Nptx2, Sorcs3, Ptgs2, Nr4a2, Npas4 and Adcyapl) whereas three have so far not been related to neuronal plasticity (Scn7a, Pcdhl5 and Cede3). The study aimed at confirming the results of the microarray analysis and localizing molecular modifications in the stimulated barrel column at the cellular level. In situ hybridization for Pcdhl5 after different periods of whisker stimulation (3, 6, 9, 15, 24 hrs) allowed us to confirm that the 1.25 fold change used for the microarray analysis is an appropriate threshold for considering a regulation significant after sensory-stimulation. Moreover, we confirmed with in situ hybridization a significant upregulation of the genes of interest in the stimulated barrels. In situ hybridization and immunohistochemistry allowed us to observe the distribution of the genes of interest and the corresponding protein products at the cellular level. Three observations were made: 1) alterations of the expression was restricted to the stimulated barrels for all genes tested; 2) within a barrel column not all cells responded to whisker stimulation with an altered gene expression; 3) in the stimulated barrels, two different patterns of mRNA and protein expression can be distinguished. We hypothesize that this segregation of the activity-induced gene expression reflects the segregation of the two principal thalamocortical pathways conveying the sensory information to the barrel cortex. Moreover, only neurons reaching the critical threshold will modify their gene expression program resulting in structural as well as physiological modifications that prevent the subsequent propagation of the excess of excitation to the postsynaptic targets. The activity-induced gene expression is therefore adapted in a cell-type-specific manner to induce a homeostatic response to the entire neuronal network involved in the integration of the sensory information. This to our knowledge the first study showing the distinct, but complementary contribution of the two thalamocortical pathways in experience-dependent plasticity in the adult mouse barrel cortex. -- L'information sensorielle nous permet de continuellement façonner nos circuits neuronaux autant durant le développement qu'à l'âge adulte. Chez le rongeur l'information sensorielle perçue par les vibrisses est intégrée au niveau du cortex somatosensoriel primaire (appelé en anglais « barrel cortex ») dont les cellules de la couche IV sont capables d'adapter leur état fonctionnel en réponse à une augmentation d'activité neuronale. Ce modèle expérimental a permis à notre groupe de recherche d'observer des changements rapides du circuit neuronal en fonction de l'activité sensorielle. En effet, la stimulation continue d'une vibrisse d'une souris adulte pendant 24 heures induit non seulement un remaniement synaptique (Knott et al., 2002), mais également des changements physiologiques au niveau des neurones du tonneau correspondant (Quairiaux et al., 2007). Ces observations nous permettent d'affirmer que le « barrel cortex » est un modèle approprié pour y étudier la plasticité synaptique. Au niveau cellulaire, l'activité neuronale déclenche des cascades de signalisation intracellulaire résultant en une réponse transcriptionnelle. Afin de caractériser les voies moléculaires impliquées dans la plasticité synaptique, une puce à ARN nous a permis de comparer l'expression de gènes entre un tonneau correspondant à une vibrisse stimulée et un tonneau d'une vibrisse non-stimulée (Nathalie). Cette analyse a révélé un certain nombre de gènes régulés de manière positive ou négative par l'augmentation de l'activité neuronale. Nous nous sommes concentrés sur 10 gènes dont l'expression est fortement régulée. L'expression de sept d'entre eux a déjà été démontrée comme dépendante de l'activité neuronale (Tnncl, Nptx2, Sorcs3, Ptgs2, Nr4a2, Npas4 otAdcyapl) alors que l'expression des trois autres (Scn7a, Pcdhl5 et Cedei) n'a pour le moment pas encore été liée à la plasticité neuronale. Le but de cette thèse est de confirmer les résultats de la puce à ARN et de déterminer dans quel type cellulaire ces gènes sont exprimés. L'hybridation in situ pour le gène Pcdhl5, après différentes périodes de stimulation des vibrisses (3, 6, 9, 15 et 24 heures), nous a permis de confirmer que le seuil de 1.25x utilisé dans l'analyse de la puce à ARN est approprié pour considérer qu'un gène est régulé de manière significative par la stimulation sensorielle. Nous avons également pu confirmer à l'aide de cette technique que la stimulation sensorielle augmente significativement l'expression de ces dix gènes. L'expression de ces gènes au niveau cellulaire a été observée à l'aide des techniques d'hybridation in situ et d'immunohistochimie. Trois observations ont été faites : 1) la régulation de ces gènes est restreinte aux tonneaux correspondants aux vibrisses stimulées ; 2) au niveau d'une colonne corticale correspondant aux vibrisses stimulées, seules certaines cellules présentent une altération de leur expression génique ; 3) au niveau des tonneaux stimulés, deux profils d'expression d'ARNm et de protéines sont observés. Notre hypothèse est que cette distribution pourrait correspondre à la terminaison ségrégée des deux voies thalamocortical qui amènent l'information sensorielle dans le cortex cérébral. De plus, seul les neurones atteignant le seuil critique d'activation modifient leur expression génique en réponse à la stimulation sensorielle. Ces changements d'expression géniques vont permettre à la cellule de modifier ses propriétés structurales et physiologiques de manière a prevenir la propagation d'un excès d'activité neuronale au niveau de ses cibles postsynaptics. L'activité neuronale agit donc spécifiquement sur certains types cellulaires de maniere a induire une réponse homéostatique au niveau du réseau neuronal impliqué dans l'integration de l'information sensorielle. Nos travaux démontrent pour une première fois que les deux voies sensorielles contribuent d'une manière distincte et complémentaire à la plasticité corticale induite par un changement de l'activité sensorielle chez la souris adulte.
Resumo:
Rapport de synthèse:Le but de cette étude était d'investiguer pour la première fois chez l'homme l'effet du sodium alimentaire et de l'hypertension artérielle sur l'oxygénation tissulaire par une technique spéciale d'imagerie à résonance magnétique nommée 'BOLD-IRM' (Blood Oxygen Level Dependent-IRM). Le BOLD-IRM est une technique nouvelle qui permet de mesurer la bio disponibilité tissulaire d'oxygène de façon non-invasive chez l'homme, en utilisant le déoxyhémoglobine comme produit de contraste endogène.Le rational de cette étude était double. Premièrement, des changements dans l'apport sodique alimentaire devraient théoriquement influencer l'oxygénation tissulaire rénale, étant donné que la réabsorption tubulaire du sodium est un transport actif nécessitant de l'énergie et de l'oxygène. Deuxièmement, des études chez l'animal suggèrent une rôle possible de l'hypoxie tissulaire dans le développement de la néphropathie hypertensive.Nous avons déterminé l'oxygénation rénale avec le BOLD-IRM chez dix hommes normo tendus (âgés de 26.5±7.4 ans) et huit hommes hypertendus non-traités (âgés de 28.8±5.7 ans) une semaine après un régime riche en sel (>200 mmol/jour), et de nouveau une semaine après un régime pauvre en sel (<100 mmol/jour). En parallèle, nous avons mesuré la clearance de l'inuline, du p- aminohippurate (PAH) et du lithium endogène, afin de déterminer respectivement la filtration glomérulaire, le flux sanguin rénal et le 'renal sodium handling', tous des paramètres ayant la capacité d'influencer la consommation et/ou la disponibilité d'oxygène tissulaire. Nous nous attendions d'une côté à une oxygénation rénale diminuée chez les sujets hypertendus par rapport aux sujets normo tendus, et d'une autre côté à une augmentation de l'oxygénation tissulaire rénale après une semaine de régime pauvre en sel par rapport à la phase d'un régime riche en sel.Nous retenons comme résultat principal une augmentation de l'oxygénation rénale médullaire suite à une restriction sodique par rapport à un régime riche en sel chez tous les participants (normo-et hypertendus). Chez les participants normotendus ces changements correlaient avec des changements dans le transport actif du sodium, et ceci indépendamment du flux sanguin rénal. Contrairement à ce qu'on attendait, l'oxygénation rénale médullaire était plus élevé chez les sujets hypertendus par rapport aux sujets normotendus.En résumé, ces observations offrent possiblement une explication pour les bénéfices rénaux liés à un régime pauvre en sel. En plus, la combinaison d'études de clearance et le BOLD- IRM comme utilisé dans cette étude se sont révélés un outil performant et prometteur qui peut stimuler la recherche dans ce domaine.
Resumo:
AbstractPPARP is a nuclear receptor responding in vivo to several free fatty acids, and implicated in cell metabolism, differentiation and survival. PPARp is ubiquitously expressed but shows high expression in the developing and adult brain. PPARp is expressed in different cell types such as neurons and astrocytes, where it might play a role in metabolism. To study this nuclear receptor the laboratory engineered a PPARP -/- mouse model. The aim of my PhD was to dissect the role of PPARP in astrocytes.Experiments in primary culture revealed that cortical astrocytes from PPARP -/- mouse have an impaired energetic metabolism. Unstimulated PPARP -/- astrocytes exhibit a 30% diminution in glucose uptake, correlating to a 30% decrease in lactate release and intracellular glucose. After acute stimulation by D- aspartate mimicking glutamate exposure, both WT and -/- astrocytes up-regulate their metabolism to respond to the increasing energy needed (ATP) for glutamate uptake. According to the Astrocyte Neuron Lactate Shuttle Hypothesis (ANLSH), the ratio between glucose uptake/ lactate release is 1. However, stimulated PPARp -/- astrocytes display a higher increase in lactate release than glucose uptake which remains lower than in WT. The extra glucose equivalents could come from the degradation of intra cellular glycogen stores, which indeed decrease in PPARP -/- cells upon stimulation. Lower glucose metabolism correlates with a decreased acute glutamate uptake in PPARP -/- astrocytes. Reciprocally, we also observed an increase of glutamate uptake and ATP production after treatment of WT astrocytes with a PPARp agonist. Glutamate transporter protein expression is not affected. However, their trafficking and localization might be altered as PPARp -/- astrocytes have higher cholesterol levels, which may also affect proper transporter structure in the membrane.Metabolism, transporter localization and cholesterol levels are respectively linked to cell mobility, cell cytoskeleton and cellular membrane composition. All three functions are important in astrocytes to in vivo acquire star shaped morphology, in a process known as stellation. PPARP -/- astrocytes showed an impaired acquired stellation in presence of neurons or chemical stimuli, as well as more actin stress fibers and cell adhesion structures. While non stellation of astrocytes is mainly an in vitro phenomenon, it reveals PPARp -/- primary astrocytes inability to respond to different exterior stimuli. These morphological phenotypes correlate with a slower migration in cell culture wound healing assays.This thesis work demonstrates that PPARp is implicated in cortical astrocyte glucose metabolism. PPARp absence leads to an unusual intracellular glycogen use. Added to the effect on acute glutamate uptake and astrocyte migration, PPARp could be an interesting target for neuroprotection therapies.RésuméPPARP est un récepteur nucléaire qui a pour ligands naturels certains acides gras libres. Il est impliqué dans le métabolisme, la différentiation et la survie des cellules. PPARP est ubiquitaire, et a une expression élevée dans le cerveau en développement ainsi qu'adulte. PPARp est exprimé dans différents types cellulaires tels que les neurones et les astrocytes, où il régule potentiellement leurs métabolismes. Pour étudier ce récepteur nucléaire, le laboratoire a créé un modèle de souris PPARp -/-. L'objectif de ma thèse est de comprendre le rôle de PPARp dans les astrocytes.Les expériences montrent un défaut du métabolisme énergétique dans les astrocytes corticaux primaires tirés de souris PPARp -/-. Sans stimulation, l'entrée du glucose dans les astrocytes PPARP -/- est diminuée de 30% ce qui correspond à une diminution de 30% du relargage du lactate. Après stimulation par du D-Aspartate qui mime une exposition au glutamate, les astrocytes WT et -/- augmentent leur métabolisme en réponse à la demande accrue en énergie (ATP) due à l'entrée du glutamate. D'après l'Astrocyte Neuron Lactate Shuttle Hypothesis (ANLSH), le ratio entre le glucose entrant et le lactate sortant est de 1. Cependant le relargage du lactate dans les astrocytes PPARP-/- est plus élevé que l'entrée du glucose. L'apport supplémentaire de glucose transformé en lactate pourrait provenir de la dégradation des stocks de glycogène intracellulaire, qui sont partiellement diminués après stimulation dans les cellules PPARP -/-. Un métabolisme plus faible du glucose corrèle avec une réduction de l'import du glutamate dans les astrocytes PPARp -/-. Réciproquement, nous observons une augmentation de l'import du glutamate et de la production d'ATP après traitement avec l'agoniste pour PPARp. Bien que l'expression des transporteurs de glutamate ne soit pas affectée, nous ne pouvons pas exclure que leur localisation et leur structure soient altérées du fait du niveau élevé de cholestérol dans les astrocytes PPARp -/-.Le métabolisme, la localisation des transporteurs et le niveau de cholestérol sont tous liés au cytosquelette, à la mobilité, et à la composition des membranes cellulaires. Toutes ces fonctions sont importantes pour les astrocytes pour acquérir leur morphologie in vivo. Les astrocytes PPARP -/- présentent un défaut de stellation, aussi bien en présence de neurones que de stimuli chimiques, ainsi qu'un plus grand nombre de fibres de stress (actine) et de structures d'adhésion cellulaire. Bien que les astrocytes non stellaires soient principalement observés in vitro, le défaut de stellation des astrocytes primaires PPARp -/- indique une incapacité à répondre aux différents stimuli extérieurs. Ces phénotypes morphologiques corrèlent avec une migration plus lente en cas de lésion de la culture.Ce travail de thèse a permis de démontrer l'implication de PPARP dans le métabolisme du glucose des astrocytes corticaux. L'absence de ce récepteur nucléaire amène à l'utilisation du glucose intracellulaire, auquel s'ajoutent les effets sur l'import du glutamate et la migration des astrocytes. PPARp aurait des effets neuroprotecteurs, et de ce fait pourrait être utilisé à des fins thérapeutiques.
Resumo:
Objectifs : Le coefficient de diffusion apparente (ADC) est utilisé pour le suivi des lésions hépatiques malignes traitées. Cependant, l'ADC est généralement mesuré dans la lésion entière, alors que cela devrait être réalisé dans la zone la plus restreinte (ZLPR), cette dernière représentant potentiellement du résidu tumoral. Notre objectif était d'évaluer la variabilité inter/intraobservateur de l'ADC dans la tumeur entière et dans la ZLPR. Matériels et méthodes : Quarante patients traités par chimioembolisation ou radiofréquence ont été évalués. Après consensus, deux lecteurs ont indépendamment mesuré l'ADC de la lésion entière et de la ZLPR. Les mêmes mesures ont été répétées deux semaines plus tard. Le test de Spearman et la méthode de Bland-Altman ont été utilisées. Résultats : La corrélation interobservateur de l'ADC dans la lésion entière et dans la ZLPR était de 0,962 et de 0,884. La corrélation intraobservateur était de 0,992 et de 0,979, respectivement. Les limites de variabilité interobservateur (mm2/sec*10 - 3) étaient entre -0,25/+0,28 dans la lésion entière et entre -0,51/+0,46 dans la ZLPR. Les limites de variabilité intraobservateur étaient respectivement : -0,25/+0,24 et -0,43/+0,47. Conclusion : La corrélation inter/intraobservateur dans les mesures d'ADC est bonne. Toutefois, une variabilité limitée existe et doit être considérée lors de l'interprétation des valeurs d'ADC des tumeurs hépatiques.
Resumo:
Dans les dernières années du 20ème siècle, l'aluminium a fait l'objet de beaucoup de communications outrancières et divergentes cautionnées par des scientifiques et des organismes faisant autorité. En 1986, la société PECHINEY le décrète perpétuel tel le mouvement « L'aluminium est éternel. Il est recyclable indéfiniment sans que ses propriétés soient altérées », ce qui nous avait alors irrité. Peu de temps après, en 1990, une communication tout aussi outrancière et irritante d'une grande organisation environnementale, le World Wild Fund, décrète que « le recyclage de l'aluminium est la pire menace pour l'environnement. Il doit être abandonné ». C'est ensuite à partir de la fin des années 1990, l'explosion des publications relatives au développement durable, le bien mal nommé. Au développement, synonyme de croissance obligatoire, nous préférons société ou organisation humaine et à durable, mauvaise traduction de l'anglais « sustainable », nous préférons supportable : idéalement, nous aurions souhaité parler de société durable, mais, pour être compris de tous, nous nous sommes limités à parler dorénavant de développement supportable. Pour l'essentiel, ces publications reconnaissent les très graves défauts de la métallurgie extractive de l'aluminium à partir du minerai et aussi les mérites extraordinaires du recyclage de l'aluminium puisqu'il représente moins de 10% de la consommation d'énergie de la métallurgie extractive à partir du minerai (on verra que c'est aussi moins de 10% de la pollution et du capital). C'est précisément sur le recyclage que se fondent les campagnes de promotion de l'emballage boisson, en Suisse en particulier. Cependant, les données concernant le recyclage de l'aluminium publiées par l'industrie de l'aluminium reflètent seulement en partie ces mérites. Dans les années 1970, les taux de croissance de la production recyclée sont devenus plus élevés que ceux de la production électrolytique. Par contre, les taux de recyclage, établis à indicateur identique, sont unanimement tous médiocres comparativement à d'autres matériaux tels le cuivre et le fer. Composante de l'industrie de l'aluminium, le recyclage bénéficie d'une image favorable auprès du grand public, démontrant le succès des campagnes de communication. A l'inverse, à l'intérieur de l'industrie de l'aluminium, c'est une image dévalorisée. Les opinions émises par tous les acteurs, commerçants, techniciens, dirigeants, encore recueillies pendant ce travail, sont les suivantes : métier de chiffonnier, métier misérable, métier peu technique mais très difficile (un recycleur 15 d'aluminium n'a-t-il pas dit que son métier était un métier d'homme alors que celui du recycleur de cuivre était un jeu d'enfant). A notre avis ces opinions appartiennent à un passé révolu qu'elles retraduisent cependant fidèlement car le recyclage est aujourd'hui reconnu comme une contribution majeure au développement supportable de l'aluminium. C'est bien pour cette raison que, en 2000, l'industrie de l'aluminium mondiale a décidé d'abandonner le qualificatif « secondaire » jusque là utilisé pour désigner le métal recyclé. C'est en raison de toutes ces données discordantes et parfois contradictoires qu'a débuté ce travail encouragé par de nombreuses personnalités. Notre engagement a été incontestablement facilité par notre connaissance des savoirs indispensables (métallurgie, économie, statistiques) et surtout notre expérience acquise au cours d'une vie professionnelle menée à l'échelle mondiale dans (recherche et développement, production), pour (recherche, développement, marketing, stratégie) et autour (marketing, stratégie de produits connexes, les ferro-alliages, et concurrents, le fer) de l'industrie de l'aluminium. Notre objectif est de faire la vérité sur le recyclage de l'aluminium, un matériau qui a très largement contribué à faire le 20ème siècle, grâce à une revue critique embrassant tous les aspects de cette activité méconnue ; ainsi il n'y a pas d'histoire du recyclage de l'aluminium alors qu'il est plus que centenaire. Plus qu'une simple compilation, cette revue critique a été conduite comme une enquête scientifique, technique, économique, historique, socio-écologique faisant ressortir les faits principaux ayant marqué l'évolution du recyclage de l'aluminium. Elle conclut sur l'état réel du recyclage, qui se révèle globalement satisfaisant avec ses forces et ses faiblesses, et au-delà du recyclage sur l'adéquation de l'aluminium au développement supportable, adéquation largement insuffisante. C'est pourquoi, elle suggère les thèmes d'études intéressant tous ceux scientifiques, techniciens, historiens, économistes, juristes concernés par une industrie très représentative de notre monde en devenir, un monde où la place de l'aluminium dépendra de son aptitude à satisfaire les critères du développement supportable. ABSTRACT Owing to recycling, the aluminium industry's global energetic and environmental prints are much lower than its ore extractive metallurgy's ones. Likewise, recycling will allow the complete use of the expected avalanche of old scraps, consequently to the dramatic explosion of aluminium consumption since the 50's. The recycling state is characterized by: i) raw materials split in two groups :one, the new scrap, internal and prompt, proportional to semi-finished and finished products quantities, exhibits a fairly good and regular quality. The other, the old scrap, proportional to the finished products arrivïng at their end-of--life, about 22 years later on an average, exhibits a variable quality depending on the collect mode. ii) a poor recycling rate, near by that of steel. The aluminium industry generates too much new internal scrap and doesn't collect all the availa~e old scrap. About 50% of it is not recycled (when steel is recycling about 70% of the old scrap flow). iii) recycling techniques, all based on melting, are well handled in spite of aluminium atiiníty to oxygen and the practical impossibility to purify aluminium from any impurity. Sorting and first collect are critical issues before melting. iv) products and markets of recycled aluminium :New scraps have still been recycled in the production lines from where there are coming (closed loop). Old scraps, mainly those mixed, have been first recycled in different production lines (open loop) :steel deoxidation products followed during the 30's, with the development of the foundry alloys, by foundry pieces of which the main market is the automotive industry. During the 80's, the commercial development of the beverage can in North America has permitted the first old scrap recycling closed loop which is developing. v) an economy with low and erratic margins because the electrolytic aluminium quotation fixes scrap purchasing price and recycled aluminium selling price. vi) an industrial organisation historically based on the scrap group and the loop mode. New scrap is recycled either by the transformation industry itself or by the recycling industry, the remelter, old scrap by the refiner, the other component of the recycling industry. The big companies, the "majors" are often involved in the closed loop recycling and very seldom in the open loop one. To-day, aluminium industry's global energetic and environmental prints are too unbeara~ e and the sustainaЫe development criteria are not fully met. Critical issues for the aluminium industry are to better produce, to better consume and to better recycle in order to become a real sustainaЫe development industry. Specific issues to recycling are a very efficient recycling industry, a "sustainaЫe development" economy, a complete old scrap collect favouring the closed loop. Also, indirectly connected to the recycling, are a very efficient transformation industry generating much less new scrap and a finished products industry delivering only products fulfilling sustainaЫe development criteria.
Resumo:
L'héritage d'un grand événement sportif peut être perçu de multiples façons. On peut le voir comme positif ou négatif, tangible ou intangible, territorial ou personnel, intentionnel ou non, global ou local, à court ou long terme, lié au sport ou non, et aussi selon la perspective de ses différentes parties prenantes. En fait, il est bien plus approprié d'employer le terme d'héritages au pluriel qu'au singulier. Cet article donne une vue d'ensemble d'un concept souvent utilisé mais rarement défini - celui d'héritage (legacy en anglais) - en utilisant des exemples provenant des Jeux olympiques et des Jeux du Commonwealth, deux des plus grands événements sportifs multisports régulièrement organisés. Il conclue que l'héritage est pour l'essentiel un rêve à poursuivre plutôt qu'une certitude à atteindre pour ce qui concerne les grands événements sportifs.