872 resultados para Université de Fribourg. Faculté de théologie.
Resumo:
Question de recherche : Est-ce que la limite de taille de 7 mm d'un anévrisme intracrânien non rompu¦proposée par les études internationales est un critère valable de sélection entre un traitement¦conservateur (observation périodique) ou une intervention curative sur la population du CHUV ?¦Contexte : On estime actuellement la fréquence des anévrismes intracrâniens à 0.2-9% dans la¦population générale. Le taux d'hémorragie sous-arachnoïdienne due à une rupture d'anévrisme est¦estimé à 6-16 pour 100'000 personnes.¦Selon les investigateurs de l'International Study of Unruptured Intracranial Aneurysms (ISUIA, 2003),¦le taux cumulé de rupture à 5 ans pour les anévrismes de moins de 7 mm de diamètre est de 0.05% ou¦2.5% selon que l'anévrisme se situe sur une artère de la circulation cérébrale antérieure ou postérieure,¦respectivement.¦Ces chiffres sont fortement controversés. En effet, d'autres études montrent que le risque de rupture des¦anévrismes inférieurs à 7 mm de diamètre est bien plus important que ne le laisse supposer l'étude¦ISUIA.¦Objectifs : L'objectif de ce travail de maîtrise vise à déterminer si la limite de taille de 7 mm d'un¦anévrisme cérébral non rompu proposé par certaines études internationales (et notamment l'étude¦ISUIA) est un critère valable pour sélectionner entre une observation périodique ou une intervention¦curative (chirurgicale ou endovasculaire) des patients.¦Un corollaire qui découle de cette question est de savoir s'il est justifié de traiter d'emblée un¦anévrisme cérébral non rompu mesurant moins de 7 mm.¦Matériel et Méthodes : Etude rétrospective observationnelle basée sur des données provenant des¦dossiers médicaux des patients admis aux urgences du CHUV avec une hémorragie sousarachnoïdienne¦due à la rupture d'un anévrisme intracrânien pendant une période allant de juin 2005 à¦avril 2011.¦Différents paramètres sont pris en considération : l'âge et le sexe du patient, la taille, la localisation et le¦nombre d'anévrismes, les facteurs de risque de rupture comme le tabac, l'hypertension artérielle et la¦consommation d'alcool, ainsi que les antécédents et l'histoire familiale de rupture d'anévrisme.¦Le critère de jugement principal est la taille de l'anévrisme, suivi par sa localisation.¦Les critères d'exclusion des patients sont les suivants : anévrismes mycotique, fusiforme ou¦traumatique, tumeur cérébrale maligne.¦Résultats escomptés : Avec ce travail, une nouvelle limite de diamètre anévrismal pourrait être¦proposée, en tenant compte des différents paramètres analysés sur un échantillon de la population¦locale. Les résultats pourraient apporter plus de précisions dans le bilan du risque d'une rupture¦anévrismale. Ainsi, la décision d'une intervention bénéficierait d'une base de réflexion nouvelle pour¦les anévrismes non rompus de petite taille.¦Plus-value escomptée : Cette étude pourrait contribuer à améliorer le pronostic des patients porteurs¦d'anévrisme(s) intracrânien(s). Elle permettrait en effet d'intervenir en cas d'anévrismes intracrâniens¦non rompus de taille inférieure à 7 mm, avant que ceux-ci ne se rompent et provoquent une hémorragie¦sous-arachnoïdienne.
Resumo:
Résumé Suite à la publication des recommandations de pratiques cliniques sur la prise en soins de patients fébriles au retour des tropiques, nous avons développé un site internet de consultation www.fevertravel.ch qui comprend un arbre décisionnel et des caractéristiques diagnostiques spécifiques fournissant une assistance diagnostique aux médecins de premier recours. Nous avons ensuite intégré une composante de recherche afin d'évaluer l'implémentation de ces recommandations de pratiques cliniques informatisées. De plus, le site est capable d'enregistrer : (1) le chemin parcouru par le médecin au travers de l'arbre décisionnel, (2) les tests diagnostics effectués, (3) les diagnostics initial et final ainsi que les devenirs des patients et (4) les raisons de non-adhérence lorsque les médecins divergent de l'attitude proposée. Nous croyons que la technologie internat est un moyen puissant pour atteindre des médecins provenant de différents horizons dans leur propre environnement et qu'il pourrait se montrer être un outil de recherche efficace pour disséminer les recommandations de pratiques cliniques et évaluer leur justesse-adéquation. Dans cet article, nous décrivons le design, le contenu, l'architecture et l'implémentation du système de ce prototype d'étude interactive qui vise à intégrer une recherche opérationnelle en médecine de premier recours.
Resumo:
RESUME : BAFF est un membre de 1a famille du TNF qui contrôle l'homéostasie des lymphocytes B. BAFF lie les récepteurs TACI, BCMA et BAFF-R sur les cellules B, tandis qu'APRIL, son proche homologue, lie seulement TACI et BCMA. BAFF et APRIL sont des protéines transmembranaires pouvant -être relâchées sous forme de cytokines trimériques solubles suite à un clivage protéolytique. Le BAFF soluble peut s'assembler en 60-mère. Les rôles physiologiques des BAFF membranaires et solubles sont inconnnus. Nous avons étudié la capacité de diverses formes de BAFF et APRIL à activer différents récepteurs. BAFF-R répond à toutes les formes dé BAFF, tandis que TACI nécessite du BAFF ou de l'APRIL membranaire ou oligomérisé pour être activé et pour transmettre des signaux de survie dans les lymphocytes B primaires. TACI ne répond pas aux ligands trimériques bien qu'il puisse les lier. TACI est essentiel pour la réponse humorale aux antigènes présentant des épitoges répétitifs, une réponse qui est indépendante des lymphocytes T (réponse TI-2). Des souris exprimant moins de BAFF ont un pourcentage modérément réduit de lymphocytes B et leur réponse TI-2 est atténuée. Par contre, des souris qui n'expriment que du BAFF membranaire ont encore moins de cellules B mais répondent efficacement aux antigènes TI-2. Ces résultats suggèrent que le BAFF soluble est impliqué dans le maintien de la population des lymphocytes B, alors que le BAFF membranaire peut activer TACI lors d'are réponse TI-2. Le BAFF 60-mère est un autre activateur potentiel de TACI in vivo. Le BAFF 60-mère existe dans des surnageants de cellules productrices de BAFF mais n'est pas détecté dans le plasma de souris saines, même lorsqu'elles présentent des niveaux élevés de BAFF. BAFF 60-mère est néanmoins présent dans le plasma de souris transgéniques pour BAFF et de souris déficientes en TACI. Comme ces deux lignées présentent des signes d'autoimmunité, ces résultats suggèrent que la présence de BAFF 60-mère pourrait être liée à des conditions pathologiques. Summary : The TNF family ligand BAFF is essential for B cell homeostasis. BAFF binds to the receptors TACI, BCMA and BAFF-R on B cells, whereas its close homolog APRIL binds to TACI and BCMA only. BAFF and APRIL are transmembrane proteins, which can be proteolytically processed to release trimeric soluble cytokines. Soluble BAFF 3-mer can further assemble in a 60-mer. The physiological roles of membrane-bound and soluble BAFF are unknown. We studied the ability of various forms of BAFF and APRIL to signal through different receptors. BAFF-R responded to all forms of BAFF, but TACI required membrane-bound, cross-licked or oligomeric BAFF or APRIL in order to transmit productive signals in primary B cells. TACI was unresponsive to trimeric ligands, although it could bind them. TACI is essential for T-cell independent antibody responses to antigens with repetitive epitopes (TI-2 responses). Mice expressing lower than normal levels of BAFF displayed a moderate B cell reduction and impaired TI-2 responses, whereas mice expressing membrane-bound BAFF displayed severe B cell reduction, but unimpaired TI-2 responses. These results suggest that processed BAFF is involved in the maintenance of the B cell pool and that membrane-bound BAFF can activate TACI during T-cell independent humoral responses. BAFF 60-mer is another potential activator of TACI in vivo. BAFF 60-mer was detected in the supernatant of BAFF-producing cells, but not in the plasma of healthy mice with either norma1 or elevated BAFF levels. It was however present in sera of BAFF transgenic mice and TACI-/- mice, both of which suffer from autoimmunity, suggesting that GAFF 60-mer may be linked to pathogenic conditions.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Rapport de synthèse : Introduction : le vieillissement cutané est un processus biologique complexe auquel participe une exposition excessive au rayonnement ultraviolet du soleil. En particulier, les longueurs d'onde des rayons ultraviolets A et B (UV-A et UV-B) peuvent induire une augmentation de la synthèse de protéases, comme la métalloprotéinase matricielle 1 (MMP-1), qui est impliquée dans le processus de vieillissement. La thermothérapie par infrarouges, dont les longueurs d'onde sont plus longues que celles des UV, est largement utilisée à des fins thérapeutiques ou cosmétiques. Or, il a été démontré que les infrarouges en filtration aqueuse (IRFA) pouvaient induire une augmentation de la production de MMP-1 et par conséquent être nocifs. Il serait donc intéressant d'évaluer les effets des IRFA au niveau cellulaire et moléculaire. But Expérimental : étudier les effets des lampes à infrarouges en filtration aqueuse utilisées en clinique sur des fibroblastes cutanés humains en culture, afin d'analyser l'expression du gène codant pour la protéine MMP-1. Méthode : des fibroblastes cutanés humain ont été irradiés d'une part avec approximativement 88% d'IRFA (780-1400 nm) et 12% de lumière rouge (LR, 665-780 nm) avec 380 mW/cm2 IRFA(+LR) (333 mW/cm2 IRFA) et d'autre part avec des UV-A comme contrôle. Des courbes de survie cellulaire ont été établies après une exposition allant de 15 minutes à 8 heures au IRFA(+LR) (340-10880 J/cm2 wIRA(+RL), 300-9600 J/cm2 wIRA) ou de 15 à 45 minutes aux UV-A(+BL) (25-75 J/cm2 UV-A(+BL). L'induction de l'ARNm du gène de la MMP-1 a été analysé dans les fibroblastes cutanés humain à deux températures physiologiques (30°C et 37°C) lors d'expositions uniques de 15 à 60 minutes aux IRFA(+LR) (340-1360 J/cm2 IRFA(+LR), 300-1200 J/cm2 IRFA) ou de 30 minutes aux UV-A(+BL) (50 J/cm2 UVA(+BL)). De plus, nous avons effectué des irradiations répétées, une a chaque passage cellulaire jusqu'au passage. 10 de 15 minutes d'IRFA(+LR) 340 J/cm2 IRFA(+LR), 300 J/cm2 IRFA) . Résultats : une exposition unique aux UV-A (+BL) entraîne chez des fibroblastes cutanés humains une augmentation de la mort cellulaire, ainsi qu'une forte augmentation de l'expression du gène codant pour la MMP-1. L'augmentation mise en évidence pour cet ARNm varie en fonction de la technique utilisée : elle est de 11 ± 1 fois par RT-PCR classique, de 76 ± 2 fois par RT-PCR quantitative à 30°C, et de 75 ± 1 fois par RT-PCR quantitative à 37°C. Par contre, une exposition unique ou répétée aux IRFA (+LR) n'induit aucune augmentation de la mort cellulaire, ni de l'expression de l'ARNm de la MMP-1 chez ces fibroblastes. Conclusions : les résultats de cette étude montrent que, contrairement aux rayons ultraviolets, les IRFA (+LR) ne semblent impliqués ni dans le vieillissement, ni dans la mort cellulaire, même utilisés à des doses très élevées. Ces résultats sont en accord avec certaines investigations in vivo montrant une induction de MMP-1 par des UV et non des infrarouges. Ces dernières études suggèrent d'ailleurs plutôt un rôle protecteur des IRFA (+LR).
Resumo:
Summary: Victims of crime are not only physical persons. Firms also experience some different forms of victimization either from outsiders or front employees. Crimes committed inside the firm are various: theft, embezzlement, fraud, fraudulent management, money laundering, vandalism etc. Assessed damage could be considerable. But in general, most of the criminological studies relating to victimization have been interested in individuals as victims. In Switzerland, to date, research on firms'victimization is simply rare and traditional research methods such as victimization survey, self-reported delinquency or controlled experiments are not very much utilized in Swiss white-collar crime studies. Thus, in order to improve the situation, we have decided to start a victimization study on white-collar crime committed in firms of the canton of Geneva. To narrow the field of research, our project seeks to apprehend white-collar crime as a series of offences committed by employees inside the firm, by fraud or deceit, aiming at an illegitimate enrichment. The phenomenon of white-collar crime perpetrated has been evaluated by examining the presence of risk factors and prevention strategies. Furthermore, the correlation between the victimization rate and some aspects of vulnerability has also been investigated. Using data collected from the victimization survey carried out in 2005, some of the key research questions are the following: - which are the types of offences committed? - Which types of measure of prevention are the most efficient to prevent such offences ? - Which type of business is more vulnerable? - Which are the risk factors? - Which is the profile of the authors? - Which are the motivations?, etc. Findings show that companies which valorize their employees and pursue a transparent management style suffer a lower victimization rate. Further, the retail sector seems to be more affected than the financial sector and big firms are more vulnerable.
Resumo:
Pendant ma thèse de doctorat, j'ai utilisé des espèces modèles, comme la souris et le poisson-zèbre, pour étudier les facteurs qui affectent l'évolution des gènes et leur expression. Plus précisément, j'ai montré que l'anatomie et le développement sont des facteurs clés à prendre en compte, car ils influencent la vitesse d'évolution de la séquence des gènes, l'impact sur eux de mutations (i.e. la délétion du gène est-elle létale ?), et leur tendance à se dupliquer. Où et quand il est exprimé impose à un gène certaines contraintes ou au contraire lui donne des opportunités d'évoluer. J'ai pu comparer ces tendances aux modèles classiques d'évolution de la morphologie, que l'on pensait auparavant refléter directement les contraintes s'appliquant sur le génome. Nous avons montré que les contraintes entre ces deux niveaux d'organisation ne peuvent pas être transférées simplement : il n'y a pas de lien direct entre la conservation du génotype et celle de phénotypes comme la morphologie. Ce travail a été possible grâce au développement d'outils bioinformatiques. Notamment, j'ai travaillé sur le développement de la base de données Bgee, qui a pour but de comparer l'expression des gènes entre différentes espèces de manière automatique et à large échelle. Cela implique une formalisation de l'anatomie, du développement et de concepts liés à l'homologie grâce à l'utilisation d'ontologies. Une intégration cohérente de données d'expression hétérogènes (puces à ADN, marqueurs de séquence exprimée, hybridations in situ) a aussi été nécessaire. Cette base de données est mise à jour régulièrement et disponible librement. Elle devrait contribuer à étendre les possibilités de comparaison de l'expression des gènes entre espèces pour des études d'évo-devo (évolution du développement) et de génomique. During my PhD, I used model species of vertebrates, such as mouse and zebrafish, to study factors affecting the evolution of genes and their expression. More precisely I have shown that anatomy and development are key factors to take into account, influencing the rate of gene sequence evolution, the impact of mutations (i.e. is the deletion of a gene lethal?), and the propensity of a gene to duplicate. Where and when genes are expressed imposes constraints, or on the contrary leaves them some opportunity to evolve. We analyzed these patterns in relation to classical models of morphological evolution in vertebrates, which were previously thought to directly reflect constraints on the genomes. We showed that the patterns of evolution at these two levels of organization do not translate smoothly: there is no direct link between the conservation of genotype and phenotypes such as morphology. This work was made possible by the development of bioinformatics tools. Notably, I worked on the development of the database Bgee, which aims at comparing gene expression between different species in an automated and large-scale way. This involves the formalization of anatomy, development, and concepts related to homology, through the use of ontologies. A coherent integration of heterogeneous expression data (microarray, expressed sequence tags, in situ hybridizations) is also required. This database is regularly updated and freely available. It should contribute to extend the possibilities for comparison of gene expression between species in evo-devo and genomics studies.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
Apoptosis or programmed cell death is a regulated form of cell suicide executed by cysteine proteases, or "caspases", to maintain proper tissue homeostasis in multicellular organisms. Dysregulation of apoptosis leads to pathological complications including cancer, autoimmunity, neurodegenerative, and heart diseases. Beside their known function as the key executioners of apoptotic cell death, caspases were reported to mediate non-apoptotic functions. In this report we study the survival signals conveyed through caspase-3-mediated cleavage of Ras GTPase-activating proteins (RasGAP). Ubiquitously expressed, RasGAP senses caspase activity and controls the cell death/survival switch. RasGAP is cleaved once at low caspase activity and the generated N-terminal fragment (fragment N) induces a survival response by activating Ras/PI3K/Akt pathway. However, high caspase activity associated with increased stress leads to fragment Ν cleavage into fragments that do not mediate any detectable survival signals. In this thesis project we studied the role of fragment Ν in protecting stressed organs as well as in maintenance of their functionality. In response to stress in different organs, we found that mice lacking caspase-3 or unable to cleave RasGAP (Knock-In mice), and therefore unable to generate fragment N, were deficient in Akt activation and experienced increased apoptosis compared to wild-type mice. Augmented tissue damage and organ dysfunction in those mice highlight the importance of fragment Ν in activating Akt-mediated prosurvival pathway and in protection of organs during episodes of stress. In parallel we investigated the role of fragment Ν in regulating the activation of transcription factor NF-kB, a master regulator of inflammation. Sustained NF-kB activation may be detrimental by directly causing apoptosis or leading to a persistent damaging inflammation response. We found that fragment Ν is a potent inhibitor of NF-kB by favoring its nuclear export. Therefore, fragment Ν regulates NF-kB activity and contributes to a controlled response as well as maintenance of homeostasis in stressed cells. Importantly, these findings introduce new insights of how activated caspase-3 acts as a stress intensity sensor that controls cell fate by either initiating a fragment N- dependent cell resistance program or a cell suicide response. This identifies the pivotal role of fragment Ν in protection against patho-physiological damage, and encourages the development of therapies which aim to increase cell resistance to vigorous treatment. - L'apoptose, ou mort cellulaire programmée, est une forme contrôlée de suicide cellulaire exécuté par des protéines appelées caspases, dans le but de maintenir l'homéostasie des tissus sains dans les organismes multicellulaires. Un mauvais contrôle de l'apoptose peut mener à des pathologies comme le cancer, la neurodégénération et les maladies cardiaques et auto-immunes. En dehors de leur rôle connu d'exécutrices de l'apoptose, les caspases ont aussi été identifiées dans d'autres contextes non-apoptotiques. Dans ce projet, nous avons étudié les signaux de survie émis par le résultat du clivage de RasGAP par la caspase-3. Exprimée de façon ubiquitaire, RasGAP est sensible à l'activité de caspase-3 et contrôle la décision de la cellule à entreprendre la mort ou la survie cellulaire. A un taux d'activité faible, la caspase-3 clive RasGAP, ce qui mène à la génération d'un fragment N-terminal, appelé Fragment N, qui induit des signaux de survie via l'activation de la cascade Ras/PI3K/Akt. Cependant, lorsque l'activité de la caspase-3 augmente, le fragment N est clivé, ce qui a pour effet d'éliminer ces signaux de survie. Dans ce travail, nous avons étudié le rôle du Fragment N dans la protection des organes en état de stress et dans le maintien de leur fonctionnalité. En réponse à certains stress, nous avons découvert que les organes de souris n'exprimant pas la caspase-3 ou alors incapables de cliver RasGAP (souris Kl), et de ce fait n'ayant pas la possibilité de générer le Fragment N, perdaient leur faculté d'activer la protéine Akt et démontraient un taux d'apoptose plus élevé que des organes de souris sauvages. Le fait que les organes et tissus de ces souris manifestaient de graves dommages et dysfonctions met en évidence l'importance du Fragment N dans l'activation des signaux de survie via la protéine Akt et dans la neutralisation de l'apoptose induite par la caspase-3. En parallèle, nous avons investigué le rôle du Fragment N dans la régulation de l'activation de NF-kB, un facteur de transcription clé dans l'inflammation. Une activation soutenue de NF-kB peut être délétère par activation directe de l'apoptose ou peut mener à une réponse inflammatoire persistante. Nous avons découvert que le Fragment N, en favorisant l'export de NF-kB depuis le noyau, était capable de l'inhiber très efficacement. Le Fragment N régule donc l'activité de NF-kB et contribue au maintien de l'homéostasie dans des cellules stressées. Ces découvertes aident, de façon importante, à la compréhension de comment l'activation de la caspase-3 agit comme senseur de stress et décide du sort de la cellule soit en initiant une protection par le biais du fragment N, ou en induisant un suicide cellulaire. Cette étude définit le Fragment Ν comme ayant un rôle de pivot dans la protection contre des dommages patho-physiologiques, et ouvre des perspectives de développement de thérapies qui cibleraient à augmenter la résistance à divers traitements.
Resumo:
Kidneys are the main regulator of salt homeostasis and blood pressure. In the distal region of the tubule active Na-transport is finely tuned. This transport is regulated by various hormonal pathways including aldosterone that regulates the reabsorption at the level of the ASDN, comprising the late DCT, the CNT and the CCD. In the ASDN, the amiloride-sensitive epithelial Na-channel (ENaC) plays a major role in Na-homeostasis, as evidenced by gain-of function mutations in the genes encoding ENaC, causing Liddle's syndrome, a severe form of salt-sensitive hypertension. In this disease, regulation of ENaC is compromised due to mutations that delete or mutate a PY-motif in ENaC. Such mutations interfere with Nedd4-2- dependent ubiquitylation of ENaC, leading to reduced endocytosis of the channel, and consequently to increased channel activity at the cell surface. After endocytosis ENaC is targeted to the lysosome and rapidly degraded. Similarly to other ubiquitylated and endocytosed plasma membrane proteins (such as the EGFR), it is likely that the multi-protein complex system ESCRT is involved. To investigate the involvement of this system we tested the role of one of the ESCRT proteins, Tsg101. Here we show that Tsg101 interacts endogenously and in transfected HEK-293 cells with all three ENaC sub-units. Furthermore, mutations of cytoplasmic lysines of ENaC subunits lead to the disruption of this interaction, indicating a potential involvement of ubiquitin in Tsg101 / ENaC interaction. Tsg101 knockdown in renal epithelial cells increases the total and cell surface pool of ENaC, thus implying TsglOl and consequently the ESCRT system in ENaC degradation by the endosomal/lysosomal system. - Les reins sont les principaux organes responsables de la régulation de la pression artérielle ainsi que de la balance saline du corps. Dans la région distale du tubule, le transport actif de sodium est finement régulé. Ce transport est contrôlé par plusieurs hormones comme l'aldostérone, qui régule la réabsorption au niveau de l'ASDN, segment comprenant la fin du DCT, le CNT et le CCD. Dans l'ASDN, le canal à sodium épithélial sensible à l'amiloride (ENaC) joue un rôle majeur dans l'homéostasie sodique, comme cela fut démontré par les mutations « gain de fonction » dans les gênes encodant ENaC, causant ainsi le syndrome de Liddle, une forme sévère d'hypertension sensible au sel. Dans cette maladie, la régulation d'ENaC est compromise du fait des mutations qui supprime ou mute le domaine PY présent sur les sous-unités d'ENaC. Ces mutations préviennent l'ubiquitylation d'ENaC par Nedd4-2, conduisant ainsi à une baisse de l'endocytose du canal et par conséquent une activité accrue d'ENaC à la surface membranaire. Après endocytose, ENaC est envoyé vers le lysosome et rapidement dégradé. Comme d'autres protéines membranaires ubiquitylées et endocytées (comme l'EGFR), il est probable que le complexe multi-protéique ESCRT est impliqué dans le transport d'ENaC au lysosome. Pour étudier l'implication du système d'ESCRT dans la régulation d'ENaC nous avons testé le rôle d'une protéine de ces complexes, TsglOl. Notre étude nous a permis de démontrer que TsglOl se lie aux trois sous-unités ENaC aussi bien en co-transfection dans des cellules HEK-293 que de manière endogène. De plus, nous avons pu démontrer l'importance de l'ubiquitine dans cette interaction par la mutation de toutes les lysines placées du côté cytoplasmique des sous-unités d'ENaC, empêchant ainsi l'ubiquitylation de ces sous-unités. Enfin, le « knockdown » de TsglOl dans des cellules épithéliales de rein induit une augmentation de l'expression d'ENaC aussi bien dans le «pool» total qu'à la surface membranaire, indiquant ainsi un rôle pour TsglOl et par conséquent du système d'ESCRT dans la dégradation d'ENaC par la voie endosome / lysosome. - Le corps humain est composé d'organes chacun spécialisé dans une fonction précise. Chaque organe est composé de cellules, qui assurent la fonction de l'organe en question. Ces cellules se caractérisent par : - une membrane qui leur permet d'isoler leur compartiment interne (milieu intracellulaire ou cytoplasme) du liquide externe (milieu extracellulaire), - un noyau, où l'ADN est situé, - des protéines, sortent d'unités fonctionnelles ayant une fonction bien définie dans la cellule. La séparation entre l'extérieure et l'intérieure de la cellule est essentielle pour le maintien des composants de ces milieux ainsi que pour la bonne fonction de l'organisme et des cellules. Parmi ces composants, le sodium joue un rôle essentiel car il conditionne le maintien de volume sanguin en participant au maintien du volume extracellulaire. Une augmentation du sodium dans l'organisme provoque donc une augmentation du volume sanguin et ainsi provoque une hypertension. De ce fait, le contrôle de la quantité de sodium présente dans l'organisme est essentiel pour le bon fonctionnement de l'organisme. Le sodium est apporté par l'alimentation, et c'est au niveau du rein que va s'effectuer le contrôle de la quantité de sodium qui va être retenue dans l'organisme pour le maintien d'une concentration normale de sodium dans le milieu extracellulaire. Le rein va se charger de réabsorber toutes sortes de solutés nécessaires pour l'organisme avant d'évacuer les déchets ou le surplus de ces solutés en produisant l'urine. Le rein va se charger de réabsorber le sodium grâce à différentes protéines, parmi elle, nous nous sommes intéressés à une protéine appelée ENaC. Cette protéine joue un rôle important dans la réabsorption du sodium, et lorsqu'elle fonctionne mal, comme il a pu être observé dans certaines maladies génétiques, il en résulte des problèmes d'hypo- ou d'hypertension. Les problèmes résultant du mauvais fonctionnement de cette protéine obligent donc la cellule à réguler efficacement ENaC par différents mécanismes, notamment en diminuant son expression et en dégradant le « surplus ». Dans cette travail de thèse, nous nous sommes intéressés au mécanisme impliqué dans la dégradation d'ENaC et plus précisément à un ensemble de protéines, appelé ESCRT, qui va se charger « d'escorter » une protéine vers un sous compartiment à l'intérieur de la cellule ou elle sera dégradée.
Resumo:
Contexte et but de l'étude :Le statut socio-économique est suspecté d'avoir une influence significative sur l'incidence des attaques cérébrales (AVC), sur les facteurs de risque cardio-vasculaire, ainsi que sur le pronostic. L'influence de ce statut socio-économique sur la sévérité de l'AVC et sur les mécanismes physiopathologiques sous-jacents est moins connue.Méthode :Sur une période de 4 ans, nous avons collecté de manière prospective (dans un registre) des données concernant tous les patients avec AVC aigus admis à l'Unité Cérébrovasculaire du CHUV. Les données comprenaient le statut assécurologique du patient (assurance privée ou générale), les données démographiques, les facteurs de risque cérébrovasculaires, l'utilisation de traitements aigus de recanalisation vasculaire, le délai avant l'admission à l'hôpital, ainsi que la sévérité et le pronostic de l'AVC en phase aiguë, à 7 jours et à 3 mois des symptômes. Les patients avec assurance privée ont été comparés à ceux avec assurance générale.Résultats :Sur 1062 patients avec AVC, 203 avaient une assurance privée et 859 avaient une assurance générale. Il y a avait 585 hommes et 477 femmes. Les deux populations étaient similaires en âge. Les facteurs de risque cardio-vasculaire, la médication préventive, le délai d'arrivée à l'hôpital, l'incidence du taux de thrombolyse et l'étiologie de l'AVC ne différaient pas dans les deux populations. Le score de gravité de l'AVC en phase aiguë, mesuré par le NIHSS, était significativement plus élevé chez les patients avec assurance générale. Un pronostic favorable, mesuré par le score de Rankin modifié (mRS), était plus fréquemment obtenu à 7 jours et à 3 mois chez les patients avec assurance privée.Commentaires :Un statut socio-économique bas est associé à une incidence plus élevée de maladies cérébrovasculaires ainsi qu'à un plus mauvais pronostic, comme cela a été démontré dans différents pays. Il a été suspecté que l'accès à une prise en charge spécialisée en phase aiguë ou en rééducation soit différent selon le statut socio-économique. Comme la Suisse a un système de santé universel, avec une couverture assécurologique obligatoire pour chaque habitant, il y a là une occasion unique de comparer l'influence de l'aspect socio-économique sur la sévérité et le pronostic de l'AVC. De plus, les patients ont été admis dans la même Unité Cérébrovasculaire et pris en charge par la même équipe médicale.Conclusion et perspectives :Le lien entre le statut assécurologique et le statut socio-économique a déjà été prouvé par le passé dans d'autres pays. Nous avons mis en évidence une sévérité plus importante et un plus mauvais pronostic chez les patients avec assurance générale dans la population étudiée. L'étiologie de cette différence dans un système de santé à couverture universelle comme celui de la Suisse reste peu claire. Elle devrait être étudiée à plus grande échelle.
Resumo:
Résumé Rôle des paramètres sociopolitiques et des connaissances dans la gestion des risques hydrologiques¦La recherche analyse (1) la mise en oeuvre de la gestion des risques hydrologiques et (2) les connaissances dont disposent les acteurs sur ces derniers, ainsi que (3) les interdépendances entre ces deux volets. Au total, trois études de cas ont été réalisées dont deux études régionales (ville de Berne, commune de Saillon) et une étude sur un acteur spécifique (les corporations de digues dans le canton de Berne). Les données empiriques ont été obtenues par des entretiens oraux semi-directifs et des enquêtes écrites.¦La gestion des risques hydrologiques est fortement influencée par des paramètres sociopolitiques, c'est-à-dire par les intérêts et les objectifs des acteurs, par les rapports de force entre ceux-ci ainsi que par les processus de négociation et de décision. Dans la pratique, les démarches de gestion se restreignent toutefois majoritairement aux aspects physiques, techniques et administratifs des risques hydrologiques. La dimension sociopolitique est ainsi négligée, ce qui est source de conflits qui ralentissent considérablement la planification de la protection contre les crues, voire la bloquent même complètement. La gestion des risques hydrologiques est en outre largement focalisée sur la réduction des aléas. Lés débats sur la vulnérabilité sont nettement plus rares bien qu'ils soient indispensables lorsqu'il s'agit de traiter les risques de façon holistique.¦Etant donné l'importance de la dimension sociopolitique et de la vulnérabilité, il est nécessaire que les démarches prévues dans la gestion des risques hydrologiques soient reconsidérées et adaptées. De plus, une meilleure intégration de tous les acteurs concernés est primordiale afin de trouver des solutions qui soient acceptables pour une majorité. Pour l'instant, le recours à des instruments de négociation est insuffisant.¦Les connaissances des risques hydrologiques et de leur gestion peuvent être classées en quatre répertoires (connaissances du système, de l'événement, de l'intervention et connaissances sociopolitiques) qui influent tous sur la réduction des risques. Parmi les facteurs les plus importants susceptibles de déclencher des transformations se trouvent l'occurrence de crues, la réalisation d'études (portant sur les aléas, la vulnérabilité, les mesures, etc.), l'échange de connaissances entre les acteurs, ainsi que la recherche de solutions lors de la gestion.¦Les caractéristiques des connaissances varient considérablement selon les acteurs. L'appartenance à un groupe donné ne permet toutefois pas à elle seule de déterminer l'état des connaissances : tous les acteurs peuvent avoir des connaissances pertinentes pour la gestion des risques. Les différences entre les acteurs rendent pourtant la communication compliquée. Ce problème pourrait être atténué par des médiateurs qui assureraient un travail de traduction. Dans la pratique, de telles instances manquent généralement.¦La gestion et les connaissances des risques hydrologiques sont fortement interdépendantes. L'état et les caractéristiques des connaissances déterminent directement la qualité de la protection contre les crues. Des lacunes ou des imprécisions peuvent donc entraîner une gestion non adaptée aux risques présents. Afin d'éviter une telle situation, il est important que les connaissances sur les risques hydrologiques et sur les possibilités d'y faire face soient régulièrement remises à jour. Ne devant pas se restreindre à l'expérience de crues passées, il est impératif qu'elles contiennent aussi des réflexions prospectives et des scénarios novateurs.¦La gestion n'est pas seulement demandeuse en connaissances, elle est également susceptible d'en générer de nouvelles et d'élargir les connaissances existantes. Il convient donc de considérer la création et le transfert de connaissances comme une tâche centrale de la gestion des risques.¦Zusammenfassung Die Rolle der soziopolitischen Parameter und des Wissens im Umgang mit hydrologischen Risiken¦Die Arbeit untersucht drei Themenbereiche: (1) den soziopolitischen Umgang mit hydrologischen Risiken, (2) das Wissen, über das die Akteure bezüglich der Hochwasserrisiken verfügen sowie (3) die Wechselwirkungen zwischen diesen beiden Themenfeldern. Insgesamt wurden drei Fallstudien durchgeführt, darunter zwei regionale Studien (Stadt Bern, Gemeinde Saillon) und eine Untersuchung eines spezifischen Akteurs (Schwellenkorporationen im Kanton Bern). Die empirischen Daten wurden anhand von halbstandardisierten Interviews und schriftlichen Umfragen erhoben.¦Das Management hydrologischer Risiken ist stark von soziopolitischen Parametern beeinflusst, d.h. von Interessen und Zielvorstellungen der Akteure, von Machtverhältnissen und von Verhandlungs- und Entscheidungsprozessen. Die in der Praxis vorgesehenen Schritte zur Reduktion der Hochwasserrisiken beschränken sich jedoch meist auf die physischen, administrativen und technischen Aspekte der Risiken. Die Vernachlässigung ihrer soziopolitischen Dimension führt zu Konflikten, welche die Planung von Hochwasserschutzprojekten deutlich verlangsamen oder gar blockieren. Des Weiteren konzentriert sich das Risikomanagement im Wesentlichen auf die Reduktion der Gefahren. Gesellschaftliche Debatten zur Vulnerabilität sind deutlich seltener, obschon sie für einen umfassenden Umgang mit Risiken unabdingbar sind.¦Angesichts der Bedeutung der soziopolitischen Dimension und der Vulnerabilität ist es notwendig, dass die Vorgehensweise im Risikomanagement überdacht und angepasst wird. Zudem ist eine bessere Integration aller betroffener Akteure unablässig, um mehrheitsfähige Lösungen zu finden. Zur Zeit ist der Rückgriff auf entsprechende Instrumente ungenügend.¦Das Wissen über hydrologische Risiken und deren Management kann in vier Repertoires eingeteilt werden (Systemwissen, Ereigniswissen, Interventionswissen, soziopolitisches Wissen), die alle bei der Reduktion von Risiken bedeutsam sind. Zu den wichtigsten Faktoren, die Wissenstransformationen auslösen, gehören Hochwasserereignisse, die Durchführung von Studien (zu Gefahren, zur Vulnerabilität, zu Massnahmen usw.), der Wissensaustausch zwischen Akteuren und die Suche nach Lösungen während des Risikomanagements.¦Die Merkmale der Wissensformen unterschieden sich stark zwischen den verschiedenen Akteuren. Die Zugehörigkeit eines Akteurs zu einer bestimmten Gruppe ist jedoch kein ausreichendes Kriterium, um dessen Wissensstand zu bestimmen: Alle Akteure können über Wissen verfügen, das für den Umgang mit Risiken relevant ist. Die Unterschiede zwischen den Akteuren gestalten die Kommunikation allerdings schwierig. Das Problem liesse sich entschärfen, indem Mediatoren eingesetzt würden, die als Übersetzer und Vermittler agierten. In der Praxis fehlen solche Instanzen weitgehend.¦Zwischen dem Umgang mit hydrologischen Risken und dem Wissen bestehen enge Wechselwirkungen. Der Zustand und die Eigenschaften der Wissensformen bestimmen direkt die Qualität des Hochwasserschutzes. Lückenhaftes und unpräzises Wissen kann demnach zu einem Risikomanagement führen, das den tatsächlichen Gegebenheiten nicht angepasst ist. Um eine solche Situation zu verhindern, muss das Wissen über Risiken und Hochwasserschutz regelmässig aktualisiert werden. Dabei darf es sich nicht auf die Erfahrung vergangener Hochwasser beschränken, sondern hat auch vorausschauende Überlegungen und neuartige Szenarien einzubeziehen.¦Das Risikomanagement benötigt nicht nur Wissen, es trägt auch dazu bei, neues Wissen zu t generieren und bestehendes zu erweitern. Die Erarbeitung und der Transfer von Wissen sind deshalb als zentrale Aufgaben des Risikomanagements zu betrachten.¦Abstract¦The role of socio-political parameters and of knowledge in the management of hydrological risks¦The purpose of the thesis is to analyse (1) the socio-political management of hydrological risks, (2) the knowledge about hydrological risks, and (3) the interaction between risk management and knowledge. Three case studies were carried out, two at a regional level (city of Berne, village of Saillon) and one about a specific stakeholder (the dyke corporations in the canton of Berne). Empirical data were collected by the means of semi-structured interviews and surveys.¦The management of hydrological risks is highly influenced by socio-political issues, i.e. by interests and goals of stakeholders, by the balance of power between stakeholders, as well as by negotiations and decision-making processes. In practice, however, risk management is mainly constrained by physical, technical, and administrative aspects. The neglect of the socio-political dimension may thus be the source of conflicts which significantly delay the planning and implementation of flood protection measures, or even stop them. Furthermore, risk management mostly concentrates on hazard reduction. Discussions on vulnerability issues are less frequent although they are fundamental for treating risks in a holistic manner.¦Because of the importance of the social-political dimension and of vulnerability issues, it is necessary that the common approach of managing hydrological risks is reconsidered and adapted. Moreover, the integration of all stakeholders that are concerned with hydrological risks is essential for finding solutions which are supported by a majority. For instance, the application of appropriate negotiation instruments is insufficient.¦Knowledge about hydrological risks and their management can be classified into four categories (system knowledge, event knowledge, intervention knowledge, socio-political knowledge) which are all influencing the reduction of risks. Among the most important factors that are likely to trigger knowledge transformations, one can point out flood events, studies about risk parameters (hazards, vulnerability, protection measures, etc.), knowledge exchange between stakeholders, and the search for solutions during risk management.¦The characteristics of knowledge vary considerably between stakeholders. The affiliation to a specific group is thus not a sufficient criterion to determine the quality of a stakeholder's knowledge: every stakeholder may have knowledge that is relevant for risk management. However, differences between stakeholders complicate the communication. This problem could be attenuated by mediators which ensure the translation between stakeholders. In practice, such instances are generally lacking.¦The management and knowledge of hydrological risks are highly interdependent. The state and the characteristics of the four categories of knowledge determine directly the quality of flood protection. Gaps and imprecison may thus lead to forms of management which are not adapted to the actual risks. This kind of situation can be avoided by updating regularly the knowledge about hydrological risks and about protection measures. However, knowledge must not be restricted to the experience of past floods. On the contrary, it is indispensable also to involve prospective reflections and new scenarios.¦Risk management does not only require knowledge, it may also generate new knowledge and enlarge existing knowledge. The creation and the transfer of knowledge has thus to be seen as a central task in risk management.
Resumo:
Abstract : GABA, the primary inhibitory neurotransmitter, and its receptors play an important role in modulating neuronal activity in the central nervous system and are implicated in many neurological disorders. In this study, GABAA and GABAB receptor subunit expression was visualized by immunohistochemistry in human auditory areas TC (= primary auditory area), TB, and TA. Both hemispheres from nine neurologically normal subjects and from four patients with subacute or chronic stroke were included. In normal brains, GABAA receptor subunit (α1, α2, & β2/3) labeling produced neuropil staining throughout all cortical layers as well as labeling fibers and neurons in layer VI for all auditory areas. Densitometry profiles displayed differences in GABAA subunit expression between primary and non-primary areas. In contrast to the neuropil labeling of GABAA subunits, GABAB1 and GABAB2 subunit immunoreactivity was revealed on neuronal somata and proximal dendritic shafts of pyramidal and non-pyramidal neurons in layers II-III, more strongly on supra- than in infragranular layers. No differences were observed between auditory areas. In stroke cases, we observed a downregulation of the GABAA receptor α2 subunit in granular and infragranular layers, while the other GABAA and the two GABAB receptor subunits remained unchanged. Our results demonstrate a strong presence of GABAA and GABAB receptors in the human auditory cortex, suggesting a crucial role of GABA in shaping auditory responses in the primary and non-primary auditory areas. The differential laminar and area expression of GABAA subunits that we have found in the auditory areas and which is partially different from that in other cortical areas speaks in favor of a fine turning of GABA-ergic transmission in these different compartments. In contrast, GABAB expression displayed laminar, but not areal differences; its basic pattern was also very similar to that of other cortical areas, suggesting a more uniform role within the cerebral cortex. In subacute and chronic stroke, the selective GABAA α2 subunit downregulation is likely to influence postlesional plasticity and susceptibility to medication. The absence of changes in the GABAB receptors suggests different regulation than in other pathological conditions, such as epilepsy, schizophrenia or bipolar disorder, in which a downregulation has been reported. Résumé : GABA, le principal neurotransmetteur inhibiteur, et ses récepteurs jouent un rôle important en tant que modulateur de l'activité neuronale dans le système nerveux central et sont impliqués dans de nombreux désordres neurologiques. Dans cette étude, l'expression des sous-unités des récepteur GABAA et GABAB a été visualisée par immunohistochimie dans les aires auditives du cortex humains: le TC (= aire auditif primaire), le TB, et le TA. Les deux hémisphères de neuf sujets considérés normaux du point de vue neurologique et de quatre patients ayant subis un accident cérébro-vasculaire et se trouvant dans la phase subaiguë ou chronique étaient inclues. Dans les cerveaux normaux, les immunohistochimies contre les sous-unités α1, α2, & β2/3 du récepteur GABAA ont marqué le neuropil dans toutes les couches corticales ainsi que les fibres et les neurones de la couche VI dans toutes les aires auditives. Le profile densitométrique montre des différences dans l'expression des sous-unités du récepteur GABAA entre les aires primaires et non-primaires. Contrairement au marquage de neuropil par les sous-unités du recepteur GABAA, 1'immunoréactivité des sous-unités GABAB1 et GABAB2 a été révélée sur les corps cellulaires neuronaux et les dendrites proximaux des neurones pyramidaux et non-pyramidaux dans les couches II-III et est plus dense dans les couches supragranulaires que dans les couches infragranulaires. Aucune différence n'a été observée entre les aires auditives. Dans des cas lésionnels, nous avons observé une diminution de la sous-unité α2 du récepteur GABAA dans les couches granulaires et infragranulaires, alors que le marquage des autres sous-unités du récepteur GABAA et des deux sous-unités de récepteur GABAB reste inchangé. Nos résultats démontrent une présence forte des récepteurs GABAA et GABAB dans le cortex auditif humain, suggérant un rôle crucial du neurotransmetteur GABA dans la formation de la réponse auditive dans les aires auditives primaires et non-primaires. L'expression différentielle des sous-unités de GABAA entre les couches corticales et entre les aires auditives et qui est partiellement différente de celle observée dans d'autres aires corticales préconise une modulation fine de la transmission GABA-ergic en ces différents compartiments. En revanche, l'expression de GABAB a montré des différences laminaires, mais non régionales ; son motif d'expression de base est également très semblable à celui d'autres aires corticales, suggérant un rôle plus uniforme dans le cortex cérébral. Dans les phases subaiguë et chronique des accidents cérébro-vasculaires, la diminution sélective de la sous-unité α2 du recepteur GABAA est susceptible d'influencer la plasticité et la susceptibilité postlésionnelle au médicament. L'absence de changement pour les récepteurs GABAB suggère que le récepteur est régulé différemment après un accident cerebro-vasculaire par rapport à d'autres conditions pathologiques, telles que l'épilepsie, la schizophrénie ou le désordre bipolaire, dans lesquels une diminution de ces sous-unités a été rapportée.