438 resultados para Modèle probabiliste
Resumo:
Ce travail porte sur le développement des compétences sociales et des cercles sociaux à l'adolescence. Il s'intéresse plus particulièrement à l'effet au cours du temps que peuvent avoir les nouveaux moyens de communication électronique (MCE) sur ces deux aspects de la socialisation. Trois parties principales se dégagent de ce travail. La première partie présente le développement d'un outil multidimensionnel destiné à l'évaluation des compétences sociales et permettant de les distinguer en fonction du contexte d'interaction (online vs. offline). La seconde partie porte sur la comparaison des compétences sociales et de la taille du cercle social de 329 adolescents de 7e et de 8e année primaire, en fonction de leur utilisation, ou non, des MCE. Elle met en évidence que ces deux aspects diffèrent de manière statistiquement significative entre les deux groupes, en faveur des utilisateurs de MCE. La troisième partie se centre sur l'utilisation de différents MCE et sur les effets différentiels qu'ils peuvent avoir au cours du temps sur ces deux aspects de la socialisation. Les analyses des données longitudinales mettent en évidence que l'utilisation de sites de réseaux sociaux (SRS) est particulièrement susceptible d'améliorer les compétences sociales et d'augmenter la taille du cercle social. Un modèle dans lequel les compétences sociales jouent un rôle de médiateur entre l'utilisation de SRS et la taille du cercle social est finalement postulé. - This work's topic concerns the development of social skills and social network size during adolescence. It examines more particularly the effects that new online communication media (OCM) may have on these two aspects of adolescent socialization. It is subdivided in three distinct parts. The first part presents the development of a multidimensional tool designed to assess social skills in two different contexts of interaction (online vs. offline). The second part compares the social skills and social network size of 329 adolescents depending on their use, or not, of OCM. It highlights significant differences on these two aspects between users and non-users, in favor of OCM users. The third part focuses on the differential effects that six OCM may have over time on these two aspects of socialization. Longitudinal data analyses highlight that the use of social network sites (SNS) is particularly likely to improve social skills and to increase social network size. A model in which social skills mediate the relationship between SNS use and social network size is finally postulated.
Resumo:
284 million people worldwide suffered from type 2 diabetes mellitus (T2DM) in 2010, which will, in approximately half of them, lead to the development of diabetic peripheral neuropathy (DPN). Although DPN is the most common complication of diabetes mellitus and the leading cause of non-traumatic amputations its pathophysiology is still poorly understood. To get more insight into the molecular mechanism underlying DPN in T2DM, I used a rodent model of T2DM, the db/db mice.¦ln vivo electrophysiological recordings of diabetic animals indicated that in addition to reduced nerve conduction velocity db/db mice also present increased nerve excitability. Further ex vivo evaluation of the electrophysiological properties of db/db nerves clearly established a presence of the peripheral nerve hyperexcitability (PNH) phenotype in diabetic animals. Using pharmacological inhibitors we demonstrated that PNH is mostly mediated by the decreased activity of Kv1 channels. ln agreement with these data 1 observed that the diabetic condition led to a reduced presence of the Kv1.2 subunits in juxtaparanodal regions of db/db peripheral nerves whereas its mANA and protein expression levels were not affected. Lmportantly, I confirmed a loss of juxtaparanodal Kv1.2 subunits in nerve biopsies from type 2 diabetic patients. Together these observations indicate that the type 2 diabetic condition leads to potassium-channel mediated changes of nerve excitability thus identifying them as potential drug targets to treat sorne of the DPN related symptoms.¦Schwann cells ensheath and isolate peripheral axons by the production of myelin, which consists of lipids and proteins in a ratio of 2:1. Peripheral myelin protein 2 (= P2, Pmp2 or FABP8) was originally described as one of the most abundant myelin proteins in the peripheral nervous system. P2, which is a member of the fatty acid binding protein (FABP) family, is a 14.8 kDa cytosolic protein expressed on the cytoplasmic side of compact myelin membranes. As indicated by their name, the principal role of FABPs is thought to be the binding and transport of fatty acids.¦To study its role in myelinating glial cells I have recently generated a complete P2 knockout mouse model (P2-/-). I confirmed the loss of P2 in the sciatic nerve of P2-/- mice at the mRNA and protein level. Electrophysiological analysis of the adult (P56) mutant mice revealed a mild but significant reduction in the motor nerve conduction velocity. lnterestingly, this functional change was not accompanied by any detectable alterations in general myelin structure. However, I have observed significant alterations in the mRNA expression level of other FABPs, predominantly FABP9, in the PNS of P2-/- mice as compared to age-matched P2+/+ mice indicating a role of P2 in the glial myelin lipid metabolism.¦Le diabète de type 2 touche 284 million de personnes dans le monde en 2010 et son évolution conduit dans la moitié des cas à une neuropathie périphérique diabétique. Bien que la neuropathie périphérique soit la complication la plus courante du diabète pouvant conduire jusqu'à l'amputation, sa physiopathologie est aujourd'hui encore mal comprise. Dans le but d'améliorer les connaissances moléculaires expliquant les mécanismes de la neuropathie liée au diabète de type 2, j'ai utilisé un modèle murin du diabète de type 2, les souris db/db.¦ln vivo, les enregistrements éléctrophysiologiques des animaux diabétiques montrent qu'en plus d'une diminution de la vitesse de conduction nerveuse, les souris db/db présentent également une augmentation de l'excitabilité nerveuse. Des mesures menées Ex vivo ont montré l'existence d'un phénotype d'hyperexcitabilité sur les nerfs périphériques isolés d'animaux diabétiques. Grâce à l'utilisation d'inhibiteurs pharmacologiques, nous avons pu démontrer que l'hyperexcitabilité démontrée était due à une réduction d'activité des canaux Kv1. En accord avec ces données, j'ai observé qu'une situation de diabète conduisait à une diminution des canaux Kv1.2 aux régions juxta-paranodales des nerfs périphériques db/db, alors que l'expression du transcrit et de la protéine restait stable. J'ai également confirmé l'absence de canaux Kv1.2 aux juxta-paranoeuds de biopsies de nerfs de patients diabétiques. L'ensemble de ces observations montrent que les nerfs périphériques chez les patients atteints de diabète de type 2 est due à une diminution des canaux potassiques rapides juxtaparanodaux les identifiant ainsi comme des cibles thérapeutiques potentielles.¦Les cellules de Schwann enveloppent et isolent les axones périphériques d'une membrane spécialisée, la myéline, composée de deux fois plus de lipides que de protéines. La protéine P2 (Pmp2 "peripheral myelin protein 2" ou FABP8 "fatty acid binding protein") est l'une des protéines les plus abondantes au système nerveux périphérique. P2 appartient à la famille de protéines FABP liant et transportant les acides gras et est une protéine cytosolique de 14,8 kDa exprimée du côté cytoplasmique de la myéline compacte.¦Afin d'étudier le rôle de P2 dans les cellules de Schwann myélinisantes, j'ai généré une souris knockout (P2-/-). Après avoir validé l'absence de transcrit et de protéine P2 dans les nerfs sciatiques P2-/-, des mesures électrophysiologiques ont montré une réduction modérée mais significative de la vitesse de conduction du nerf moteur périphérique. Il est important de noter que ces changements fonctionnels n'ont pas pu être associés à quelconque changement dans la structure de la myéline. Cependant, j'ai observé dans les nerfs périphériques P2-/-, une altération significative du niveau d'expression d'ARNm d'autres FABPs et en particulier FABP9. Ce dernier résultat démontre l'importance du rôle de la protéine P2 dans le métabolisme lipidique de la myéline.
Resumo:
Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.
Resumo:
Découverts en 1993 dans Caenorhabditis elegans, les microARNs sont une nouvelle famille¦de molécules, simples brin d'ARN non-codant d'environ 20 nucléotides. Ce sont des régulateurs,¦capables d'inhiber l'expression de gènes dans les cellules eucaryotes. Ils jouent un rôle dans¦d'importants processus comme la prolifération cellulaire, l'apoptose, l'inflammation, et la¦différenciation tissulaire. C'est pour cela que des variations de la quantité de microARNs dans le¦corps humain peuvent engendrer diverses maladies comme le diabète, le cancer et différentes¦pathologies cardiovasculaires. Dans le futur, une meilleure compréhension des microARNs et de¦leurs mécanismes d'action pourrait aider à découvrir de nouveaux outils pour traiter ou prévenir¦certaines maladies. Les objectifs de ce travail étaient de faire une recherche de¦littérature sur les microARNs et leurs implications dans le diabète dans un premier temps, puis de¦poursuivre avec des manipulations de laboratoire pour mesurer l'activité et la fonction de¦microARNs dans la cellule bêta pancréatique dans le modèle de la gestation. La méthode utilisée¦pour l'étude bibliographique a été une recherche sur la base de données Pubmed. Pour les¦manipulations au laboratoire, deux microARNs ont été étudiés miR-325-5p et miR-874, afin¦d'évaluer l'impact de la surexpression ou le knock down de ces deux microARNs sur les fonctions¦de cellules bêta pancréatiques comme la prolifération et l'apoptose. Ces techniques étaient¦parfaitement au point dans le laboratoire d'accueil. En ce qui me concerne, ce travail m'a permis¦d'approfondir mes connaissances sur un sujet nouveau et de mettre un pied dans le milieu de la¦recherche fondamentale.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
Depuis la parution des Überlieferungsgeschitliche Studien de Martin Noth, le livre du Deutéronome joue un rôle central dans la discussion exégétique. L'A. cherche à faire le point sur le chemin parcouru depuis cinquante ans. Au niveau diachronique, aucun consensus n'apparaît sur les questions de la datation et des rédactions successives. Le modèle le plus performant semble être Deutéronome primitif sous Josias suivi à l'époque de l'exil de son insertion dans l'historiographie, puis de plusieurs retouches rédactionnelles. Au niveau théologique, les thèmes de la loi, de l'alliance, du pays, de l'exode et des pères en sont l'épine dorsale
Resumo:
La mousse haplobiontique Physcomitrella patens est utilisée comme système génétique modèle pour l'étude du développement des plantes. Cependant, l'absence d'un protocole efficace de transformation a constitué jusqu'à présent un gros désavantage méthodologique pour le développement futur de ce système expérimental. Les résultats présentés dans le premier chapitre relatent la mise au point d'un protocole de transformation basé sur la technique de transfert direct de gènes dans des protoplastes par précipitation au PEG. Un essai d'expression transitoire de gènes a été mis au point. Ce protocole a été adapté afin de permettre l'introduction in vivo d'anticorps dans des protoplastes. Le protocole modifié permet d'introduire simultanément du DNA et des IgG dans les cellules, et nous avons démontré que ces anticorps peuvent inactiver spécifiquement le produit d'un gène co-introduit (GUS), ainsi que certaines protéines impliquées dans des processus cellulaires (tubuline). Cet essai, baptisé "essai transitoire d'immuno-inactivation in vivo", devrait être directement applicable à d'autres protoplastes végétaux, et permettre l'élaboration de nouvelles stratégies dans l'étude de processus cellulaires. Le second chapitre est consacré aux expériences de transformation de la mousse avec des gènes conférant une résistance à des antibiotiques. Nos résultats démontrent que l'intégration de gènes de résistance dans le génome de P. patens est possible, mais que cet événement est rare. Il s'agit là néanmoins de la première démonstration d'une transformation génétique réussie de cet organisme. L'introduction de gènes de résistance aux antibiotiques dans les protoplastes de P. patens génère à haute fréquence des clones résistants instables. Deux classes de clones instables ont été identifiés. La caractérisation phénotypique, génétique et moléculaire de ces clones suggère fortement que les séquences transformantes sont concaténées pour former des structures de haut poids moléculaire, et que ces structures sont efficacement répliquées et maintenues dans les cellules résistantes en tant qu'éléments génétiques extrachromosomaux. Ce type de transformation nous permet d'envisager des expériences permettant l'identification des séquences génomiques impliquées dans la replication de l'ADN de mousse. Plusieurs lignées transgéniques ont été retransformées avec des plasmides portant des séquences homologues aux séquences intégrées dans le génome, mais conférant une résistance à un autre antibiotique. Les résultats présentés dans le troisième chapitre montrent que les fréquences de transformation intégrative dans les lignées transgéniques sont 10 fois plus élevées que dans la lignée sauvage, et que cette augmentation est associée à une coségrégation des gènes de résistance dans la plupart des clones testés. Ces résultats génétiques indiquent que l'intégration de séquences d'ADN étranger dans le génome de P. patens a lieu en moyenne 10 fois plus fréquemment par recombinaison homologue que par intégration aléatoire. Ce rapport homologue/aléatoire est 10000 fois supérieur aux rapports obtenus avec d'autres plantes, et fournit l'outil indispensable à la réalisation d'expériences de génétique inverse dans cet organisme à haplophase dominante. THESIS SUMMARY The moss Physcomitrella patens is used as a model genetic system to study plant development, taking advantage of the fact that the haploid gametophyte dominates in its life cycle. But further development of this model system was hampered by the lack of a protocol allowing the genetic transformation of this plant. We have developed a transformation protocol based on PEG-mediated direct gene transfer to protoplasts. Our data demonstrate that this procedure leads to the establishment of an efficient transient gene expression assay. A slightly modified protocol has been developed allowing the in vivo introduction of antibodies in moss protoplasts. Both DNA and IgGs can be loaded simultaneously, and specific antibodies can immunodeplete the product of an expression cassette (GUS) as well as proteins involved in cellular processes (tubulins). This assay, named transient in vivo immunodepletion assay, should be applicable to other plant protoplasts, and offers new approaches to study cellular processes. Transformations have been performed with bacterial plasmids carrying antibiotic resistance expression cassette. Our data demonstrate that integrative transformation occurs, but at low frequencies. This is the first demonstration of a successful genetic transformation of mosses. Resistant unstable colonies are recovered at high frequencies following transformation, and two different classes of unstable clones have been identified. Phenotypical, genetic and molecular characterisation of these clones strongly suggests that bacterial plasmids are concatenated to form high molecular arrays which are efficiently replicated and maintained as extrachromosomal elements in the resistant cells. Replicative transformation in P. patens should allow the design of experiments aimed at the identification of genomic sequences involved in moss DNA replication. Transgenic strains have been retransformed with bacterial plasmids carrying sequences homologous to the integrated transloci, but conferring resistance to another antibiotic. Our results demonstrate an order of magnitude increase of integrative transformation frequencies in transgenic strains as compared to wild-type, associated with cosegregation of the resistance genes in most of these double resistant transgenic strains. These observations provide strong genetic evidence that gene targeting occurs about ten times more often than random integration in the genome of P. patens. Such ratio of targeted to random integration is about 10 000 times higher than previous reports of gene targeting in plants, and provides the essential requirement for the development of efficient reverse genetics in the haplodiplobiontic P. patens.
Resumo:
Summary : The purpose of this study was to investigate the role of the inflammasome in human and experimental murine models (such as ΑΙΑ and K/BxN) of rheumatoid arthritis (RA)RA, affecting 1% of the population is the most frequent inflammatory disease characterized by synovial hyperplasia and cartilage and bone erosion, leading to joint destruction. In general, women are 3 times more affected by RA suggesting a role of estrogen in this disease. The inflammasome is a multiproteic complex triggering the activation of caspase-1 leading to the activation of IL-1 β, an important pro-inflammatory cytokine implicated in arthritis. The inflammasome has been implicated in several inflammatory diseases and particularly in gout. To highlight a possible role of the inflammasome in murine arthritis, we obtained ASC, caspase-1 and NALP3 +/+ and -/- littermate mice to perform ΑΙΑ and K/BxN arthritis. NALP3 -/- and caspase-1 -/- mice were as arthritic as wild type littermate mice in both ΑΙΑ and K/BxN models implicating that the NALP3 inflammasome is not involved in experimental arthritis. By contrast, ΑΙΑ severity was significantly diminished in ASC- deficient male and female mice, and in the K/BxN model, in ASC-deficient female mice. These results were supported by histological scoring and acute phase protein serum amyloid A (SAA) levels that were equivalent between NALP+/+ and NALP3-/- mice and diminished in ASC -/- mice. In ΑΙΑ and K/BxN murine experimental models, we observed a sexdependent phenotype. We studied the role of estradiol in both the ALA and the K/BxN models. Castrated female or male ASC -/- mice that received estradiol had a decreased arthritis severity. This implies a protective role of estrogen in the absence of ASC. In the ΑΙΑ model, proliferation assay were performed using splenocytes from mBSA- immunized ASC +/+ and -/- mice. The mBSA-induced proliferation was significantly lower in ASC-/- splenocytes. Moreover the CD3-specific proliferation of purified splenic Τ cells was significantly lower in ASC-/- cells. Finally, Τ cells from ASC-/- mice produced significantly decreased levels of IFN-gamma associated with increased levels of IL-10. These results imply a possible role of ASC in the TCR-signaling pathway and Τ cell cytokine production. In parallel the expression of the different inflammasome components were analyzed in biopsies from rheumatoid arthritis (RA) and osteoarthritis (OA) patiens. The expression of the 14 different NALPs, their effector protein ASC, and caspase-1 and -5 was readily measurable by RT-PCR in a similar proportion in RA and OA synovial samples, with the exception of NALP-5 and NALP-13, which weren't found in samples from either disease. The corresponding NALP1, -3, -12 and ASC proteins were expressed at similar levels in both OA and RA biopsies, as determined by immunohistochemistry and Western-blot analysis. By contrast, caspase-1 levels were significantly enhanced in RA synovial tissues compared to those from OA patients. NALP-1, -2, -3, -10, -12 and -14, as well as ASC, caspase-1, and -5 were detected in RNA from unstimulated and stimulated RA synoviocytes. In FLS, only ASC and caspase-1 were expressed at the protein level. NALP1, 3 and 12 were not detected. However, upon stimulation, no secreted IL-Ιβ was detectable in either RA or in OA synoviocytes culture medium. Résumé : Le but de ce projet était d'étudier le rôle de l'inflammasome dans des modèles expérimentaux d'arthrite tels que les modèles ΑΙΑ et K/BxN ainsi que dans la polyarthrite humaine (RA). La polyarthrite est une maladie inflammatoire très fréquente avec 1 % de la population affectée et touche 3 fois plus les femmes que les hommes, suggérant un rôle des hormones sexuelles dans cette pathologie. L'inflammasome est un complexe multiprotéique qui permet l'activation de la caspase-1, une cystéine protéase qui va ensuite cliver et activer rinterleukine-ΐβ (IL-Ιβ). L'inflammasome a été impliqué ces dernières années dans de nombreuses maladies inflammatoires notamment dans la goutte. Pour mettre en évidence un éventuel rôle de l'inflammasome dans l'arthrite expérimentale nous avons obtenu des souris déficientes pour certains des composants de l'inflammasome tels que ASC, NALP3 et caspase-1. Les souris NALP3 déficientes et caspase-1 déficientes sont aussi arthritiques que les souris wild type correspondantes que ce soit dans le modèle ΑΙΑ ou K/BxN. Par contre les souris mâles et femelles ASC-déficientes sont moins arthritiques que les souris +/+ correspondantes dans le modèle ΑΙΑ. Dans le modèle KRN, le même phénotype (diminution de la sévérité de l'arthrite) est observé uniquement chez les femelles ASC-/- Ce phénotype est corrélé avec l'histologie ainsi qu'avec le dosage du serum amyloid A (SAA) qui reflète l'inflammation systémique et qui est diminué chez les souris ASC-déficientes. Nous avons ensuite étudié le rôle de Γ estradiol (une des formes active des estrogènes) dans les modèles K/BxN et ΑΙΑ. Les souris castrées maies ou femelles déficientes pour ASC ayant reçu de l'estradiol ont une arthrite moins sévère ce qui implique que les estradiol ont un effet protecteur en l'absence de ASC. Dans le modèle ΑΙΑ, nous nous sommes aussi intéressés à la réponse immune. Des tests de prolifération ont été effectués sur des splénocytes en présence de mBSA (qui est l'antigène utilisé dans le modèle ΑΙΑ). Les splénocytes ASC -/- ont une proliferation qui est diminuée en présence de l'antigène. De plus la proliferation de cellules Τ spléniques purifiées en présence d'anti-CD3 est diminuée chez les cellules Τ ASC-/-. Ces résultats nous indiquent une éventuelle implication de ASC dans la signalisation par le récépteur des cellules T. En parallèle l'expression des différents composants de l'inflammasome a été analysée dans des biopsies de patients atteints de polyarthrite rhumatoide (RA) et d'arthrose (OA). L'expression des 14 différents NALPs, de l'adaptateur ASC, ainsi que des caspase-1 et -5 était similaires dans les échantillons RA et OA, à l'exception de NALP5 et 13 qui n'étaient pas détéctables. L'expression protéique de NALP1, 3, 12 et ASC effectuée par Western blot et immunohistochimie était similaire dans les biopsies RA et OA. Par contre la quantité de la caspase-1 mesurée par ELISA était augmentée de façon significative dans les extraits protéiques de biopsies RA. NALP-1, -2. -3, -10, -12, and -14 ainsi que ASC, caspase-1 et -5 étaient exprimés de façon similaire par les synoviocytes RA non stimulés et stimulés. Dans les synoviocytes seuls ASC et caspase-1 étaient détéctable au niveau protéique. NALP-1, -3 et -12 n'était pas détéctables. Cependant après stimulation il n'y avait d'IL-Ιβ sécrété que ce soit dans les surnageants de cultures de synoviocytes RA ou OA.
Resumo:
Pourquoi les femmes n'ont-elles pas « l'étoffe du chercheur » ? Le modèle unique imposé par le monde académique pénalise les femmes dans leur ascension professionnelle et sa rigidité qui perdure au sein des universités nous a conduites à revisiter les travaux réalisés dans le monde de l'entreprise sur le « plafond de verre », le « ciel de plomb » ou le « leaky pipeline », pour nous intéresser à ces processus pernicieux. Du fait de son mode de recrutement prétendument fondé sur le seul mérite (et son alliée l'excellence), le monde académique pourrait garantir une certaine égalité entre hommes et femmes, mais il n'en n'est rien. Afin de faire émerger les processus complexes qui conduisent à l'exclusion des femmes du sommet des hiérarchies universitaires, cet ouvrage mêle des textes académiques à des contributions plus personnelles qui prennent la forme de témoignages ou de réflexions illustrant les aléas des parcours féminins dans l'université (S. Boes, A. Casini, C. Carvalho, V. Cossy, S. Da Rin, F. Fassa, S. Kradolfer, N. Le Feuvre, R.J. Leeman, C. Marry, M. Sanchez-Mazas, E. Ollagnier, S. Paroz, M. Rosende, I. Stengers, G. Theurillat).
Resumo:
Rock slope instabilities such as rock slides, rock avalanche or deep-seated gravitational slope deformations are widespread in Alpine valleys. These phenomena represent at the same time a main factor that control the mountain belts erosion and also a significant natural hazard that creates important losses to the mountain communities. However, the potential geometrical and dynamic connections linking outcrop and slope-scale instabilities are often unknown. A more detailed definition of the potential links will be essential to improve the comprehension of the destabilization processes and to dispose of a more complete hazard characterization of the rock instabilities at different spatial scales. In order to propose an integrated approach in the study of the rock slope instabilities, three main themes were analysed in this PhD thesis: (1) the inventory and the spatial distribution of rock slope deformations at regional scale and their influence on the landscape evolution, (2) the influence of brittle and ductile tectonic structures on rock slope instabilities development and (3) the characterization of hazard posed by potential rock slope instabilities through the development of conceptual instability models. To prose and integrated approach for the analyses of these topics, several techniques were adopted. In particular, high resolution digital elevation models revealed to be fundamental tools that were employed during the different stages of the rock slope instability assessment. A special attention was spent in the application of digital elevation model for detailed geometrical modelling of past and potential instabilities and for the rock slope monitoring at different spatial scales. Detailed field analyses and numerical models were performed to complete and verify the remote sensing approach. In the first part of this thesis, large slope instabilities in Rhone valley (Switzerland) were mapped in order to dispose of a first overview of tectonic and climatic factors influencing their distribution and their characteristics. Our analyses demonstrate the key influence of neotectonic activity and the glacial conditioning on the spatial distribution of the rock slope deformations. Besides, the volumes of rock instabilities identified along the main Rhone valley, were then used to propose the first estimate of the postglacial denudation and filling of the Rhone valley associated to large gravitational movements. In the second part of the thesis, detailed structural analyses of the Frank slide and the Sierre rock avalanche were performed to characterize the influence of brittle and ductile tectonic structures on the geometry and on the failure mechanism of large instabilities. Our observations indicated that the geometric characteristics and the variation of the rock mass quality associated to ductile tectonic structures, that are often ignored landslide study, represent important factors that can drastically influence the extension and the failure mechanism of rock slope instabilities. In the last part of the thesis, the failure mechanisms and the hazard associated to five potential instabilities were analysed in detail. These case studies clearly highlighted the importance to incorporate different analyses and monitoring techniques to dispose of reliable and hazard scenarios. This information associated to the development of a conceptual instability model represents the primary data for an integrated risk management of rock slope instabilities. - Les mouvements de versant tels que les chutes de blocs, les éboulements ou encore les phénomènes plus lents comme les déformations gravitaires profondes de versant représentent des manifestations courantes en régions montagneuses. Les mouvements de versant sont à la fois un des facteurs principaux contrôlant la destruction progressive des chaines orogéniques mais aussi un danger naturel concret qui peut provoquer des dommages importants. Pourtant, les phénomènes gravitaires sont rarement analysés dans leur globalité et les rapports géométriques et mécaniques qui lient les instabilités à l'échelle du versant aux instabilités locales restent encore mal définis. Une meilleure caractérisation de ces liens pourrait pourtant représenter un apport substantiel dans la compréhension des processus de déstabilisation des versants et améliorer la caractérisation des dangers gravitaires à toutes les échelles spatiales. Dans le but de proposer un approche plus globale à la problématique des mouvements gravitaires, ce travail de thèse propose trois axes de recherche principaux: (1) l'inventaire et l'analyse de la distribution spatiale des grandes instabilités rocheuses à l'échelle régionale, (2) l'analyse des structures tectoniques cassantes et ductiles en relation avec les mécanismes de rupture des grandes instabilités rocheuses et (3) la caractérisation des aléas rocheux par une approche multidisciplinaire visant à développer un modèle conceptuel de l'instabilité et une meilleure appréciation du danger . Pour analyser les différentes problématiques traitées dans cette thèse, différentes techniques ont été utilisées. En particulier, le modèle numérique de terrain s'est révélé être un outil indispensable pour la majorité des analyses effectuées, en partant de l'identification de l'instabilité jusqu'au suivi des mouvements. Les analyses de terrain et des modélisations numériques ont ensuite permis de compléter les informations issues du modèle numérique de terrain. Dans la première partie de cette thèse, les mouvements gravitaires rocheux dans la vallée du Rhône (Suisse) ont été cartographiés pour étudier leur répartition en fonction des variables géologiques et morphologiques régionales. En particulier, les analyses ont mis en évidence l'influence de l'activité néotectonique et des phases glaciaires sur la distribution des zones à forte densité d'instabilités rocheuses. Les volumes des instabilités rocheuses identifiées le long de la vallée principale ont été ensuite utilisés pour estimer le taux de dénudations postglaciaire et le remplissage de la vallée du Rhône lié aux grands mouvements gravitaires. Dans la deuxième partie, l'étude de l'agencement structural des avalanches rocheuses de Sierre (Suisse) et de Frank (Canada) a permis de mieux caractériser l'influence passive des structures tectoniques sur la géométrie des instabilités. En particulier, les structures issues d'une tectonique ductile, souvent ignorées dans l'étude des instabilités gravitaires, ont été identifiées comme des structures très importantes qui contrôlent les mécanismes de rupture des instabilités à différentes échelles. Dans la dernière partie de la thèse, cinq instabilités rocheuses différentes ont été étudiées par une approche multidisciplinaire visant à mieux caractériser l'aléa et à développer un modèle conceptuel trois dimensionnel de ces instabilités. A l'aide de ces analyses on a pu mettre en évidence la nécessité d'incorporer différentes techniques d'analyses et de surveillance pour une gestion plus objective du risque associée aux grandes instabilités rocheuses.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.
Resumo:
Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.