997 resultados para Principe de continuité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse s'inscrit dans la continuité de la publication des fouilles menées de 1986 à 2002 sur le site de la villa gallo-romaine d'Orbe-Boscéaz/VD par l'Institut d'archéologie et des sciences de l'antiquité de l'Université de Lausanne (URBA I, à paraître dans les Cahiers d'archéologie romande). Elle constitue l'analyse approfondie du corpus des peintures murales fragmentaires -succinctement présentées dans URBA I - appartenant à la pars urbana qui succéda, entre 161 et 180 apr. J.-C, à un édifice plus petit du Ier s. de notre ère -dont les peintures sont publiées dans l'ouvrage sus-mentionné. N'ayant subi que de très rares modifications, cette pars urbana de caractère palatial forme un "ensemble clos" autorisant une analyse globale de la conception architecturale et décorative voulue par le bâtisseur ou son commanditaire. Le corpus pictural, composé d'un matériel assez ingrat remplissant quelque 600 cagettes de stockage, offre de ce fait l'intérêt d'une grande homogénéité chronologique et reflète la cohérence et l'unité de la décoration peinte d'origine. Le travail de discrimination et de remontage des ensembles a permet d'individualiser au moins 220 décors et revêtements muraux; l'ensemble des hypothèses de restitution des peintures donne ainsi une image minimale de l'environnement pictural de la pars urbana. Ce corpus pictural n'est toutefois que l'une des composantes du programme décoratif, aussi l'analyse de ses caractéristiques est-elle confrontée à celle des autres composantes ornementales (architecture, placages de marbres et surtout le remarquable ensemble des mosaïques qui fait la célébrité du site). La conjugaison des divers éléments et leur répartition au sein d'un plan bien connu et très symétrique orientent sur les choix décoratifs majeurs, et permettent sinon de reconstituer, tout au moins d'approcher la conception du programme architectural et décoratif voulu par le commanditaire ou son architecte; ce programme, comme fréquemment, reflète le statut du commanditaire, le met évidemment en scène et tient un discours sur la villa, adressé tant aux habitants qu'aux visiteurs. On trouvera dans le travail six chapitres formant l'essentiel de l'exploitation du corpus pictural urbigène. Le premier chapitre est introductif, et présente dans ses grandes lignes la pars urbana de Boscéaz comme cadre de référence. Il est suivi par un état des lieux des peintures murales retrouvées sur le site, abordant leur répartition, leur état de conservation et la méthodologie adoptée pour leur traitement comme leur étude (chapitre 2). Le chapitre 3 constitue l'étude technique des enduits peints. Il réunit toutes les observations que l'on peut faire sur les techniques de réalisation des peinture murales, de la préparation et la pose des mortiers de support aux tours de main des peintres pour le rendu d'un motif. Ce chapitre s'inscrit dans la perspective, appliquée à Boscéaz, d'études marquantes comme celles sur les techniques de préparation des parois (Allag /Barbet 1972, Barbet 1995) sur l'identification des pigments (PACT 17, 1985, Béarat 1997, Colloque de Fribourg 1997) et sur l'analyse des mortiers (Coutelas 2003). Suit le catalogue des peintures, basé sur une sélection de 3414 plaques remontées et fragments (chapitre 4) : il propose une description rigoureuse et systématique des motifs, ainsi que leur analyse stylistique qui apporte les éléments comparatifs permettant la compréhension du matériel, et justifiant son interprétation, voire sa restitution. Les décors y sont présentés par local de découverte; un paragraphe introductif réunit les données de fouille et des informations sur le local ou le prélèvement des enduits, et donne le nombre et la détermination des décors retrouvés. Chacun d'eux fait l'objet d'une notice regroupant: une détermination par le mortier de support (le tectorium); les observations techniques diverses; la description, la restitution le cas échéant, et l'analyse stylistique. Cette dernière privilégie les comparaisons locales, en Suisse d'abord puis dans les pays limitrophes de façon à mettre en évidence les liens plausibles entre certains sites et les éventuels indices d'une production régionale. La documentation graphique qui accompagne chaque décor dans le volume d'illustrations est constituée avant tout des planches photographiques des fragments à l'échelle 1:3, accompagnés le cas échéant de dessins au trait justifiant la lecture des motifs. Ceux-ci permettent la reconstitution idéale

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique et plan de l'ouvrage Au début des années 1970, apparaît une nouvelle approche de l'histoire qui proclame le primat de la démarche scientifique sur les options philosophiques ou le primat de la démarche intellectuelle sur les documents historiques. L'historien va dorénavant échafauder des hypothèses qu'il soumet ensuite à vérification et qu'il rectifie en conséquence. En effet, il n'y a pas de faits historiques en soi, qu'il suffirait d'extraire des documents et de raccorder à d'autres faits pour constituer une suite chronologique naturelle. L'histoire thématique s'impose en analysant le fonctionnement et la contextualisation au détriment de la pure description des faits. Les histoires ne sont jamais équivalentes : elles peuvent expliquer les choses différemment ou donner plus d'importance à une observation particulière et en laisser d'autres dans l'ombre. Cinq problématiques principales se dégagent de la vie de Politzer, problématiques assimilables à cinq métiers qui seront détaillés dans ce travail : le métier de clinicien, le métier de chercheur, le métier d'enseignant, le métier d'historien et le métier d'artiste et collectionneur d'art. Trois de ces métiers font partie intégrante de celui dedecin qui fut l'occupation principale de Politzer durant la plus grande partie de sa vie. Chaque problématique est développée sur le même principe : élaboration du contexte historique et particulier, description des données observables relatives à Politzer, établissement d'un lien entre le contexte et les composantes vérifiables pour en tirer une conclusion, ou plutôt démontrer la véracité de la problématique, tout en gardant à l'esprit que les faits ont toujours le dernier mot face aux théories. Cette démarche scientifique va permettre de mieux comprendre l'importance et la place prises par Politzer dans l'histoire de l'otologie et la société viennoise de la fin du XIXe siècle. L'ouvrage va s'articuler autour de ces cinq problématiques étudiées. Après une introduction générale, un chapitre biographique présente les origines de la famille Politzer et ses années de jeunesse. Il est complété par un autre chapitre sur ses années d'études dedecine avant d'entrer dans le vif du sujet des différents métiers de Politzer. Dans le chapitre concernant Politzer enseignant, une place toute particulière est accordée à la naissance de l'otologie, en tant que spécialité médicale à part entière, dans la première moitié du XIXe siècle. Cette étape fut importante, car elle permit à l'otologie de véritablement s'épanouir dans la seconde moitié du XIXe siècle. Cela aide à situer avec précision les travaux scientifiques entrepris et publiés par Politzer. Avant la conclusion, deux petits chapitres biographiques présentent la vie privée de Politzer et ses descendants. Une chronologie biographique et une bibliographie la plus exhaustive possible des travaux de Politzer sont ajoutées en annexe accompagnées de documents choisis et écrits par et sur Politzer. Deux de ces textes reflètent plus particulièrement certaines prises de position de Politzer concernant l'importance de l'otologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une fois déposé, un sédiment est affecté au cours de son enfouissement par un ensemble de processus, regroupé sous le terme diagenèse, le transformant parfois légèrement ou bien suffisamment pour le rendre méconnaissable. Ces modifications ont des conséquences sur les propriétés pétrophysiques qui peuvent être positives ou négatives, c'est-à-dire les améliorer ou bien les détériorer. Une voie alternative de représentation numérique des processus, affranchie de l'utilisation des réactions physico-chimiques, a été adoptée et développée en mimant le déplacement du ou des fluides diagénétiques. Cette méthode s'appuie sur le principe d'un automate cellulaire et permet de simplifier les phénomènes sans sacrifier le résultat et permet de représenter les phénomènes diagénétiques à une échelle fine. Les paramètres sont essentiellement numériques ou mathématiques et nécessitent d'être mieux compris et renseignés à partir de données réelles issues d'études d'affleurements et du travail analytique effectué. La représentation des phénomènes de dolomitisation de faible profondeur suivie d'une phase de dédolomitisation a été dans un premier temps effectuée. Le secteur concerne une portion de la série carbonatée de l'Urgonien (Barrémien-Aptien), localisée dans le massif du Vercors en France. Ce travail a été réalisé à l'échelle de la section afin de reproduire les géométries complexes associées aux phénomènes diagénétiques et de respecter les proportions mesurées en dolomite. De plus, la dolomitisation a été simulée selon trois modèles d'écoulement. En effet, la dédolomitisation étant omniprésente, plusieurs hypothèses sur le mécanisme de dolomitisation ont été énoncées et testées. Plusieurs phases de dolomitisation per ascensum ont été également simulées sur des séries du Lias appartenant aux formations du groupe des Calcaire Gris, localisées au nord-est de l'Italie. Ces fluides diagénétiques empruntent le réseau de fracturation comme vecteur et affectent préférentiellement les lithologies les plus micritisées. Cette étude a permis de mettre en évidence la propagation des phénomènes à l'échelle de l'affleurement. - Once deposited, sediment is affected by diagenetic processes during their burial history. These diagenetic processes are able to affect the petrophysical properties of the sedimentary rocks and also improve as such their reservoir capacity. The modelling of diagenetic processes in carbonate reservoirs is still a challenge as far as neither stochastic nor physicochemical simulations can correctly reproduce the complexity of features and the reservoir heterogeneity generated by these processes. An alternative way to reach this objective deals with process-like methods, which simplify the algorithms while preserving all geological concepts in the modelling process. The aim of the methodology is to conceive a consistent and realistic 3D model of diagenetic overprints on initial facies resulting in petrophysical properties at a reservoir scale. The principle of the method used here is related to a lattice gas automata used to mimic diagenetic fluid flows and to reproduce the diagenetic effects through the evolution of mineralogical composition and petrophysical properties. This method developed in a research group is well adapted to handle dolomite reservoirs through the propagation of dolomitising fluids and has been applied on two case studies. The first study concerns a mid-Cretaceous rudist and granular platform of carbonate succession (Urgonian Fm., Les Gorges du Nan, Vercors, SE France), in which several main diagenetic stages have been identified. The modelling in 2D is focused on dolomitisation followed by a dédolomitisation stage. For the second study, data collected from outcrops on the Venetian platform (Lias, Mont Compomolon NE Italy), in which several diagenetic stages have been identified. The main one is related to per ascensum dolomitisation along fractures. In both examples, the evolution of the effects of the mimetic diagenetic fluid on mineralogical composition can be followed through space and numerical time and help to understand the heterogeneity in reservoir properties. Carbonates, dolomitisation, dédolomitisation, process-like modelling, lattice gas automata, random walk, memory effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

- Comment prescrire à une femme enceinte? L'attitude optimale réalise un compromis entre d'une part l'indication au traitement, et d'autre part l'importance du risque que celui-ci fait courir au foetus et à la mère. Le respect de quelques principes simples peut aider dans cette démarche: - La relative carence en connaissances dans ce domaine impose avant tout une attitude basée sur le principe de précaution. - La période (1er, 2e ou 3e trimestre) pendant laquelle le foetus sera exposé au traitement envisagé est un élément prépondérant dans la réflexion. - Le traitement de choix est celui qui, parmi les alternatives efficaces, présente le meilleur profil de sécurité pendant la grossesse selon les observations humaines disponibles. - Le rapport bénéfice/risque pour la patiente et le foetus peut s'inverser pendant la grossesse. - Toute exposition médicamenteuse problématique pendant la grossesse doit faire l'objet d'une annonce à l'un des centres suisse de pharmacovigilance. Ces données de tératovigilance sont indispensables pour alimenter les connaissances dans ce domaine. - Afin d'illustrer ces principes généraux, un exemple typique de prescription chez la femme enceinte a été choisi, mettant l'accent sur un problème de tératovigilance récemment identifié: les risques liés à certains antidépresseurs durant la grossesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs. - Le DSM-5 donne une définition du symptôme psychotique indépendante de tout concept depsychose. Chez les patients dépressifs, la présence d'hallucination ou d'idée délirante, quelle que soit leurforme clinique, conduit en principe à diagnostiquer une dépression psychotique et à prescrire des neurolep-tiques. Les symptômes psychotiques sont subdivisés par le DSM en « congruents » ou « non congruents » àl'humeur. Nous discutons de la pertinence d'une catégorie de symptômes psychotiques « atypiques », peuévocateurs d'une psychose au sens classique du terme. Méthode. - Discussion de la définition opérationnelle des symptômes psychotiques du DSM, étude d'unesérie de 16 patients chez qui un diagnostic de dépression psychotique a été posé. Résultats. - Sur les 16 patients, deux seulement présentaient des symptômes psychotiques classiques, évo-cateurs d'une psychose. Chez les autres, le diagnostic reposait sur la présence de symptômes très atypiques,comme des hallucinations visuelles par exemple.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé pour un large public: La vaccination a eu un impact énorme sur la santé mondiale. Mais, quel est le principe d'un vaccin? Il est basé sur la 'mémoire immunologique', qui est une particularité exclusive des systèmes immunitaires des organismes évolués. Suite à une infection par un pathogène, des cellules spécialisées de notre système immunitaire (les lymphocytes) le reconnaissent et initient une réaction immunitaire qui a pour but son élimination. Pendant cette réaction se développent aussi des cellules, appelées cellules lymphocytaires mémoire, qui persistent pour longue durée et qui ont la capacité de stimuler une réaction immunitaire très efficace immédiatement après une seconde exposition à ce même pathogène. Ce sont ces cellules mémoires (lymphocytes B et T) qui sont à la base de la 'mémoire immunologique' et qui sont stimulées lors de la vaccination. Chez l'homme, deux populations distinctes des lymphocytes T mémoires ont été identifiées: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et essentiels dans l'immunité protectrice. Typiquement, les cellules effectrices mémoires sont capables de tuer immédiatement le pathogène tandis que les cellules centrales mémoires sont responsables d'initier une réponse immunitaire complète. Pourtant, les mécanismes biochimiques qui contrôlent les fonctions de ces cellules ont été jusqu'à présent peu étudiés à cause de la faible fréquence de ces cellules et de la quantité limitée de tissus humains disponibles pour les analyses. La compréhension de ces mécanismes est cruciale pour la réalisation de vaccins efficaces et pour le développement de nouveaux médicaments capables de moduler la réponse immunitaire lymphocytaire. Dans cette thèse, nous avons d'abord développé et amélioré une technologie appelée 'protéine array en phase inverse' qui possède un niveau de sensibilité beaucoup plus élevé par rapport aux technologies classiquement utilisées dans l'étude des protéines. Grâce à cette technique, nous avons pu comparer la composition protéique du système de transmission des signaux d'activation des cellules CM et EM humaines. L'analyse de 8 à 13 sujets sains a montré que ces populations des cellules mémoires possèdent un système de signalisation protéique différent. En effet, les cellules EM possèdent, par rapport aux cellules CM, des niveaux réduits d'une protéine régulatrice (appelée c-Cbl) que nous avons démontré comme étant responsable des fonctions spécifiques de ces cellules. En effet, en augmentant artificiellement l'expression de cette protéine régulatrice dans les cellules EM jusqu'au niveau de celui des cellules CM, nous avons induit dans les cellules EM des capacités fonctionnelles caractéristiques des cellules CM. En conclusion, notre étude a identifié, pour la première fois chez l'homme, un mécanisme biochimique qui contrôle les fonctions des populations des cellules mémoires. Résumé en Français: Les cellules mémoires persistent inertes dans l'organisme et produisent des réactions immunitaires rapides et robustes contre les pathogènes précédemment rencontrés. Deux populations distinctes des cellules mémoires ont été identifiées chez l'homme: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et critiques dans l'immunité protectrice. Les mécanismes biochimiques qui contrôlent leurs fonctions ont été jusqu'à présent peu étudiés, bien que leur compréhension soit cruciale pour le développement des vaccins et des nouveaux traitements/médicaments. Les limites majeures à ces études sont la faible fréquence de ces populations et la quantité limitée de tissus humains disponibles. Dans cette thèse nous avons d'abord développé et amélioré la technologie de 'protéine array en phase inverse' afin d'analyser les molécules de signalisation des cellules mémoires CD4 et CD8 humaines isolées ex vivo. L'excellente sensibilité, la reproductibilité et la linéarité de la détection, ont permis de quantifier des variations d'expression protéiques supérieures à 20% dans un lysat équivalent à 20 cellules. Ensuite, grâce à l'analyse de 8 à 13 sujets sains, nous avons prouvé que les cellules mémoires CD8 ont une composition homogène de leur système de signalisation tandis que les cellules CD4 EM expriment significativement de plus grandes quantités de SLP-76 et des niveaux réduits de c-Cbl, Syk, Fyn et LAT par rapport aux cellules CM. En outre, l'expression réduite du régulateur négatif c-Cbl est corrélée avec l'expression des SLP-76, PI3K et LAT uniquement dans les cellules EM. L'évaluation des propriétés fonctionnelles des cellules mémoires a permis de démontrer que l'expression réduite du c-Cbl dans les cellules EM est associé à une diminution de leur seuil d'activation. En effet, grâce a la technique de transduction cytosolique, nous avons augmenté la quantité de c-Cbl des cellules EM à un niveau comparable à celui des cellules CM et constaté une réduction de la capacité des cellules EM à proliférer et sécréter des cytokines. Ce mécanisme de régulation dépend principalement de l'activité d'ubiquitine ligase de c-Cbl comme démontré par l'impact réduit du mutant enzymatiquement déficient de c-Cbl sur les fonctions de cellules EM. En conclusion, cette thèse identifie c-Cbl comme un régulateur critique des réponses fonctionnelles des populations de cellules T mémoires et fournit, pour la première fois chez l'homme, un mécanisme contrôlant l'hétérogénéité fonctionnelle des ces cellules. De plus, elle valide l'utilisation combinée des 'RPP arrays' et de la transduction cytosolique comme outil puissant d'analyse quantitative et fonctionnel des protéines de signalisation. Summary : Memory cells persist in a quiescent state in the body and mediate rapid and vigorous immune responses toward pathogens previously encountered. Two subsets of memory cells, namely central (CM) and effector (EM) memory cells, have been identified in humans. These subsets display high functional heterogeneity and assert critical and distinct roles in the control of protective immunity. The biochemical mechanisms controlling their functional properties remain so far poorly investigated, although their clarification is crucial for design of effective T-cell vaccine and drug development. Major limitations to these studies lie in the low frequency of memory T cell subsets and the limited amount of human specimen available. In this thesis we first implemented the innovative reverse phase protein array approach to profile 15 signalling components in human CD8 and CD4 memory T cells isolated ex vivo. The high degree of sensitivity, reproducibility and linearity achieved, allowed an excellent quantification of variations in protein expression higher than 20% in as few as 20-cell equivalent per spot. Based on the analysis of 8 to 13 healthy subjects, we showed that CD8 memory cells have a homogeneous composition of their signaling machinery while CD4 EM cells express statistically significant increased amounts of SLP-76 and reduced levels of c- Cbl, Syk, Fyn and LAT as compared to CM cells. Moreover, in EM but not CM cells, reduced expression of negative regulator c-Cbl correlated with the expression of SLP-76, PI3K and LAT. Subsequently, we demonstrated that the higher functional properties and the lower functional threshold of EM cells is associated with reduced expression of c-Cbl. Indeed, by increasing c-Cbl content of EM cells to the same level of CM cells using cytosolic transduction, we impaired their proliferation and cytokine production. This regulatory mechanism was primarily dependent on c-Cbl E3 ubiquitin ligase activity as evidenced by the weaker impact of enzymatically deficient c-Cbl C381A mutant on EM cell functions. Together, these results identify c-Cbl as a critical regulator of the functional responses of memory T cell subsets and provides, for the first time in humans, a mechanism controlling the functional heterogeneity of memory CD4 cells. Moreover it validates the combined use of RPP arrays and cytosolic transduction approaches as a powerful tool to quantitatively analyze signalling proteins and functionally assess their roles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Activation of the Wnt pathway through mutation of the adenomatous polyposis coli and 13-catenin genes is a hallmark of colon cancer. These mutations lead to constitutive activation of transcription from promoters containing binding sites for Tcf/LEF transcription factors. Tumour-selective replicating oncolytic viruses are promising agents for cancer therapy. They can in principle spread throughout a tumour mass until all the cancerous cells are killed, and clinical trials have shown that they are safe except at very high doses. Adenoviruses are interesting candidates for virotherapy because their biology is well understood and their small genome can be rapidly mutated. Adenoviruses with Tcf binding sites in the E2 early promoter replicate selectively in cells with an active Wnt pathway. Although these viruses can replicate in a broad panel of colon cancer cell lines, some colorectal cancer cells are only semi-permissive for Tcf-virus replication. The aim of my thesis was to increase the safety and the efficacy of Tcf-viruses for colon cancer virotherapy. I replaced the endogenous ElA viral promoter by four Tcf binding sites and showed that transcription from the mutant promoter was specifically activated by the Wnt pathway. A virus with Tcf binding sites in the ElA and E4 promoters was more selective for the Wnt pathway than the former Tcf-E2 viruses. Moreover, insertion of Tcf binding sites into all early promoters further increased viral selectivity, but reduced viral activity. I showed that Tcf-dependent transcription was inhibited by the interaction between ElA and p300, but deletion of the p300-binding site of ElA generally led to viral attenuation. In the semi-permissive cell lines, replication of Tcf-viruses remained lower than that of the wild-type virus. The E2 promoter was the most sensitive to the cell type, but I was unable to improve its activity by targeted mutagenesis. To increase the toxicity of the Tcf-E1A/E4 virus, I decided to express a suicide gene, yeast cytosine deaminase (yCD), late during infection. This enzyme converts the prodrug 5-FC to the cytotoxic agent 5-FU. yCD was expressed in a DNA replication-dependent manner and increased viral toxicity in presence of 5-FC. Tcf-ElA and yCD adenoviruses are potentially useful vectors for the treatment of liver metastases from colorectal tumours. Résumé Dans la quasi-totalité des cancers du côlon, la voie Wnt est activée par des mutations dans les gènes codant pour APC ou pour la (3-caténine. Ces mutations activent de façon constitutive la transcription de promoteurs contenant des sites de liaison pour les facteurs de transcription Tcf/LEF. Les virus réplicatifs spécifiques aux tumeurs sont des agents prometteurs pour la thérapie cancéreuse. En principe, ces vecteurs peuvent se propager dans une masse tumorale jusqu'à destruction de toutes les cellules cancéreuses, et des études cliniques ont démontré que de tels vecteurs n'étaient pas toxiques, sauf à de très hautes doses. Les adénovirus sont des candidats intéressants pour la thérapie virale car leur biologie est bien définie et leur petit génome peut être rapidement modifié. Des adénovirus comportant des sites de liaison à Tcf dans leur promoteur précoce E2 se répliquent sélectivement dans les cellules qui possèdent une voie Wnt active. Ces virus sont capables de se répliquer dans un grand nombre de cellules cancéreuses du côlon, bien que certaines de ces cellules ne soient que semi-permissives pour la réplication des virus Tcf. Le but de ma thèse était d'augmenter la sécurité et l'efficacité des virus Tcf. Le promoteur viral endogène ElA a été remplacé par quatre sites de liaison à Tcf, ce qui a rendu son activation dépendante de la voie Wnt. Un virus comportant des sites de liaison pour Tcf dans les promoteurs ElA et E4 était plus sélectif pour la voie Wnt que les précédents virus Tcf-E2, et un virus comportant des sites Tcf dans tous les promoteurs précoces était encore plus sélectif, mais moins actif. J'ai montré que l'interaction entre ElA et p300 inhibait la transcription dépendante de Tcf, mais la délétion du domaine concerné dans ElA a eu pour effet d'atténuer les virus. Dans les cellules semi-permissives, la réplication des virus Tcf était toujours plus basse que celle du virus sauvage. J'ai identifié le promoteur E2 comme étant le plus sensible au type cellulaire, mais n'ai pas pu augmenter son activité par mutagenèse. Pour augmenter la toxicité du virus Tcf-E1A/E4, j'ai décidé d'exprimer un gène suicide, la cytosine déaminase (yCD), pendant la phase tardive de l'infection. Cette enzyme transforme la procirogue 5-FC en l'agent cytotoxique 5-FU. yCD était exprimée après réplication de l'ADN viral et augmentait la toxicité virale en présence de 5-FC. Les virus Tcf-ElA et yCD sont des vecteurs potentiellement utiles pour le traitement des métastases hépatiques de cancers colorectaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexité des parcours migratoires italiens, malgré la vaste littérature existante, n?a été souvent étudiée en profondeur qu'au niveau de la Confédération Helvétique ou bien dans le cadre d'un thème spécifique lié, plus en général, à la présence italienne en Suisse. En ce qui concerne le canton de Vaud, il n'existe pas, à notre connaissance, une étude scientifique spécifique sur la communauté italienne du canton. Il existe, bien sûr, des études concernant des thèmes spécifiques - nous y avons d?ailleurs contribué -, mais en réalité cette communauté reste méconnue dans son ensemble. Si des études scientifiques ou de vulgarisation ont mis en valeur certaines spécificités surtout historiques de cette communauté étrangère du canton de Vaud et de Suisse Romande, la parole n?a pas souvent été offerte à ces mêmes Italiens. C?est en partie dans le dessin de leur donner la parole, pour se raconter et pour raconter leur histoire de l?immigration italienne de l?aprèsguerre dans le canton de Vaud que ce travail a été fait. Il ne s?agit pas de l?objectif originel de cette recherche, surtout centré sur l?individuation des caractéristiques géographiques de la communauté italienne du canton de Vaud et moins axé sur les pratiques et la parole des migrants en question. Ce n?est qu?au fil des rencontres, des discussions, de résultats scientifiques qui sentaient le déjà vu, que le projet de thèse initial a évolué en allant vers les migrants, parfois « au détriment de la science pure » mais toujours en cherchant à rendre à ces Italiens leur statut d?individus à part entière. Il faut dire en outre que les études scientifiques ou les articles de vulgarisation existants n?ont pas souvent pris en considération la dimension spatiale. Cela ne concerne pas que les écrits concernant les Italiens de Suisse romande ou de la Confédération helvétique mais, plus généralement, l'ensemble des pays où la présence d?une population d'origine italienne constitue une part considérable de la présence étrangère ou d'origine étrangère. Ce qui laisse des creux assez importants dans les connaissances - par les acteurs bien sûr - non seulement des parcours migratoires mais aussi dans l?analyse des diverses spatialités qui, sommées, superposées, entrecroisées, juxtaposées, constituent l?une des composantes majeures de tout mouvement migratoire. Le parcours de recherche et quelques résultats Partis de schémas et de connaissances scientifiques « certaines » sur les phénomènes migratoires, nous avons dû nous obliger à revoir nos certitudes et à nous former tout en poursuivant notre chemin de recherche. Les connaissances et les compétences acquises « en route » nous ont bien confirmé que, pour chercher à pénétrer dans l?écheveau des parcours migratoires, il nous fallait abandonner l?idée de pouvoir les mesurer. Si quelques velléités quantitatives nous animaient encore, les acteurs de terrain nous ont bien aidé à les dépasser, à ne pas nous conformer au dictat de vouloir à tout prix mesurer un phénomène aussi opaque que les trajectoires migratoires. Par les reconstructions et les constructions en acte de ces mêmes trajectoires, nos témoins nous ont non seulement informés mais aussi formés à la découverte et à la reconstruction « bribe par bribe » - selon l?expression de Xavier Piolle » (Piolle, 1990, p. 149) - ce cette matière dense que sont les parcours migratoires des Italiens du canton de Vaud et cherchant à définir une grille de lecture de cet objet d?étude opaque et sinueux. Au fur et à mesure que cette grille se construisait, il nous paraissait de plus en plus clair que les Italiens mobilisés dans la recherche étaient en train de nous informer sur l?existence d?un mode de vie centré sur plusieurs références spatiales, sociales et culturelles qui ne pouvait en aucune manière s?apparenter aux modèles dedentarité et de mobilité « reconnus » par les académiciens et les gens communs. Ce mode de vie centré sur des ancrages, réels ou bien cristallisés dans la mémoire et régulièrement « re-vivifiés », est axé sur une mobilité et un mouvement qui prennent leur source dans des racines « ancestrales » ou actuelles. Dans ce nouveau mode de vie, que devient l?espace ? Il se fait un réseau fondé sur des références spatiales concrètes et quotidiennes et sur des références symboliques qui, malgré les obligations du quotidien et de la vie réelle, ne s?effacent jamais. L?ensemble de ces références sont constitutives de l?espace du migrant et de son mode de vie entre sédentarité et mobilité - anciennes et nouvelles -. Ce mode de vie est fait de ruptures, ces mêmes ruptures qui sont parfois incompréhensibles aux non-migrants, à tous ceux qui ne comprennent pas la « non conformation » du migrant à un modèle sédentaire. Ce modèle, apparemment révolutionnaire, n?est qu?un tout premier exemple, le plus ancien peut-être, des nouveaux modes de vie qui commencent à s?affirmer et à s?ancrer dans nos sociétés actuelles. Le migrant a été et continue d?être une sorte d? « éclaireur » pour ces mêmes sociétés qui, pourtant, n?arrêtent pas de le considérer « Autre » et « hors norme » par rapport au modèle dedentarité « monolithique » dominant. Le migrant, l? « homme porteur d?un ailleurs » plus ou moins lointain, nous enseigne que de nos jours être pluriel risque bien d?être un atout, que la (re)construction de nos identités nous ouvre au principe de la multiplicité et de l?altérité. Il est bien évident que pour arriver à entrer dans cette matière fluide, multiple et complexe, nous avons dû abandonner les chemins scientifiques habituels et que nous avons dû nous concentrer sur l?émergence de « bribes » plus que sur les données concrètes et mesurables concernant les Italiens du canton de Vaud. D?objet principal de la recherche qu?elle était, la communauté italienne du canton de Vaud s?est transformée en « objet instrumental », c?est-àdire en outil nécessaire à l?émergence et à l?étude des trajectoires migratoires des Italiens vivant dans cette région. Ce choix fait au cours de la recherche risque de ne pas satisfaire tous ceux qui voudraient « en savoir plus » sur la communauté italienne et qui rechercheraient dans ce travail des informations « factuelles » et mesurables. Nous avons été tenté par ce type d?approche, nous avons même cherché à la mettre en pratique : les résultats peu parlants pour nos interrogations sur les trajectoires migratoires nous en ont dissuadé. Cette recherche risque par ailleurs de décevoir également tous ceux qui y rechercheraient des mesures d?application concrètes. L?objectif de la recherche n?était pourtant pas la définition de modes opérationnels pour agir dans le cadre de la communauté italienne mais plutôt la découverte, par le terrain et en partenariat avec les Italiens mobilisés par les enquêtes, des tenants et aboutissants - les plus importants du moins - des trajectoires migratoires. Nous considérons que la compréhension des mécanismes et des spécificités des parcours migratoires, y compris leurs contradictions et parfois leurs anachronismes, est centrale, préalable à toute action éventuellement normative ou correctrice. Il ne nous appartient donc pas de faire des recommandations, de suggérer des décisions : seule l?action informative nous revient et nous appartient. Tel était bien le but de cette recherche. Les nouvelles pistes de recherche Notre action informative consiste dans la diffusion des résultats obtenus ainsi que dans la mise en évidence et la suggestion de nouvelles pistes de recherche et d?enquête, soit réflexives soit applicatives. Il nous paraît évident que se passer d?une réflexion « genrée » des migrations pourrait limiter la découverte des ressources existantes chez les migrants ainsi que rendre partielle la compréhension des problèmes « migratoires » anciens et nouveaux. L?approche genrée, bien que peu pratiquée jusqu?à présent, est une ressource « ancienne » mais longtemps considérée accessoire par les chercheurs tout comme par les édiles. La compréhension des spécificités et des différences dans les besoins et les aspirations des migrants et des migrantes peut conduire à devoir repenser toute action normative et correctrice, toute décision et tout choix qui, sans la prise en compte de cette composante, seraient nécessairement « artificiels » et ne correspondraient pas à la réalité migratoire. Si au début de cette recherche le chemin « genré » nous paraissait difficile à parcourir, dans le cadre des enquêtes sur le terrain en particulier - cette difficulté nous a dissuadé d?en faire l?objet « central » de notre recherche -, aujourd?hui l?acceptation du changement du rôle de la femme migrante - ainsi que les changements de cette même femme, moins passive et bien plus à même d?exprimer ses besoins et ses envies - nous rassure sur les opportunités de recherche futures ainsi que sur la portée des décisions futures concernant les migrants. La piste des jeunes migrants nous paraît aussi centrale et fondamentale dans les réflexions et les applications futures. Les modèles, les modes et les choix d?intervention sur le terrain font encore trop souvent référence à une réalité migratoire qui n?est plus ou bien qui prend encore en considération des références qui ne « font plus sens » pour les jeunes migrants. Les approches intergénérationnelles commencent timidement à se diffuser, tout en gardant une « aura » expérimentale qui risque de retarder la diffusion de ce mode de réflexion et d?action de la part des édiles comme des chercheurs. Il serait pourtant indispensable de ne pas trop prolonger cette expérimentation car la réalité de nos sociétés nous montre bien que la valorisation de quelques-unes des composantes « migratoires » augmente les risques d?affaiblissement des réseaux sociaux existants - les réseaux migratoires dans ce cas spécifique -. La réalité de nos sociétés, et de la société vaudoise dans ce cas particulier, nous donne aussi clairement l?indication d?une nouvelle réalité migratoire dans la communauté italienne : celle des « high skilled ». Composante marginale pendant des décennies, elle a acquis au cours des années ?90 du poids et de la visibilité. Sommes-nous face à une nouvelle « vague » migratoire, italienne dans ce cas spécifique, moins « redoutable » que les précédentes car constituée d?individus à même de s?intégrer plus facilement dans la société locale ? Ou bien sommes-nous face à la « concrétisation » et visibilisation d?un nouveau mode de vie, centré sur la mobilité, sur la « transition mobilitaire » dont nous parle Rémy Knafou ? Il est évident que la matière est encore assez « brute », qu?il nous manque des références spécifiques pour mieux entrer en matière et argumenter. Certains Pays occidentaux ne sont-ils pas en train de se demander comment rechercher et recruter des professionnels « high skilled » ? Cette nouvelle vague migratoire est peut-être composée par des « éclaireurs » qui expérimentent un nouveau mode de vie et de valorisation de leurs compétences professionnelles « au-dedes frontières nationales » et qui s? « alimentent » de mobilités successives. Cet ensemble de pistes, mais il y en a d?autres que nous pourrions cerner en allant plus en profondeur au sein des plus importantes, s?est révélé à nous par la manière de conduire notre recherche. Celle-ci en effet nous a demandé bien des parcours « à rebours », bien des remises en question, bien des périodes de prise de distance en regard d?une matière d?analyse qui, au fil du temps, s?est faite plus dense et plus problématique. Il nous paraît fondamental de rappeler encore une fois que la recherche n?a abouti que grâce au travail conduit sur le terrain par le chercheur, en observateur et en enquêteur d?abord, en acteur et partenaire de terrain par la suite. Cette méthode de recherche, parfois encore plus spiraliforme que les parcours migratoires, nous a permis de nous construire un « savoir être chercheur » et, par conséquent, un « savoir faire la recherche » dans le champ migratoire que nous n?envisagions pas au début de ce travail. L?acquisition de ces savoirs et les choix méthodologiques assumés nous paraissent encore plus indispensables à la fin de cette étude. Il ne s?agit pas de choix « partisans ». Nous avons bien expérimenté et cherché à utiliser les diverses approches possibles. Il s?agit plutôt de choix devenus nécessaires afin de mener la recherche à terme. Après maintes tentatives méthodologiques, nous avons bien compris qu?il existe des objets d?étude qui nécessitent l?adaptation du chercheur à leurs spécificités. Nous sommes convaincu que, voulant dépasser la phase purement « comptable » ou exploratoire d?un objet complexe et problématique comme les trajectoires migratoires, les méthodes d?enquête sur le terrain et avec les acteurs de terrain, restent les seules qui nous aident à pénétrer dans l?objet de recherche lui-même, qui nous soutiennent dans l?exploration sur la durée, qui nous permettent, par l?échange de savoirs différents, de participer à la recherche du « dedans », qui nous incitent à la confrontation de nos savoirs « savants » avec d?autres savoirs encore plus « savants » mais qui ne sont pas au bénéfice de la même légitimité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la planification de l'entraînement d'un athlète, l'affûtage précompétitif consiste à réduire les charges d'entraînement et éliminer le stress des séances précédentes afin d'optimiser les performances futures. Il existe des outils pour analyser les changements physiologiques qui se manifestent dans l'organisme des sportifs pendant cette période et qui sont responsables du gain de performance. L'analyse des indices corporels par bioimpédancemétrie pourrait constituer un outil simple et non invasif pour monitorer les performances et l'entraînement des sportifs d'élites. Méthodologie : Treize nageurs élites ont été analysés sur trois affûtages (T1, N=7 ; T2, N=6 et T3, N=8) qui précèdent trois objectifs nationaux majeurs. Un bioimpédancemètre multifréquence, le Z-Métrix, a été utilisé pour mesurer les indices avant et après l'affûtage. Sur le même principe, les performances des sujets ont été comparées entre la compétition qui suit l'affûtage et une compétition précédente sans affûtage. Pour compléter l'analyse, la charge d'entraînement pendant l'affûtage a été quantifiée puis comparée à la charge qui précède. L'évolution des indices corporels pourra donc être mise en relation avec les différences de performance et la variation de la charge d'entraînement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection des données est un élément essentiel d'un Etat de droit et une société démocratique, car elle accorde à chaque individu le droit de disposer de ce qui fait partie de sa sphère privée. Actuellement en Suisse, la loi fédérale sur la protection des données (LPD) est en vigueur depuis 1993. En 2010, l'Office fédéral de la justice a supervisé une évaluation de son efficacité : il en résulte que cette dernière a été prouvée, mais tendra à diminuer fortement dans les années à suivre. Pour causes principales : l'évolution des technologies, caractérisée notamment par le développement des moyens de traitement de données toujours plus variés et conséquents, et un manque d'informations des individus par rapport à la protection des données en générale et à leurs droits. Suite à l'évaluation, cinq objectifs de révision ont été formulés par le Conseil fédéral, dont celui d'intégrer la privacy by design ou « protection de la vie privée dès la conception » dans la loi. Ce concept, qui est également repris dans les travaux européens en cours, est développé à l'origine par l'Information and Privacy Commissionner de l'Ontario (Canada), Ann Cavoukian. Le principe général de la privacy by design est que la protection de la vie privée doit être incluse dans les systèmes traitant les données lors de leur conception. Souvent évoquée comme une solution idéale, répondant au problème de l'inadéquation de la loi par la logique de prévention qu'elle promeut, la privacy by design demeure toutefois un souhait dont l'application n'est que peu analysée. Ce travail cherche justement à répondre à la question de la manière de la mettre en oeuvre dans la législation suisse. Se basant sur les textes et la doctrine juridiques et une littérature dans les domaines de l'économie, l'informatique, la politique et la sociologie des données personnelles, il propose tout d'abord une revue générale des principes et définitions des concepts-clés de la protection des données en Suisse et dans le cadre international. Puis, il propose deux possibilités d'intégration de la privacy by design : la première est une solution privée non contraignante qui consiste à promouvoir le concept et faire en sorte que les responsables de traitement décident par eux-mêmes d'intégrer la privacy by design dans leurs projets ; ce procédé est possible grâce au renforcement du processus de certification déjà en cours. La deuxième option est une solution contraignante visant à intégrer le principe directement dans la loi et de prendre les mesures pour le rendre effectif ; ce travail montre que le développement de la figure du conseiller à la protection des données permet d'atteindre cet objectif. Enfin, des considérations générales sur l'application du principe sont abordées, telles que l'influence des développements en cours dans l'Union européenne sur la Suisse par rapport à la protection des données et la limite posée par le principe de territorialité.