1000 resultados para Analyse de sous-groupes
Resumo:
A partir d'un questionnement sur les données relatives au concept linguistique de langue «littéraire», concept central d'une théorie scientifique prospère en Union soviétique à partir des années 1960 jusqu'aujourd'hui, je cherche à proposer des explications qui pourraient rendre compte de l'ensemble des données analysées dans ma thèse. Mes conclusions se présentent sous trois angles : épistémologique (genèse et évolution du concept), historique et sociologique.Du point de vue de sa genèse, la théorie des langues «littéraire» mélange plusieurs sources: elle «greffe» l'apport des historiens de la langue comme A.A. Saxmatov (1864-1920) sur une longue réflexion, menée dès le XVIIIe s., l'époque de M.V. Lomonosov (1711-1765), sur ce qui est la langue de la civilisation russe. Le terme de langue «littéraire» russe est passé des littéraires aux linguistes pour tomber chez les sociolinguistes soviétiques (L. Krysin, E. Zemskaja) avec à chaque passage un contenu différent sans que pour autant ces différences soient explicitées de façon satisfaisante. Comparée aux définitions antérieures de la langue «littéraire», celle de la période des années 1960-90 est nettement plus prescriptive et renvoie à un usage réel qui serait supérieur à tous les autres et engloberait tout l'espace russophone en vertu de ses prétendues propriétés systémiques, jamais démontrées par les chercheurs.Les écueils de la théorie des langues «littéraires» et sa vitalité trouvent des explications si l'on prend en compte l'historicité des phénomènes. En replaçant les textes de linguistes dans un contexte anthropologique (historique, politique, institutionnel) plus large, je propose un récit des événements et des influences différent de récits canoniques présentés dans les ouvrages soviétiques. Je situe dans les années 1930 une mise en place de l'édifice du concept de langue «littéraire» à venir, inauguré dans les travaux de L.P. Jakubinskij (1892-1945) et V.M. Zirmunskij (1891-1971), où sous la désignation de «langue nationale» est décrite dans les grandes lignes 1e. concept de langue «littéraire» de la linguistique soviétique à venir.L'étude du contexte historique et l'examen de la validité de la théorie des langues «littéraire» m'ont amenée à formuler l'hypothèse qu'il existe une représentation sociale de la langue «littéraire» contenant plusieurs éléments du concept linguistique du même nom et partagée par des groupes sociaux plus larges que celui de professionnels du langage. J'ai entrepris d'établir les contours de cette représentation en appliquant les procédés proposés dans les travaux en psychologie sociale sur les représentations. D'après mon analyse, la représentation de la langue «littéraire» est plutôt stable. Du point de vue de sa formation et de son fonctionnement, c'est une représentation du type idéologique. Du point de vue de son organisation, elle présente plusieurs similitudes avec les représentations de la nation, qui se manifestent par l'adhésion des sujets à un héritage, supposé commun, de valeurs dont la langue fait partie et où elle est investie d'une forte charge identitaire. Cette valeur de la langue «littéraire» nationale est soutenue par l'État, l'enseignement, des institutions de régulation et les spécialistes du langage.Ainsi, une étude historique d'une théorie linguistique particulière présente un autre intérêt que celui de dresser un récit cohérent des événements et des influences, à savoir d'approcher à travers un corpus de textes de linguistes le domaine d'opinions des locuteurs sur leur usage langagier.
Resumo:
Résumé :Introduction : La mitoxantrone est un anthracénédione cytostatique aux ef¬fets immunosuppresseurs et -modulateurs qui est administré entre autre dans les évolutions graves de la sclérose en plaques (SEP). Peu d'études concernant l'efficacité et la tolérance de la mitoxantrone ont été publiées. Un travail de re¬cherche statistique s'imposait en raison du nombre de patients souffrant de SEP traités par ce médicament dans le service de neurologie de l'hôpital cantonal d'Aarau.Méthode : Au total, 66 patients souffrant de SEP ont été traités par la mi¬toxantrone dans la période 07/2000-06/2007. 48 d'entre eux avaient reçu préa¬lablement une autre substance modifiant l'évolution de la maladie (« prétrai¬tement » : interféron bêta-la/b, glatirameracétate, azathioprine). Dans cette étude rétrospective, nous avons comparé l'effet de la mitoxantrone par rapport au prétraitement mentionné ci-dessus. Les paramètres appliqués concernaient l'évolution de l'expanded disability status scale (EDSS) et le nombre annuel de poussées pendant la durée du traitement. Une influence du type de SEP, de l'âge au début du traitement par la mitoxantrone, du sexe, de la durée de la théra¬pie et de la maladie ainsi que de la dose cumulative de la mitoxantrone a été recherchée. Nous avons également discuté des éventuels effets indésirables surve¬nus. Nous n'avons pas différencié les substances du prétraitement, étant donné qu'elles avaient été appliquées dans des combinaisons multiples. L'évaluation sta¬tistique a été effectuée en respectant les indications du test de Mann-Whitney ainsi que du Wilcoxon signed-rank test.Résultats : En moyenne, l'EDSS s'est stabilisée (-0,05/année chez tous les 66 patients) tandis que la maladie avait progressé de 0,32/année sous le pré¬traitement (la différence est significative avec p=0,0004 au Wilcoxon signed- rank test bilatéral). Sous le prétraitement, les patients avaient subi en moyenne 1,72 poussées par année, sous la mitoxantrone 0,26 (différence significative avec p<0,0001). La thérapie a dû être arrêtée à cause d'effets indésirables chez quatre patients sous la mitoxantrone (deux avec une granulocytopénie, deux avec une diminution de la fraction d'éjection cardiaque).Discussion : La mitoxantrone s'est avéré une substance particulièrement ef¬ficace même dans les situations dans lesquelles le décours de la maladie n'a pas pu être influencé par d'autres médicaments. Ses effets indésirables doivent être pondérés par rapport à la progression de la maladie et aux effets indési¬rables des autres substances. Les schémas d'application varient beaucoup dans la littérature et doivent être mieux définis.Zusammenfassung :Einleitung: Mitoxantron ist ein zytostatisches Anthracenedion mit immunsup- pressiven und -modulatorischen Eigenschaften, das unter anderem bei schwe¬ren Verläufen der Multiplen Sklerose eingesetzt wird. Bisher befassten sich nur wenige randomisierte und plazebokontrollierte Studien mit Wirksamkeit und Tolerabilität des Medikamentes.Methoden: 66 MS-Patienten der neurologischen Klinik des Kantonsspitals Aar- au wurden zwischen Juli 2000 und Juni 2007 mit Mitoxantron behandelt. 48 davon erhielten zuvor eine MS-spezifische Behandlung mit Interferon ß-1 a oder b, Glatirameracetat oder Azathioprin. Anhand der Veränderung der Expanded Disability Status Scale (EDSS) und der jährlichen Schubrate und mit Hilfe von MRI-Aufnahmen zeichneten wir retrospektiv die Wirksamkeit der Behandlung nach und stellten sie in Beziehung zu einer eventuell erfolgten Vorbehandlung. Des weiteren wurde die Effektivität in Verhältnis zu den Faktoren Verlaufsform, Alter bei Behandlungsbeginn, Behandlungszeit sowie weiteren Parametern ge¬bracht. Wir verglichen die Wirkung von Mitoxantron bei den noch laufenden Behandlungen mit der bei den bereits abgeschlossenen und wir diskutierten die Veränderung von MRI-Aufnahmen des ZNS unter der Therapie mit Mitoxan¬tron. Nebenwirkungen wurden erwähnt.Resultate: Im Durchschnitt wurde der EDSS-Wert stabilisiert (-0, 05/Jahr bei allen 66 Patienten), während die Krankheit unter der verlaufsmodifizierenden Vorbehandlung um durchschnittlich 0,32/Jahr fortschritt (Unterschied signifi¬kant mit p=0,0004 im zweiseitigen Wilcoxon signed-rank test). Die Schubrate betrug 0,26 unter Mitoxantron gegenüber 1,72/Jahr unter Vorbehandlung (Un¬terschied signifikant mit p<0,0001). Bei vier Patienten musste die Therapie auf¬grund von Nebenwirkungen abgebrochen werden (zweimal Granulozytopenie, zweimal verminderte kardiale Auswurffraktion).Diskussion: Mitoxantron ist offensichtlich selbst dann eine äusserst effektive verlaufsmodifizierende Substanz, wenn die Krankheit durch andere Medikamen¬te nicht zu beeinflussen ist. Die Risiken des Medikamentes müssen gegen das Krankheitsfortschreiten und die Nachteile anderer verlaufsmodifizierender Sub¬stanzen abgewogen werden. Die Anwendungsalgorithmen für Mitoxantron vari¬ieren in der Literatur sehr und müssen besser definiert werden.
Resumo:
Contexte: Plusieurs études randomisées ont démontré que l'hypothermie thérapeutique modérée (33 à 34°C pendant 12 à 24H) diminue la mortalité intra-hospitalière et améliore le pronostic neurologique chez les patients comateux suite à un arrêt cardio-respiratoire (ACR). Néanmoins cette technique n'est pas dénuée d'effets secondaires au premier rang desquels on trouve les perturbations infectieuses, cardiovasculaires et hydroélectriques. L'introduction d'une prophylaxie antibiotique susceptible de diminuer l'incidence des complications infectieuses chez ces patients est préconisée par certains experts. Objectif: Evaluer si une prophylaxie antibiotique d'Augmentin® pendant 5 à 7 jours peut réduire l'incidence de pneumonies acquises sous ventilateur (VAP) au sein d'une cohorte de patients comateux hospitalisés à la suite d'un arrêt cardio-respiratoire et traités par hypothermie thérapeutique. Méthodologie: Analyse d'une base de données prospective comprenant des patients admis aux SI du Centre hospitalier universitaire vaudois (CHUV) entre juin 2007 et juillet 2011 en raison d'un ACR et traités par hypothermie thérapeutique, selon notre protocole standard de prise en charge. Pour définir si une infection était présente, nous avons analysé rétrospectivement le dossier informatique de chaque patient à la recherche des données nécessaires (radiographies du thorax, microbiologie, etc.). Nous avons également calculé le score CPIS (Clinical Pulmonary Infection Score) quotidien de chaque patient lorsque cela était possible. Le score CPIS a été validé comme outil visant à faciliter le diagnostic de VAP. Il est calculé sur la base de points attribués pour différents signes et symptômes de pneumonie. Résultats: 147 patients (âge moyen 62 ans, durée moyenne de l'arrêt circulatoire 26 min) ont été étudiés. 33% ont développé une infection (dont 30,5% de VAP) parmi lesquels 32/71 (45%) des patients qui n'ont pas reçu de prophylaxie et 17/76 (22%) de ceux qui en ont reçu une (P=0.0035). Il y a avait significativement plus de patients avec un CPIS >6 dans le groupe sans prophylaxie au jour 3 (36/65 [55%] vs. 17/69 [25%], P=0.003) et au jour 5 (24/42 [57%] vs. 17/51 [33%], P=0.02) après admission. Le CPIS médian était aussi plus bas chez les patients avec prophylaxie aux 5ème et 7ème jours (6 [range 0-10] vs. 4.5 [range 0-11], P=0.03 et 7 [range 0-10] vs. 4 [range 0-19], P=0.02, respectivement). La mortalité hospitalière était comparable entre les deux groupes (36/71 [51%] vs. 35/76 [46%], P=0.58). Conclusions: Une prophylaxie antibiotique est une mesure efficace pour réduire la survenue de VAP chez les patients avec ACR et hypothermie thérapeutique. Ce résultat devrait encourager des études à plus large échelle afin de démontrer si une antiobioprophylaxie peut également diminuer la mortalité hospitalière. Le score CPIS est un outil valide et utile dans ce contexte pour faciliter le diagnostic de pneumonie liée au ventilateur.
Resumo:
Aujourd'hui la PEA est devenue la méthode la plus employée dans le champ des études de mobilisation. Toutefois, il est frappant que les limites, nombreuses, de cette méthode, demeurent peu explorées, malgré une abondante littérature critique. C'est à ces questions des biais propres aux sources de presse dans le cadre de la PEA et aux moyens de les explorer que ce working paper se consacre. Nous commencerons par montrer, en deux temps, comment la question de la systématicité gagne à être explorée à partir d'enquêtes qualitatives, en nous appuyant sur un travail inédit mené naguère auprès du journal Le Monde, dans le cadre d'une recherche collective sur les transformations de l'activisme environnemental en Europe, dont les données seront comparées avec des sources de police, le dépouillement des dépêches de l'Agence France-Presse sur six mois, et surtout une série d'interviews avec des journalistes spécialisés dans l'environnement. L'on revient dans un second temps à la question de la sélectivité des sources en tentant de montrer comment dans toute une série de circonstances et pour toute une série de groupes, les luttes ne sauraient se réduire ni aux événements protestataires ni à un appel à l'Etat ou à l'opinion. L'on espère ainsi proposer des moyens de se garder d'un défaut commun à tout conventionnalisme méthodologique qui, ici comme ailleurs, frappe la recherche, soit la réitération de mesures conventionnelles ayant pour effet de les institutionnaliser en dehors de toute réflexion sur leur pertinence. Protest Events Analysis (PEA) has by no doubts become one the most used method in the field of social movement research. Yet, the numerous biases of that method have not been explored completely, despite a rich litterature. Our paper first proposes a discussion of the systematicity of biases, based on an empirical research on environmental journalists in various French newspapers and Agence France press. Secondly, we deal with the question of selectivity of biases. Finally, we propose some methodological recommendations in order to improve our understanding of social movements and to avoid methodological conventionalism.
Resumo:
Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.
Resumo:
L'Office fédéral de la santé publique (OFSP) a mandaté deux groupes de recherche pour analyser les besoins de la prise en prise en charge des personnes dépendantes en Suisse : l'Unité d'évaluation de programmes de prévention (UEPP) de l'Institut universitaire de médecine sociale et préventive de Lausanne (IUMSP) du Centre hospitalier universitaire vaudois (CHUV) et Addiction Suisse de Lausanne. Plus précisément, le but de cette étude est d'explorer et de définir - par une analyse des besoins - si l'offre actuelle en services dans le domaine des addictions est encore adaptée à la situation épidémiologique actuelle des addictions, à l'évolution des types de comportements liés à la dépendance et aux besoins des clients. Il s'agit en particulier de répondre aux questions suivantes: ? Existe-t-il actuellement des besoins en traitement pour lesquels il n'existe aucune offre appropriée ? ? Quels groupes ne sont pas ou sont insuffisamment atteints par l'offre existante? ? A quels genres de problèmes liés à la dépendance et à quels nouveaux besoins des clients les structures oeuvrant dans le domaine de la dépendance sont -elles confrontées? ? Quels sont les besoins d'adaptation du système de prise en charge nécessaires concernant soit les groupes-cibles de services, soit les types d'offres - en particulier le besoin en nouveaux concepts/modèles de prise en charge pour répondre à l'évolution des besoins? ? Comment ces structures font-elles face à l'accroissement de l'usage de multiples substances (multi-consommation)?
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).
Resumo:
1. 1. Summaries 1.1. Preamble and extended abstract The present thesis dissertation addresses the question of antiviral immunity from the particular standpoint of the adaptive T cell-mediated immune response. The experimental work is presented in the form of three published articles (two experimental articles and one review article, see sections 4.1, 4.2 and 4.3 on pages 73, 81 and 91, respectively), describing advances both in our understanding of viral control by CD8 T lymphocytes, and in vaccine development against the Human Immunodeficiency Virus Type 1 (HIV-1). Because the articles focus on rather specialized areas of antiviral immunity, the article sections are preceded by a general introduction (section 3) on the immune system in general, and on four viruses that were addressed in the experimental work, namely HIV-1, Cytomegalovirus (CMV), Epstein Barr Virus (EBV) and Influenzavirus (Flu). This introduction section is aimed at providing a glimpse on viral molecular biology and immunity, to help the hypothetical non-expert reader proceeding into the experimental part. For this reason, each section is presented as individual entity and can be consulted separately. The four viruses described are of peculiar relevance to immunity because they induce an array of opposite host responses. Flu causes a self limiting disease after which the virus is eradicated. CMV and EBV cause pauci-symptomatic or asymptomatic diseases after which the viruses establish lifelong latency in the host cells, but are kept in check by immunity. Eventually, HIV-1 establishes both latency - by inserting its genome into the host cell chromosome - and proceeds in destroying the immune system in a poorly controlled fashion. Hence, understanding the fundamental differences between these kinds of viral host interactions might help develop new strategies to curb progressive diseases caused by viruses such as HIV-1. Publication #1: The first article (section 4.1, page 73) represents the main frame of my laboratory work. It analyses the ability of CD8 T lymphocytes recovered from viral-infected patients to secrete interferon γ (IFN-γ) alone or in conjunction with interleukin 2 (IL-2) when exposed in vitro to their cognate viral antigens. CD8 T cells are instrumental in controlling viral infection. They can identify infected cells by detecting viral antigens presented at the surface of the infected cells, and eliminate both the cell and its infecting virus by triggering apoptosis and/or lysis of the infected cell. Recognition of these antigens triggers the cognate CD8 cells to produce cytokines, including IFN-γ and IL-2, which in turn attract and activate other pro-inflammatory cells. IFN-γ triggers both intrinsic antiviral activity of the infected cells and distant activation of pro-inflammatory cells, which are important for the eradication of infection. IL-2 is essential for clonal expansion of the antigen (Ag)-specific CD8 T cell. Hence the existence of Ag-specific CD8 cells secreting both IFN-γand IL-2 should be beneficial for controlling infection. In this first work we determined the percentage of IFN-y/IL-2 double positive and single IFN-γsecreting CD8 T cells against antigens HIV-1, CMV, EBV and Flu in three groups of subjects: (i) HIV-1 infected patients progressing to disease (progressors), (ii) HIV-1-infected subjects not progressing to disease (long-term non progressors or LTNP), and (iii) HIV negative blood donors. The results disclosed a specific IFN-y/IL-2 double positive CD8 response in all subjects able to control infection. In other words, IFN-y/IL-2 double positive CD8 cells were present in virus-specific CD8 T cells against Flu, CMV and EBV as well against HIV-1 in LTNP. In contrast, progressors only had single IFN-γsecreting CD8 T cells. Hence, the ability to develop an IFN-y/IL-2 double positive response might be critical to control infection, independently of the nature of the virus. Additional experiments helped identify the developmental stage of the missing cells (using different markers such as CD45RA and CCR7) and showed a correlation between the absence of IL-2 secreting CD8 T cells and a failure in the proliferation capacity of virus-specific CD8 T cells. Addition of exogenous IL-2 could restore clonal expansion of HIV-1 specific CD8 T cells, at least in vitro. It could further been shown, that IL-2 secreting CD8 T cells are sufficient to support proliferation even in absence of CD4 help. However, the reason for the missing IFN-y/IL-2 double positive CD8 T cell response in HIV-1 progessors has yet to be determined. Publication #2: The second article (section 4.2, page 81) explores new strategies to trigger CD8 T cell immunity against specific HIV-1 proteins believed to be processed and exposed as "infection signal" at the surface of infected cells. Such signals consist of peptide fragments (8- 13 amino acids) originating from viral proteins and presented to CD8 T cells in the frame of particular cell surface molecules of the major histocompatibility complex class I* (MHC I). To mimic "natural" viral infection, the HIV-1 polyprotein Gagpolnef was inserted and expressed in either of two attenuated viruses i.e. vaccinia virus (MVA) or poxvirus (NYVAC). Mice were infected with these recombinant viruses and specific CD8 T cell response to Gagpolnef peptides was sought. Mice could indeed mount a CD8 T cell response against the HIV-1 antigens, indicating that the system worked, at least in this animal model. To further test whether peptides from Gagpolnef could also be presented in the frame of the human MHC class I proteins, a second round of experiments was performed in "humanized" transgenic mice expressing human MHC molecules. The transgenic mice were also able to load Gagpolnef peptides on their human MHC molecule, and these cells could be detected and destroyed by Ag-specific CD8 T cells isolated from HIV-1-infected patients. Therefore, expressing Gagpolnef on attenuated recombinant viruses might represent a valid strategy for anti-HIV-1 immunization in human. Publication #3: This is a review paper (section 4.3, page 91) describing the immune response to CMV and newly developed methods to detect this cellular immune response. Some of it focuses on the detection of T cells by using in vitro manufactured tetramers. These consist of four MHC class I molecules linked together and loaded with the appropriate antigenic peptide. The tetramer can be labeled with a fluorochrome and analyzed with a fluorescence-activated cell sorter. Taken together, the work presented indicates that (i) an appropriate CD8 T cell response consisting of IFN-y/IL-2 double positive effectors, can potentially control viral infection, including HIV-1 infection, (ii) such a response might be triggered by recombinant viral vaccines, and (iii) CD8 T cell response can be monitored by a variety of techniques, including recently-developed MHC class I tetramers. 1. 2. Préambule et résumé élargi Le présent travail de thèse s'intéresse à l'immunité antivirale du point de vue particulier de la réponse adaptative des cellules T. Le travail expérimental est présenté sous la forme de trois articles publiés (2 articles expérimentaux et 1 article de revue, voir sections 4.1, 4.2 et 4.3, pages 58, 66 et 77, respectivement), décrivant des progrès dans la compréhension du contrôle de l'infection virale par les lymphocytes T CD8, ainsi que dans le développement de nouveaux vaccins contre le Virus d'Immunodéficience de Humaine de type 1 (VIH-1). En raison du caractère spécialisé de l'immunité antivirale de type cellulaire, les articles sont précédés par une introduction générale (section 3), dont le but est de pourvoir le lecteur non avisé avec des bases nécessaire à une meilleure appréhension du travail expérimental. Cette introduction présente les grandes lignes du système immunitaire, et décrit de façon générale les 4 virus utilisés dans le travail expérimental: à savoir le virus VIH-1, le Cytomégalovirus (CMV), le virus Epstein Barr (EBV) et le virus Influenza A (Flu). Toutes les sections sont présentées de façon individuelle et peuvent être consultées séparément. La description des 4 virus a une pertinence particulière quant à leur interaction avec le système immun. En effet, ils induisent une panoplie de réponses immunitaires s'étendant aux extrêmes de la réaction de l'hôte. Influenza A est à l'origine d'une maladie cytopathique aiguë, au décours de laquelle le virus est éradiqué par l'hôte. CMV et EBV sont classiquement à l'origine d'infections pauci-symptomatiques, voire asymptomatiques, après lesquelles les virus persistent de façon latente dans la cellule hôte. Cependant, ils restent sous le contrôle du système immun, qui peut prévenir une éventuelle réactivation. Enfin, VIH-1 s'établit à la fois en infection latente - par l'insertion de son génome dans le chromosome des cellules hôtes - et en infection productive et cytopathique, échappant au contrôle immunitaire et détruisant ses cellules cibles. La compréhension des différences fondamentales entre ces différents types d'interactions virus-hôte devraient faciliter le développement de nouvelles stratégies antivirales. Article 1: Le premier article (section 4.1 Page 58) représente l'objet principal de mon travail de laboratoire. Il analyse la capacité des lymphocytes T CD8 spécifiques de différent virus à sécréter de l'interféron gamma (IFN-y) et/ou de l'interleukine 2 (IL-2) après stimulation par leur antigène spécifique. Les cellules T CD8 jouent un rôle crucial dans le contrôle des infections virales. Elles identifient les cellules infectées en détectant des antigènes viraux présentés à la surface de ces mêmes cellules, et éliminent à la fois les cellules infectées et les virus qu'elles contiennent en induisant l'apoptose et/ou la lyse des cellules cibles. Parallèlement, l'identification de l'antigène par la cellule T CD8 la stimule à sécréter des cytokines. L'IFN-γen est un exemple. L'IFN-γ stimule les cellules infectées à développer une activé antivirale intrinsèque. De plus, il attire sur place d'autres cellules de l'inflammation, et active leur fonction d'éradication des pathogènes. L'IL-2 est un autre exemple. L'IL-2 est essentielle à l'expansion clonale des cellules T CD8 spécifiques à un virus donné. Elle est donc essentielle à augmenter le pool de lymphocytes antiviraux. En conséquence, la double capacité de sécréter de l'IFN-γ et de IL-2 pourrait être un avantage pour le contrôle antiviral par les cellules T CD8. Dans ce travail nous avons comparé les proportions de lymphocytes T CD8 doubles positifs (IFN-γ/IL-2) et simples positifs (IFN-γ) chez trois groupes de sujets: (i) des patients infectés par VIH-1 qui ne contrôlent pas l'infection (progresseurs), (ii) des patients infectés par VIH-1, mais contrôlant l'infection malgré l'absence de traitement ("long term non progressors" [LTNP]) et (iii) des donneurs de sang négatifs pour l'infection à VIH-1. Les résultats ont montré que les individus capables de contrôler une infection possédaient des cellules T CD8 doubles positifs (IFN-γ/IL-2), alors que les patients ne contrôlant pas l'infection procédaient prioritairement des CD8 simples positifs (IFN-γ). Spécifiquement, les lymphocytes T spécifiques pour Flu, CMV, EBV, et VII-1-1 chez les LTNP étaient tous IFN-γ/IL-2 doubles positifs. Au contraire, les lymphocytes T CD8 spécifique à VIH-1 étaient IFN-γ simples positifs chez les progresseurs. La capacité de développer une réponse IFN-γ/IL-2 pourraient être primordiale pour le contrôle de l'infection, indépendamment de la nature du virus. En effet, il a été montré que l'absence de sécrétion d'IL2 par les lymphocytes T CD8 corrélait avec leur incapacité de proliférer. Dans nos mains, cette prolifération a pu être restaurée in vitro par l'adjonction exogène d'IL-2. Toutefois, la faisabilité de ce type de complémentation in vivo n'est pas claire. Des expériences additionnelles ont permis de préciser de stade de développement des lymphocytes doubles positifs et simples positifs par le biais des marqueurs CD45RA et CCR7. Il reste maintenant à comprendre pourquoi certains lymphocytes T CD8 spécifiques sont incapables à sécréter de l'IL-2. Article 2: Le deuxième article explore des nouvelles stratégies pour induire une immunité T CD8 spécifique aux protéines du VIH-1, qui sont édités et exposés à la surface des cellules infectées. Ces signaux consistent en fragments de peptide de 8-13 acide aminés provenant de protéines virales, et exposées à la surface des cellules infectées dans le cadre des molécules spécialisées d'histocompatibilité de classe I (en anglais "major histocompatibility class I" ou MHC I). Pour mimer une infection virale, la polyprotéine Gagpolnef du VIH-1 a été insérée et exprimée dans deux vecteurs viraux atténués, soit MVA (provenant de vaccinia virus) ou NYVAC (provenant d'un poxvirus). Ensuite des souris ont été infectées avec ces virus recombinants et la réponse T CD8 aux peptides issus de Gagpolnef a été étudiée. Les souris ont été capables de développer une réponse de type CD8 T contre ces antigènes du VIH-1. Pour tester si ces antigènes pouvaient aussi être présentés par dans le cadre de molécules MHC humaines, des expériences supplémentaires ont été faites avec des souris exprimant un MHC humain. Les résultats de ces manipulations ont montré que des cellules T CD8 spécifique aux protéines du VIH pouvaient être détectées. Ce travail ouvre de nouvelles options quant à l'utilisation des virus recombinants exprimant Gagpolnef comme stratégie vaccinale contre le virus VIH-I chez l'homme. Article 3: Ces revues décrivent la réponse immunitaire à CMV ainsi que des nouvelles méthodes pouvant servir à sa détection. Une partie du manuscrit décrit la détection de cellule T à l'aide de tétramères. Il s'agit de protéines chimériques composées de 4 quatre molécules MHC liées entre elles. Elles sont ensuite "chargées" avec le peptide antigénique approprié, et utilisée pour détecter les cellules T CD8 spécifiques à ce montage. Elles sont aussi marquées par un fluorochrome, qui permet une analyse avec un cytomètre de flux, et l'isolement ultime des CD8 d'intérêt. En résumé, le travail présenté dans cette thèse indique que (i) une réponse T CD8 appropriée - définie par la présence des cellules effectrices doublement positives pour l'IFN-γ et l'IL-2 - semble indispensable pour le contrôle des infections virales, y compris par le VIH-1, (ii) une telle réponse peut être induite par des vaccin viral recombinant, et (iii) la réponse T CD8 peut être analysée et suivie grâce à plusieurs techniques, incluant celle des tétramères de MHC class I. 1.3. Résumé pour un large public Le système immunitaire humain est composé de différents éléments (cellules, tissus et organes) qui participent aux défenses de l'organisme contre les pathogènes (bactéries, virus). Parmi ces cellules, les lymphocytes T CD8, également appelés cellules tueuses, jouent un rôle important dans la réponse immunitaire et le contrôle des infections virales. Les cellules T CD8 reconnaissent de manière spécifique des fragments de protéines virales qui sont exposés à la surface des cellules infectées par le virus. Suite à cette reconnaissance, les cellules T CD8 sont capables de détruire et d'éliminer ces cellules infectées, ainsi que les virus qu'elles contiennent. Dans le contexte d'une infection par le virus de l'immunodéficience humaine (VIH), le virus responsable du SIDA, il a pu être montré que la présence des cellules T CD8 est primordiale. En effet, en l'absence de ces cellules, les individus infectés par le VIH progressent plus rapidement vers le SIDA. Au cours de la vie, l'Homme est exposé à plusieurs virus. Mais à l'opposé du VIH, certains d'entre eux ne causent pas des maladies graves : par exemple le virus de la grippe (Influenza), le cytomégalovirus ou encore le virus d'Epstein-Barr. Certains de ces virus peuvent être contrôlés et éliminés de l'organisme (p. ex. le virus de la grippe), alors que d'autres ne sont que contrôlés par notre système immunitaire et restent présents en petite quantité dans le corps sans avoir d'effet sur notre santé. Le sujet de mon travail de thèse porte sur la compréhension du mécanisme de contrôle des infections virales par le système immunitaire : pourquoi certains virus peuvent être contrôlés ou même éliminés de l'organisme alors que d'autres, et notamment le VIH, ne le sont pas. Ce travail a permis de démontrer que les cellules T CD8 spécifiques du VIH ne sécrètent pas les mêmes substances, nécessaires au développement d'une réponse antivirale efficace, que les cellules T CD8 spécifiques des virus contrôlés (le virus de la grippe, le cytomégalovirus et le virus d'Epstein-Barr). Parallèlement nous avons également observé que les lymphocytes T CD8 spécifiques du VIH ne possèdent pas la capacité de se diviser. Ils sont ainsi incapables d'être présents en quantité suffisante pour assurer un combat efficace contre le virus du SIDA. La (les) différence(s) entre les cellules T CD8 spécifiques aux virus contrôlés (grippe, cytomégalovirus et Epstein-Barr) et au VIH pourront peut-être nous amener à comprendre comment restaurer une immunité efficace contre ce dernier.
Resumo:
Il y a aujourd'hui un relatif consensus autour de l'émergence de l'agriculture urbaine. Les projets d'agriculture urbaine se développeraient, car il y aurait une nécessité à réinstaurer des relations entre l'urbain et l'agricole. Les dispositifs qui ont été mis en place par la modernité comme le zonage, l'économie de marché, les transports, l'usage de fertilisants ou les filières agroalimentaires auraient en effet fait disparaître ces relations qu'il s'agirait aujourd'hui de reconnecter. L'agriculture urbaine serait alors présentée comme une stratégie alternative à cette distinction. Elle serait le résultat de relations réciproques - et donc équivalentes - entre l'urbain et l'agricole. Elle serait alors à la fois urbaine et agricole. Nous pensons qu'il faut sortir aujourd'hui de cette conception d'agriculture urbaine. Nous remettons tout d'abord en question le fait que l'agriculture urbaine aurait pour objectif de reconnecter l'urbain et l'agricole. Cela présuppose qu'il n'y aurait plus de relations durant la modernité entre l'agricole et l'urbain. Or, comme le montre l'étude des aspects spatiaux, fonctionnels et sociaux de ces relations sous la modernité pour les cas de Genève et de Tokyo, ces relations existeraient toujours, voire même s'intensifieraient. Nous cherchons aussi à montrer qu'il faut faire évoluer l'idée que l'agriculture urbaine étant le résultat de relations réciproques entre l'urbain et l'agricole, elle se devait d'être à la fois urbaine et agricole. Dans les faits, l'agriculture urbaine apparaît plus souvent comme un projet de l'urbain au bénéfice de celui-ci, que comme un projet partagé entre l'urbain et l'agricole. Enfin, nous mettons en avant que l'agriculture urbaine n'aurait pas la capacité de reconnecter de façon effective l'agricole et l'urbain. Ainsi, l'agriculture urbaine n'est pas en mesure de se substituer aux dispositifs mis en place par la modernité. Elle ne peut rendre les villes autonomes en denrées alimentaires, établir des symbioses agro-urbaines ou remettre en question le système des filières agroalimentaires. Dans ce contexte, nous défendons la thèse que la conception d'agriculture urbaine doit aujourd'hui évoluer vers celle de toshinogyo. L'objectif est alors de rendre visibles les relations entre l'agricole et l'urbain. Les dispositifs mis en place sous la modernité n'ont pas eu pour effet de supprimer les relations entre l'urbain et l'agricole, mais de les rendre invisibles. Il s'agit aujourd'hui de leur redonner une visibilité. En devenant cette prise qui rend visibles ces relations, la toshinogyo ne serait alors plus tenue d'être urbaine et agricole à la fois, de même qu'elle ne s'opposerait pas aux dispositifs modernes, mais en serait complémentaire. Dans le contexte Genevois, le passage de l'agriculture urbaine à la toshinogyo est loin d'être encore évident. Dans le cas de Tokyo, l'optique de la toshinogyo est clairement affirmée et pourrait alors donner des amorces de pistes à suivre.
Resumo:
Les maladies cardio-vasculaires représentent la première cause de mortalité en Suisse. Après un arrêt cardio-respiratoire, une minorité des patients survit sans ou avec peu de séquelles fonctionnelles. L'évaluation du pronostic se fait classiquement selon des critères établis par l'Académie Américaine de Neurologie (AAN) en 2006, soit précédant l'introduction de l'hypothermie thérapeutique. Depuis, ces critères semblent insuffisants, et de nouveaux examens para-cliniques sont nécessaires afin d'identifier les patients ayant un pronostic favorable. La détection d'irrégularités auditives, et plus particulièrement l'évolution de cette détection sur plusieurs jours, pourrait être un indicateur du pronostic de patients comateux suite à une anoxie cérébrale. En effet, lors d'une violation de la régularité établie par des séries de sons identiques, deux signaux sont détectables à l'électro- encéphalographie (EEG). Le premier, dénommé «Mismatch negativity» (MMN), peut être enregistré après une violation locale d'une régularité établie au niveau de chaque son. Il reflète un processus inconscient et ne demandant pas de ressources attentionnelles. Le deuxième, dénommé « complexe P300 » survient par contre après une violation globale d'une régularité établie au niveau de groupes de sons. La littérature actuelle indique que ce deuxième phénomène requerrait la présence de capacités attentionnelles. Dans notre étude, nous avons testé l'existence de cette détection d'irrégularités auditives globales chez des patients dans une phase précoce de coma post-anoxique, sous hypothermie thérapeutique. Nous avons enregistré la réponse électro-encéphalographique lors de violations de régularités auditives globales, à l'aide d'un protocole expérimental qui intégrait en plus un paradigme de MMN classique, afin de tester la détection d'irrégularités auditives locales également. Notre analyse finale inclut 24 patients comateux ayant subi un arrêt cardio-respiratoire, et bénéficié du protocole hypothermie du Centre Hospitalier Universitaire Vaudois (CHUV) à Lausanne. Après une analyse multivariée des réponses électro-encéphalographiques de chaque tracé individuellement (« single-trial »), nous avons trouvé que 8 patients sur 24 pouvaient discriminer une irrégularité globale, alors qu'étant définis comateux selon l'échelle de Glasgow (GCS). De plus, l'amélioration de la détection d' irrégularités auditives entre deux EEG consécutifs (en hypo- puis normothermie), était un facteur de bon pronostic. Notre test pourrait ainsi être un complément para-clinique dans l'évaluation du pronostic de patients en coma post- anoxique.
Resumo:
Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.
Resumo:
Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)
Resumo:
L'élément génétique intégratif et conjugatif auto-transférable de 103 kb qui se trouve dans le génome de Pseudomonas knackmussii B13 (ICEc/c) confère la capacité de dégrader le 3-chlorobenzoate et le 2-aminophénol. L'élément ICE c/c peut être transféré par conjugaison de la souche B13 à diverses bêta- et gamma- protéobactéries. Seule une sous-population de 3 à 5% des cellules transfère l'élément, les cellules dites "compétentes pour le transfert". L'acquisition de la compétence pour le transfert est vraisemblablement la conséquence d'une régulation bistable, conduisant une partie des cellules au transfert de l'élément ICE c/c tandis que, dans les autres, l'élément reste quiescent et ne se transfère pas. À ce jour, les mécanismes et les acteurs moléculaires qui régulent l'activation bistable de l'élément sont restés inconnus. Mon travail de doctorat visait à identifier les éléments bistables du régulon de la compétence pour le transfert et d'analyser les fondements moléculaires de la bistabilité de l'élément ICE c/c chez P. knackmussii. Le premier chapitre introduit le thème du transfert génétique horizontal avec un accent particulier sur les éléments intégratifs et conjugatifs (ICE) et ICEcIc. L'état actuel des connaissances sur l'organisation génétique, la régulation, l'intégration et le transfert de différents modèles de ICEs est exposé en détail. En outre, je m'étends sur les phénomènes d'hétérogénéité et de bistabilité phénotyplques, qu'on peut distinguer dans une population isogénique dans des conditions de culture homogènes, et qui sont susceptibles de jouer un rôle dans le transfert de l'élément ICE c/c, dans la mesure où il ne s'active et n'est transférable que dans une très petite sous-population de cellules. Dans le chapitre 2, je présente une analyse globale des régions promotrices minimales des gènes appartenant au régulon de la compétence pour le transfert de l'élément ICE c/c. Nous avons étudié les caractéristiques d'expression des promoteurs et, s'ils s'avéraient bistables, leur activation dans le temps par comparaison avec le mutant lntB13. Pour ce faire, nous avons utilisé des fusions de promoteurs avec des gènes rapporteurs et testé l'expression bistable chez P. knackmussii par microscopie à épifluorescence. Pour six promoteurs présentant une expression bistable, nous avons employé de la microscopie temporelle pour déterminer la chronologie de leur expression par rapport à Pint et PinR. Parmi eux, nous avons identifié deux gènes exprimés précocement et trois gènes exprimés tardivement dans le processus d'acquisition de la compétence de transfert. Dans le chapitre 3, j'expose une analyse d'expression génétique pour l'un des groupes de gènes dont la transcription est la plus élevée dans la région conservée de ICE c/c, les gènes orf81655-orf68241 contenus dans une région de 14 kb. Nous montrons d'abord que cet opéron fait partie du même régulon bistable que intB13 et inrR et analysons les caractéristiques génétiques qui conduisent à une transcription élevée. Nous étudions les fonctions biologiques de ce groupe de gènes par des délétlons ciblées et montrons que certaines d'entre elles empêchent le transfert de l'élément. Nous approfondissons la caractérlsatlon de I'orf8l655 en construisant une fusion transcrlptionnelle avec le gène codant pour la protéine fluorescente verte (egfp) (en utilisant le système minl-Tn5). L'expression de Vorf81655 dans des cellules individuelles est comparée au signal mesuré par hybridation in situ en fluorescence (FISH) sur le ARN messager du gène. En utilisant FISH, des délétlons du promoteur et de l'analyse directe de transcription, nous avons localisé la région promotrice du groupe de gènes. En outre, nous avons utilisé des mutations dirigées pour comprendre la bistabilité de cette région promotrice, caractérisée par une transcription très élevée et une traduction lente de l'ARN messager. Dans le chapitre 4, nous nous efforçons de comprendre comment la bistabilité est générée au sein du régulon te de l'élément ICE c/c. Pour ce faire, nous avons tenté de reconstituer une expression bistable, dans un hôte qui ne présente pas de bistabilité naturellement, à partir d'éléments génétiques individuels. L'hôte choisi est Pseudomonas putida dans lequel nous avons introduit une copie unique de Pint, PinR ou PaipA fusionnés à la egfp, construits qui permettent d'observer l'apparition de bistabilité. Nous avons ensuite construit différents assemblages de composants génétiques de l'élément ICE c/c, en nous concentrant sur la région parA-inrR. En effet, nous avons pu démontrer qu'une expression bistable apparaît dans P. putida grâce à ces éléments en l'absence de l'élément ICE c/c complet. À noter que la plupart des construits génétiques activent PaipA ou P|,,R, mais qu'un seul recrée la bistabilité de Pint, ce qui suggère que la région parA-inrR permet à la fois d'engendrer la bistabilité et d'opérer la transition entre les promoteurs précoces et les promoteurs tardifs du régulon de la bistabilité. Dans le chapitre 5, nous concluons sur une discussion de la pertinence de nos résultats et sur de futures perspectives de recherche. -- The 103-kb self-transmissible integrative and conjugative element (ICE) of Pseudomonas knackmussii B13 (ICEc/c) confers the capacity to degrade 3- chlorobenzoate and 2-aminophenol. ICEc/c can be conjugated from strain B13 to a variety of Beta- and Gammaproteobacteria. Interestingly, ICE c/c transfer is observed in a subpopulatlon of cells (3-5%) only, the so-called 'transfer competent' cells. The formation of transfer competence (tc) is thought to be the consequence of a 'bistable' decision, which forces those cells to follow the developmental path which leads to ICEc/c transfer, whereas in others ICE c/c remains silent and does not transfer. So far, the mechanisms and molecular partners generating this bistable transfer activation in cells of P. knackmussii B13 remain mostly unidentified. This thesis aimed at understanding the extent of the tc bistability regulon and to dissect the molecular basis of bistabillty formation of ICEc/c in P. knackmussii. The first chapter is a general Introduction on horizontal gene transfer (HGT) with particular emphasis on ICEs and ICE c/c. The emphasis is made on the current knowledge about the HGT gene organization, regulation and specific integration and transfer aspects of the different ICEs models. Furthermore, I focus on the phenomena of phenotypic heterogeneity and bistability (the property of two distinguishable phenotypes existing within an isogenic population under homogeneous conditions), which may play a particular role in ICEc/c behaviour, since ICE activation and transfer only occurs in a very small subpopulation of cells. In Chapter Two, I focus on a global analysis of the different core promoters that might belong to the ICEc/c tc pathway regulon. We studied both expression patterns of ICEc/c promoters and, once being identified as "bistable", their temporal activation compared to that of intB13. In order to do this, we used promoter reporter fusions and tested blstability expression in P. knackmussii using epifluorescence microscopy. For the 6 promoters that showed bistable expression, we used time-lapse microscopy to study the timing of promoter expression in comparison to that of P,,,t or PlnR. We could establish two "early" and 3 "late" phase promoters in the process of transfer competence. In Chapter Three, I focused my attention on analysis of gene expression of one of the most highly transcribed gene clusters in the conserved core region of ICEc/c, a 14-kb gene cluster formed by the genes orf81655-orf68241. First we showed that this operon is part of the same bistability 'regulon' as intB13 and inrR, and analysed the genetic features that lead to high transcription. We studied the potential biological function of this cluster for ICE c/c by making specific gene deletions, showing that some interrupt ICEc/c transfer. We further analysed the orfdl655 promoter by constructing transcriptional egfp fusion reporter strains using the miniTn5 delivery system. Expression of the orf81655 promoter in single cells was compared to signals measured by Fluorescence In Situ Hybridization (FISH) on orfSl655 mRNA. We localized the promoter region of the gene cluster using FISH, promoter deletions, and by direct transcript analysis. We further used site-directed mutagenesis to understand the bistability character of the promoter region and the extremely high transcription but low translation from this mRNA. In Chapter Four, we set out to understand how bistability is generated in the tc pathway of ICEc/c. For this we tried rebuilding bistable expression from ICEc/c individual gene components in a host, which normally does not display bistability. As host we used P. putida without ICEc/c but with a single copy Pint-, PlnR- or PalpA- egfp fusion that enabled us to verify bistability formation. Subsequently, we built different assemblages of ICEc/c gene components, focusing on the parA-inrR region. Indeed, we found that bistable expression can be build from those components in P. putida without ICEc/c. Interestingly, most genetic constructs activated PaipA or PlnR, but only one resulted in bistable activation of PinT. This suggests that the parA-inrR region acts as a bistability "generator", but also as a bistability "relay" from early to late promoters in the tc pathway hierarchy. In the final fifth chapter, we conclude with a discussion of the relevance of the present thesis and the resulting perspectives for future studies.
Resumo:
Tibau do Sul est une commune littorale du Rio Grande do Norte connue pour sa Praia da Pipa, un ancien village de pêcheurs entouré de plages spectaculaires, devenu un haut lieu du tourisme balnéaire dans le Nordeste brésilien. Située à la limite d'une zone de plantations sucrières, la station est fréquentée par des villégiateurs issus de l'élite agraire locale depuis le début du XXe siècle. Toutefois, ce n'est que dans les années 1970-80 que le tourisme se développe véritablement sous l'impulsion de jeunes surfeurs attirés par ses vagues, ses beaux paysages et « l'authenticité » de sa population autochtone. A l'époque, l'attitude subversive de ces jeunes voyageurs - inspirés de la contre-culture brésilienne - contraste de manière radicale avec le style paternaliste des élites villégiatrices. Pour la population locale, l'irruption du tourisme ouvre un nouveau champ de possibilités économiques, sociales et politiques. Elle coïncide par ailleurs avec une série d'autres transformations à l'oeuvre dans la région : le déclin des plantations, la modernisation de l'activité maritime, le développement des institutions municipales. Cette conjonction de facteurs encourage l'émergence d'une petite bourgeoisie autochtone impliquée dans les cercles de pouvoirs locaux et capable de négocier avec les étrangers attirés par le tourisme. A mesure que l'activité se professionnalise et s'internationalise, de nouveaux acteurs investissent la commune : agents immobiliers, entrepreneurs, investisseurs internationaux, résidents secondaires européens, travailleurs immigrés, écologistes, institutions publiques, etc. Il s'enclenche alors une cohabitation inédite entre des groupes socialement et culturellement très hétérogènes. A la fois conflictuelle et créatrice, cette configuration induit un certain nombre de frictions qui se manifestent aussi bien dans les rapports fonciers et les luttes environnementales, que dans les activités culturelles, les médias locaux et la politique municipale. A contre-courant des interprétations réductrices présentant le tourisme tantôt comme une forme de « néo-colonialisme », tantôt comme une « recette miracle » pour le développement, l'enquête ethnographique souligne toute l'ambivalence du phénomène touristique. À l'instar de la « situation coloniale » analysée par Georges Balandier (1951), la situation touristique est envisagée comme une configuration sociale fondée sur l'interdépendance entre les acteurs, historiquement déterminée, mais jamais acquise à l'avance. Dans le cas de Tibau do Sul, l'étude révèle l'influence déterminante des structures sociales et foncières - héritées des modes de production antérieurs (la paysannerie, la pêche et les plantations sucrières) - sur la trajectoire touristique des communautés du littoral.