178 resultados para Méthode des caractéristiques généralisées
Resumo:
Métier de service, féminin, dévalorisé, peu qualifié et mal payé, voici le registre le plus fréquent sur lequel est évoqué le travail de service en restauration. Sans aucun doute, ces éléments caractérisent en partie l'activité professionnelle des serveuses et des serveurs de restaurant, mais ils ne suffisent pas à en cerner la spécificité et ne rendent que partiellement compte des différentes facettes du métier et du travail réalisé. La présente étude s'applique à repérer les ressorts de cette « entreprise humaine organisée » (Freidson, 1986) qu'est le métier de serveur/serveuse en restauration traditionnelle, mais dont l'organisation n'apparaît pas d'emblée, tant elle est peu formelle et formalisée. À partir d'une démarche empirique, et en croisant différentes approches - sociologie du travail, sociologie des groupes professionnels, sociologie des services et études genre -, elle donne à comprendre ce qui fait le métier de serveur et de serveuse en restauration commerciale traditionnelle et la spécificité du travail effectué par ces petites mains du service. La première partie de l'analyse cerne les multiples facettes du contenu du travail des serveuses et des serveurs en restauration et la particularité des relations de service entre la clientèle et le personnel. La seconde traite plus spécifiquement des relations sociales dans l'entreprise, tant horizontales - avec les collègues -, que verticales - avec le patron. Enfin la troisième partie met en évidence les principaux mécanismes de différenciation de la main-d'oeuvre, par l'analyse de la répartition des horaires de travail et l'examen des parcours professionnels des personnes interviewées. Au final, cette thèse dresse le profil sociologique d'un métier qui a, jusqu'ici, peu retenu l'attention des chercheur?e?s. Elle cerne finement la profonde ambivalence qui caractérise le métier de serveur/serveuse, tant au plan du travail effectué, des relations de travail, du rapport au client, des parcours professionnels et du rapport subjectif que les personnes entretiennent à l'égard de leur travail. Service marchand marqué par la combinaison d'une domesticité ancillaire et d'une forme de domesticité familiale ; activité manuelle et relationnelle, individuelle et collective, physique et psychique ; combinaison de routine et d'événement ; travail dont il faut effacer le caractère laborieux ; personnalisation de relations entre anonymes, sont un aperçu des résultats qui concourent à montrer que le métier de serveur/serveuse recouvre des réalités contrastées et combine des logiques qui peuvent apparaître comme fort éloignées, voire contradictoires. En réalité, ce métier est à l'interface entre l'univers salarial, artisanal et domestique et présente simultanément des caractéristiques propres aux différentes formes de mise au travail que sont le salariat, l'artisanat et le travail domestique. En étayant ce résultat, ma recherche plaide pour la nécessité d'une approche transversale et globalisante qui ne fonctionne pas sur des catégories d'analyse figées et hermétiques, définies a priori en fonction de l'objet étudié, mais reste ouverte pour permettre de saisir la complexité et l'hybridation des logiques à l'oeuvre dans toute activité professionnelle. Ainsi, outre la contribution qu'apporte cette recherche aux connaissances existantes sur un segment professionnel peu investigué jusqu'ici, elle contribue aussi à enrichir les analyses contemporaines du travail en suscitant une réflexion de plus large portée sur les approches et les conceptualisations possibles pour appréhender les activités de service.
Resumo:
Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
The opportunistic ubiquitous pathogen Pseudomonas aeruginosa strain PAOl is a versatile Gram-negative bacterium that has the extraordinary capacity to colonize a wide diversity of ecological niches and to cause severe and persistent infections in humans. To ensure an optimal coordination of the genes involved in nutrient utilization, this bacterium uses the NtrB/C and/or the CbrA/B two-component systems, to sense nutrients availability and to regulate in consequence the expression of genes involved in their uptake and catabolism. NtrB/C is specialized in nitrogen utilization, while the CbrA/B system is involved in both carbon and nitrogen utilization and both systems activate their target genes expression in concert with the alternative sigma factor RpoN. Moreover, the NtrB/C and CbrA/B two- component systems regulate the secondary metabolism of the bacterium, such as the production of virulence factors. In addition to the fine-tuning transcriptional regulation, P. aeruginosa can rapidly modulate its metabolism using small non-coding regulatory RNAs (sRNAs), which regulate gene expression at the post-transcriptional level by diverse and sophisticated mechanisms and contribute to the fast physiological adaptability of this bacterium. In our search for novel RpoN-dependent sRNAs modulating the nutritional adaptation of P. aeruginosa PAOl, we discovered NrsZ (Nitrogen regulated sRNA), a novel RpoN-dependent sRNA that is induced under nitrogen starvation by the NtrB/C two-component system. NrsZ has a unique architecture, formed of three similar stem-loop structures (SL I, II and II) separated by variant spacer sequences. Moreover, this sRNA is processed in short individual stem-loop molecules, by internal cleavage involving the endoribonuclease RNAse E. Concerning NrsZ functions in P. aeruginosa PAOl, this sRNA was shown to trigger the swarming motility and the rhamnolipid biosurfactants production. This regulation is due to the NrsZ-mediated activation of rhlA expression, a gene encoding for an enzyme essential for swarming motility and rhamnolipids production. Interestingly, the SL I structure of NrsZ ensures its regulatory function on rhlA expression, suggesting that the similar SLs are the functional units of this modular sRNA. However, the regulatory mechanism of action of NrsZ on rhlA expression activation remains unclear and is currently being investigated. Additionally, the NrsZ regulatory network was investigated by a transcriptome analysis, suggesting that numerous genes involved in both primary and secondary metabolism are regulated by this sRNA. To emphasize the importance of NrsZ, we investigated its conservation in other Pseudomonas species and demonstrated that NrsZ is conserved and expressed under nitrogen limitation in Pseudomonas protegens Pf-5, Pseudomonas putida KT2442, Pseudomonas entomophila L48 and Pseudomonas syringae pv. tomato DC3000, strains having different ecological features, suggesting an important role of NrsZ in the adaptation of Pseudomonads to nitrogen starvation. Interestingly the architecture of the different NrsZ homologs is similarly composed by SL structures and variant spacer sequences. However, the number of SL repetitions is not identical, and one to six SLs were predicted on the different NrsZ homologs. Moreover, NrsZ is processed in short molecules in all the strains, similarly to what was previously observed in P. aeruginosa PAOl, and the heterologous expression of the NrsZ homologs restored rhlA expression, swarming motility and rhamnolipids production in the P. aeruginosa NrsZ mutant. In many aspects, NrsZ is an atypical sRNA in the bacterial panorama. To our knowledge, NrsZ is the first described sRNA induced by the NtrB/C. Moreover, its unique modular architecture and its processing in similar short SL molecules suggest that NrsZ belongs to a novel family of bacterial sRNAs. -- L'agent pathogène opportuniste et ubiquitaire Pseudomonas aeruginosa souche PAOl est une bactérie Gram négative versatile ayant l'extraordinaire capacité de coloniser différentes niches écologiques et de causer des infections sévères et persistantes chez l'être humain. Afin d'assurer une coordination optimale des gènes impliqués dans l'utilisation de différents nutriments, cette bactérie se sert de systèmes à deux composants tel que NtrB/C et CbrA/B afin de détecter la disponibilité des ressources nutritives, puis de réguler en conséquence l'expression des gènes impliqués dans leur importation et leur catabolisme. Le système NtrB/C régule l'utilisation des sources d'azote alors que le système CbrA/B est impliqué à la fois dans l'utilisation des sources de carbone et d'azote. Ces deux systèmes activent l'expression de leurs gènes-cibles de concert avec le facteur sigma alternatif RpoN. En outre, NtrB/C et CbrA/B régulent aussi le métabolisme secondaire, contrôlant notamment la production d'importants facteurs de virulence. En plus de toutes ces régulations génétiques fines ayant lieu au niveau transcriptionnel, P. aeruginosa est aussi capable de moduler son métabolisme en se servant de petits ARNs régulateurs non-codants (ARNncs), qui régulent l'expression génétique à un niveau post- transcriptionnel par divers mécanismes sophistiqués et contribuent à rendre particulièrement rapide l'adaptation physiologique de cette bactérie. Au cours de nos recherches sur de nouveaux ARNncs dépendant du facteur sigma RpoN et impliqués dans l'adaptation nutritionnelle de P. aeruginosa PAOl, nous avons découvert NrsZ (Nitrogen regulated sRNA), un ARNnc induit par la cascade NtrB/C-RpoN en condition de carence en azote. NrsZ a une architecture unique, composée de trois structures en tige- boucle (TB I, II et III) hautement similaires et séparées par des « espaceurs » ayant des séquences variables. De plus, cet ARNnc est clivé en petits fragments correspondant au trois molécules en tige-boucle, par un processus de clivage interne impliquant l'endoribonucléase RNase E. Concernant les fonctions de NrsZ chez P. aeruginosa PAOl, cet ARNnc est capable d'induire la motilité de type « swarming » et la production de biosurfactants, nommés rhamnolipides. Cette régulation est due à l'activation par NrsZ de l'expression de rhlA, un gène essentiel pour la motilité de type swarming et pour la production de rhamnolipides. Étonnamment, la structure TB I est capable d'assurer à elle seule la fonction régulatrice de NrsZ sur l'expression de rhlA, suggérant que ces molécules TBs sont les unités fonctionnelles de cet ARNnc modulaire. Cependant, le mécanisme moléculaire par lequel NrsZ active l'expression de rhlA demeure à ce jour incertain et est actuellement à l'étude. En plus, le réseau de régulations médiées par NrsZ a été étudié par une analyse de transcriptome qui a indiqué que de nombreux gènes impliqués dans le métabolisme primaire ou secondaire seraient régulés par NrsZ. Pour accentuer l'importance de NrsZ, nous avons étudié sa conservation dans d'autres espèces de Pseudomonas. Ainsi, nous avons démontré que NrsZ est conservé et exprimé en situation de carence d'azote par les souches Pseudomonas protegens Pf-5, Pseudomonas putida KT2442, Pseudomonas entomophila L48, Pseudomonas syringae pv. tomato DC3000, quatre espèces ayant des caractéristiques écologiques très différentes, suggérant que NrsZ joue un rôle important dans l'adaptation du genre Pseudomonas envers la carence en azote. Chez toutes les souches étudiées, les différents homologues de NrsZ présentent une architecture similaire faite de TBs conservées et d'espaceurs. Cependant, le nombre de TBs n'est pas identique et peut varier de une à six copies selon la souche. Les différentes versions de NrsZ sont clivées en petites molécules dans ces quatre souches, comme il a été observé chez P. aeruginosa PAOl. De plus, l'expression hétérologue des différentes variantes de NrsZ est capable de restaurer l'expression de rhlA, la motilité swarming et la production de rhamnolipides dans une souche de P. aeruginosa dont nrsZ a été inactivé. Par bien des aspects, NrsZ est un ARNnc atypique dans le monde bactérien. À notre connaissance, NrsZ est le premier ARNnc décrit comme étant régulé par le système NtrB/C. De plus, son unique architecture modulaire et son clivage en petites molécules similaires suggèrent que NrsZ appartient à une nouvelle famille d'ARNncs bactériens.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Résumé: Les récents progrès techniques de l'imagerie cérébrale non invasives ont permis d'améliorer la compréhension des différents systèmes fonctionnels cérébraux. Les approches multimodales sont devenues indispensables en recherche, afin d'étudier dans sa globalité les différentes caractéristiques de l'activité neuronale qui sont à la base du fonctionnement cérébral. Dans cette étude combinée d'imagerie par résonance magnétique fonctionnelle (IRMf) et d'électroencéphalographie (EEG), nous avons exploité le potentiel de chacune d'elles, soit respectivement la résolution spatiale et temporelle élevée. Les processus cognitifs, de perception et de mouvement nécessitent le recrutement d'ensembles neuronaux. Dans la première partie de cette thèse nous étudions, grâce à la combinaison des techniques IRMf et EEG, la réponse des aires visuelles lors d'une stimulation qui demande le regroupement d'éléments cohérents appartenant aux deux hémi-champs visuels pour en faire une seule image. Nous utilisons une mesure de synchronisation (EEG de cohérence) comme quantification de l'intégration spatiale inter-hémisphérique et la réponse BOLD (Blood Oxygenation Level Dependent) pour évaluer l'activité cérébrale qui en résulte. L'augmentation de la cohérence de l'EEG dans la bande beta-gamma mesurée au niveau des électrodes occipitales et sa corrélation linéaire avec la réponse BOLD dans les aires de VP/V4, reflète et visualise un ensemble neuronal synchronisé qui est vraisemblablement impliqué dans le regroupement spatial visuel. Ces résultats nous ont permis d'étendre la recherche à l'étude de l'impact que le contenu en fréquence des stimuli a sur la synchronisation. Avec la même approche, nous avons donc identifié les réseaux qui montrent une sensibilité différente à l'intégration des caractéristiques globales ou détaillées des images. En particulier, les données montrent que l'implication des réseaux visuels ventral et dorsal est modulée par le contenu en fréquence des stimuli. Dans la deuxième partie nous avons a testé l'hypothèse que l'augmentation de l'activité cérébrale pendant le processus de regroupement inter-hémisphérique dépend de l'activité des axones calleux qui relient les aires visuelles. Comme le Corps Calleux présente une maturation progressive pendant les deux premières décennies, nous avons analysé le développement de la fonction d'intégration spatiale chez des enfants âgés de 7 à 13 ans et le rôle de la myelinisation des fibres calleuses dans la maturation de l'activité visuelle. Nous avons combiné l'IRMf et la technique de MTI (Magnetization Transfer Imaging) afin de suivre les signes de maturation cérébrale respectivement sous l'aspect fonctionnel et morphologique (myelinisation). Chez lés enfants, les activations associées au processus d'intégration entre les hémi-champs visuels sont, comme chez l'adulte, localisées dans le réseau ventral mais se limitent à une zone plus restreinte. La forte corrélation que le signal BOLD montre avec la myelinisation des fibres du splenium est le signe de la dépendance entre la maturation des fonctions visuelles de haut niveau et celle des connections cortico-corticales. Abstract: Recent advances in non-invasive brain imaging allow the visualization of the different aspects of complex brain dynamics. The approaches based on a combination of imaging techniques facilitate the investigation and the link of multiple aspects of information processing. They are getting a leading tool for understanding the neural basis of various brain functions. Perception, motion, and cognition involve the formation of cooperative neuronal assemblies distributed over the cerebral cortex. In this research, we explore the characteristics of interhemispheric assemblies in the visual brain by taking advantage of the complementary characteristics provided by EEG (electroencephalography) and fMRI (Functional Magnetic Resonance Imaging) techniques. These are the high temporal resolution for EEG and high spatial resolution for fMRI. In the first part of this thesis we investigate the response of the visual areas to the interhemispheric perceptual grouping task. We use EEG coherence as a measure of synchronization and BOLD (Blood Oxygenar tion Level Dependent) response as a measure of the related brain activation. The increase of the interhemispheric EEG coherence restricted to the occipital electrodes and to the EEG beta band and its linear relation to the BOLD responses in VP/V4 area points to a trans-hemispheric synchronous neuronal assembly involved in early perceptual grouping. This result encouraged us to explore the formation of synchronous trans-hemispheric networks induced by the stimuli of various spatial frequencies with this multimodal approach. We have found the involvement of ventral and medio-dorsal visual networks modulated by the spatial frequency content of the stimulus. Thus, based on the combination of EEG coherence and fMRI BOLD data, we have identified visual networks with different sensitivity to integrating low vs. high spatial frequencies. In the second part of this work we test the hypothesis that the increase of brain activity during perceptual grouping depends on the activity of callosal axons interconnecting the visual areas that are involved. To this end, in children of 7-13 years, we investigated functional (functional activation with fMRI) and morphological (myelination of the corpus callosum with Magnetization Transfer Imaging (MTI)) aspects of spatial integration. In children, the activation associated with the spatial integration across visual fields was localized in visual ventral stream and limited to a part of the area activated in adults. The strong correlation between individual BOLD responses in .this area and the myelination of the splenial system of fibers points to myelination as a significant factor in the development of the spatial integration ability.
Resumo:
Summary The present thesis work focused on the ecology of benthic invertebrates in the proglacial floodplain of the Rhone in the Swiss Alps. The main glacial Rhone River and a smaller glacial tributary, the Mutt River, joined and entered a braiding multi-thread area. A first part concentrated on the disruption of the longitudinal patterns of environmental conditions and benthic invertebrate fauna in the Rhone by its tributary the Mutt. The Mutt had less harsh environmental conditions, higher taxonomic richness and more abundant zoobenthos compared to the Rhone upstream of the confluence. Although the habitat conditions in the main stream were little modified by the tributary, the fauna was richer and more diverse below the confluence. Colonisation from the Mutt induced the occurrence of faunal elements uncommon of glacial streams in the upper Rhone, where water temperature remains below 4°C. Although the glacial Rhone dominated the system with regard to hydrology and certain environmental conditions, the Mutt tributary has to be seen as the faunal driver of the system. The second part of the study concerned the spatio-temporal differentiation of the habitats and the benthic communities along and across the flood plain. No longitudinal differentiation was found. The spatial transversal differentiation of three habitat types with different environmental characteristics was successfully reflected in the spatial variability of benthic assemblages. This typology separated marginal sites of the flood plain, left bank sites under the influence of the Mutt, and the right bank sites under the influence of the Rh6ne. Faunistic spatial differences were emphasized by the quantitative structure of the fauna, richness, abundances and Simpson index of diversity. Seasonal environmental variability was positively related with Simpson index of diversity and the total richness per site. Low flow conditions were the most favourable season for the fauna and November was characterized by low spatial environmental heterogeneity, high spatial heterogeneity of faunal assemblage, maximum taxonomic richness, a particular taxonomic composition, highest abundances, as well as the highest primary food resources. The third part studied the egg development of three species of Ephemeroptera in the laboratory at 1.5 to 7°C and the ecological implications in the field. Species revealed very contrasting development strategies. Baetis alpinus has a synchronous and efficient egg development, which is faster in warmer habitats, enabling it to exploit short periods of favourable conditions in the floodplain. Ecdyonurus picteti has a very long development time slightly decreasing in warmer conditions. The high degree of individual variation suggests a genetic determination of the degree-days demand. Combined with the glacial local conditions, this strategy leads to an extreme delay of hatching and allows it to develop in very unpredictable habitats. Rhithrogena nivata is the second cold adapted species in Ephemeroptera. The incubation duration is long and success largely depends on the timing of hatching and the discharge conditions. This species is able to exploit extremely unstable and cold habitats where other species are limited by low water temperatures. The fourth part dealt with larval development in different habitats of the floodplain. Addition of data on egg development allowed the description of the life histories of the species from oviposition until emergence. Rhithrogena nivata and loyolaea generally have a two-year development, with the first winter passed as eggs and the second one as larvae. Development of Ecdyonurus picteti is difficult to document but appears to be efficient in a harsh and unpredictable environment. Baetis alpinus was studied separately in four habitats of the floodplain system with contrasting thermal regimes. Differences in success and duration of larval development and in growth rates are emphasised. Subvention mechanisms between habitats by migration of young or grown larvae were demonstrated. Development success and persistence of the populations in the system were thus increased. Emergence was synchronised to the detriment of the optimisation of the adult's size and fecundity. These very different development strategies induce a spatial and temporal distribution in the use of food resources and ecological niches. The last part of this work aimed at the synthesis of the characteristics and the ecological features of three distinct compartments of the system that are the upper Rhone, the Mutt and the floodplain. Their particular role as well as their inter-dependence concerning the structure and the dynamics of the benthic communities was emphasised. Résumé Ce travail de thèse est consacré à l'écologie des invertébrés benthiques dans la zone alluviale proglaciaire du Rhône dans les Alpes suisses. Le Rhône, torrent glaciaire principal, reçoit les eaux de la Mutt, affluent glaciaire secondaire, puis pénètre dans une zone de tressage formée de plusieurs bras. La première partie de l'étude se concentre sur la disruption par la Mutt des processus longitudinaux, tant environnementaux que faunistiques, existants dans le Rhône. Les conditions environnementales régnant dans la Mutt sont moins rudes, la richesse taxonomique plus élevée et le zoobenthos plus abondant que dans le Rhône en amont de la confluence. Bien que les conditions environnementales dans le torrent principal soient peu modifiées par l'affluent, la faune s'avère être plus riche et plus diversifiée en aval de la confluence. La colonisation depuis la Mutt permet l'occurrence de taxons inhabituels dans le Rhône en amont de la confluence, où la température de l'eau se maintient en dessous de 4°C. Bien que le Rhône, torrent glaciaire principal, domine le système du point de vu de l'hydrologie et de certains paramètres environnementaux, l'affluent Mutt doit être considéré comme l'élément structurant la faune dans le système. La deuxième partie concerne la différentiation spatiale et temporelle des habitats et des communautés benthiques à travers la plaine alluviale. Aucune différentiation longitudinale n'a été mise en évidence. La différentiation transversale de trois types d'habitats sur la base des caractéristiques environnementales a été confirmée par la variabilité spatiale de la faune. Cette typologie sépare les sites marginaux de la plaine alluviale, ceux sous l'influence de la Mutt (en rive gauche) et ceux sous l'influence du Rhône amont (en rive droite). Les différences spatiales de la faune sont mises en évidence par la structure quantitative de la faune, la richesse, les abondances et l'indice de diversité de Simpson. La variabilité saisonnière du milieu est positivement liée avec l'indice de diversité de Simpson et la richesse totale par site. L'étiage correspond à la période la plus favorable pour la faune et novembre réunit des conditions de faible hétérogénéité spatiale du milieu, de forte hétérogénéité spatiale de la faune, une richesse taxonomique maximale, une composition faunistique particulière, les abondances ainsi que les ressources primaires les plus élevées. La troisième partie est consacrée à l'étude du développement des oeufs de trois espèces d'Ephémères au laboratoire à des températures de 1.5 à 7°C, ainsi qu'aux implications écologiques sur le terrain. Ces espèces présentent des stratégies de développement très contrastées. Baetis alpinus a un développement synchrone et efficace, plus rapide en milieu plus chaud et lui permettant d'exploiter les courtes périodes de conditions favorables. Ecdyonurus picteti présente une durée de développement très longue, diminuant légèrement dans des conditions plus chaudes. L'importante variation interindividuelle suggère un déterminisme génétique de la durée de développement. Cette stratégie, associée aux conditions locales, conduit à un décalage extrême des éclosions et permet à l'espèce de se développer dans des habitats imprévisibles. Rhithrogena nivata est la seconde espèce d'Ephémères présentant une adaptation au froid. L'incubation des oeufs est longue et son succès dépend de la période des éclosions et des conditions hydrologiques. Cette espèce est capable d'exploiter des habitats extrêmement instables et froids, où la température est facteur limitant pour d'autres espèces. La quatrième partie traite du développement larvaire dans différents habitats de la plaine alluviale. Le développement complet est décrit pour les espèces étudiées de la ponte jusqu'à l'émergence. Rhithrogena nivata et loyolaea atteignent généralement le stade adulte en deux ans, le premier hiver étant passé sous forme d'oeuf et le second sous forme de larve. Le développement de Ecdyonurus picteti est difficile à documenter, mais s'avère cependant efficace dans un environnement rude et imprévisible. Baetis alpinus a été étudié séparément dans quatre habitats de la plaine ayant des régimes thermiques contrastés. La réussite et la durée du développement embryonnaire ainsi que les taux de croissance y sont variables. Des mécanismes de subvention entre habitats sont possibles par la migration de larves juvéniles ou plus développées, augmentant ainsi la réussite du développement et le maintien des populations dans le système. L'émergence devient synchrone, au détriment de l'optimisation de la taille et de la fécondité des adultes. Ces stratégies très différentes induisent une distribution spatiale et temporelle dans l'usage des ressources et des niches écologiques. La dernière partie synthétise les caractéristiques écologiques des trois compartiments du système que sont le Rhône amont, la Mutt et la zone alluviale. Leurs rôles particuliers et leurs interdépendances du point de vue de la structure et de la dynamique des communautés benthiques sont mis en avant.
Resumo:
Wie steht es um die Beteiligung der Stimmbürgerinnen und Stimmbürger an lokalen Wahlen? Es mag angesichts der Bedeutung der Gemeinden im politischen Leben in der Schweiz erstaunen, dass zur Wahlbeteiligung auf kommunaler Ebene keine offiziellen, landesweiten Statistiken vorliegen. Damit waren Fragen nach dem Ausmass der lokalen Beteiligung im Verhältnis zur Beteiligung an nationalen Wahlen oder nach der Entwicklung der Beteiligung über die Zeit hinweg bis anhin kaum zu beantworten. Ebenso fehlte es an Kenntnissen über unterschiedliche regionale Beteiligungskulturen und über den Einfluss von institutionellen Faktoren, wie beispielsweise der Existenz eines Gemeindeparlaments auf die Höhe der Wahlbeteiligung. Auf der Basis von fünf gesamtschweizerischen Gemeindeschreiberbefragungen, die in regelmässigen Abständen seit Ende der 1980er Jahren durchgeführt wurden, wird in dieser Publikation erstmals eine umfassende Gesamtsicht zu den lokalen Wahlen in der Schweiz präsentiert. Behandelt werden neben charakteristischen Besonderheiten lokaler Wahlen (Wahlort, Wahlsystem), Fragen zur Umstrittenheit und den Ergebnissen dieser Wahlen. Im Mittelpunkt steht die Wahlbeteiligung: Es wird gezeigt, wie sich diese über die Zeit hinweg verändert hat, wie sie sich im Verhältnis zur Beteiligung an kantonalen und nationalen Wahlen verhält und welche Faktoren zu einer hohen Wahlbeteiligung führen. Qu'en est-il de la participation électorale aux élections locales? De manière surprenante, sur le plan national, il n'existe aucune statistique officielle concernant la participation aux élections communales et ce, malgré l'importance des communes dans la vie politique suisse. Ainsi, jusqu'à présent plusieurs questions restaient sans réponse : l'importance de la participation aux élections locales en comparaison avec celle de la participation aux élections fédérales, l'évolution dans le temps de la participation aux élections locales, les différentes cultures régionales de participation électorale et l'influence de facteurs institutionnels (comme l'existence d'un Parlement communal) sur la participation électorale. Sur la base de cinq enquêtes menées à intervalles réguliers depuis la fin des années 1980 auprès de secrétaires municipaux de l'ensemble de la Suisse, cette publication présente pour la première fois une vue d'ensemble détaillée des élections locales en Suisse. Cette publication traite, en plus des caractéristiques des élections locales (système électoral, lieu de vote), de questions relatives au caractère disputé de ces élections et de leurs résultats. Le point central de cette publication est la participation électorale : les questions concernant son évolution dans le temps, son comportement par rapport à la participation aux élections cantonales et fédérales ainsi que les facteurs générant une augmentation de la participation sont également abordées.
Resumo:
RESUME EN FRANÇAIS BUTS. Étudier les relations entre le diabète gestationnel (GDM) et le syndrome métabolique (MS), comme la résistance à l'insuline est une des caractéristiques des 'deux conditions. Analyser le dépistage du diabète dans le post-partum pour identifier les facteurs de risque associés au développement d'un diabète de type 2 ultérieur. MÉTHODES. Étude rétrospective de toutes les grossesses uniques diagnostiquées avec un diabète gestationnel à l'hôpital universitaire de Lausanne, pendant une durée de trois ans. La présence d'une obésité, d'une hypertension ou d'une dyslipidémie avant la grossesse définissent les composants du syndrome métabolique. RÉSULTATS. Sur 5788 grossesses, 159 patientes (2.7%) présentaient un diabète gestationnel. Des composants du syndrome métabolique étaient présents avant la grossesse chez 26% des patientes (n=37/144) : 84% (n=31/37) étaient obèses, 38% (n=14/37) présentaient une hypertension et 22% (n=8/37) une dyslipidémie. Le développement d'une hypertension gravidique était associé à l'obésité (OR=3.2, p=0.02) et à la dyslipidémie (OR=5.4, p=0.002). Septante-quatre patientes (47%) sont revenues pour l'HGPO dans le post-partum. Celle-ci était anormale chez 20 femmes (27%): 11 % (n=8) présentaient un diabète de type 2 et 16% (n=12) avaient une intolérance au glucose. Les facteurs de risque indépendants associés à une anomalie de la tolérance au glucose dans le post-partum étaient d'avoir plus de 2 valeurs anormales au test diagnostique durant la grossesse et présenter des composants du syndrome métabolique (OR=5.2, CI 1.8-23.2 et OR=5.3, CI 1.3-22.2). CONCLUSIONS. Dans un quart des grossesses avec un diabète gestationnel, des anomalies métaboliques précèdent l'apparition de l'intolérance au glucose. Ces patientes présentent un haut risque de développer un syndrome métabolique et un diabète de type 2 ultérieurement. Là où le dépistage du diabète gestationnel n'est pas systématique, les praticiens devraient être avertis de ces risques métaboliques chez les patiente se présentant avec une obésité, une hypertension ou une dyslipidémie, afin de mieux les diagnostiquer et surtout de mieux les suivre et traiter après leur grossesse.
Resumo:
Arenaviruses are enveloped negative single strand RNA viruses that include a number of important human pathogens. The most prevalent human pathogen among the arenaviruses is the Old World arenavirus Lassa virus (LASV) which is endemic in West Africa from Senegal to Cameroon. LASV is the etiologic agent of a severe viral hemorrhagic fever named Lassa fever whose mortality rate can reach 30% in hospitalized patients. One of the hallmarks of fatal arenavirus infection in humans is the absence of an effective innate and adaptive immune response. In nature, arenaviruses are carried by rodents which represent the natural reservoirs as well as the vectors for transmission. In their natural rodent reservoir, arenaviruses have the ability to establish persistent infection without any overt signs and symptoms of pathology. We believe that the modulation of the host cell's innate immunity by arenaviruses is a key determinant for persistence in the natural host and for the pathogenesis in man. In this thesis, we studied the interaction of arenaviruses with two main branches of the host's innate anti-viral defense, the type I interferon (IFN) system and virus-induced mitochondrial apoptosis. The arenavirus nucleoprotein (NP) is responsible for the anti-IFN activity of arenaviruses. Specifically, NP blocks the activation and the nuclear translocation of the transcription factor interferon regulatory factor 3 (IRF3) which leads to type I IFN production. LASV and the prototypic arenavirus lymphocytic choriomeningitis virus (LCMV) NPs contain a 3'-5'exoribonuclease domain in the C terminal part that has been linked to the anti-IFN activity of NP. In the first project, we sought to identify cellular component(s) of the type I IFN induction pathway targeted by the viral NP. Our study revealed that LCMV NP prevents the activation of IRF3 by blocking phosphorylation of the transcription factor. We found that LCMV NP specifically targets the IRF-activating kinase IKKs, and this specific binding is conserved within the Arenaviridae. We could also demonstrate that LCMV NP associates with the kinase domain of IKKs involving NP's C-terminal region. Lastly, we showed that the binding of LCMV NP inhibits the kinase activity of IKKs. This study allowed the discovery of a new cellular interacting partner of arenavirus NP. This newly described association may play a role in the anti-IFN activity of arenaviruses but potentially also in other aspects of arenavirus infection. For the second project, we investigated the ability of arenaviruses to avoid and/or suppress mitochondrial apoptosis. As persistent viruses, arenaviruses evolved a "hit and stay" survival strategy where the apoptosis of the host cell would be deleterious. We found that LCMV does not induce mitochondrial apoptosis at any time during infection. Specifically, no caspase activity, no cytochrome c release from the mitochondria as well as no cleavage of poly (ADP-ribose) polymerase (PARP) were detected during LCMV infection. Interestingly, we found that virus-induced mitochondrial apoptosis remains fully functional in LCMV infected cells, while the induction of type IIFN is blocked. Since both type IIFN production and virus- induced mitochondrial apoptosis critically depend on the pattern recognition receptor (PRR) RIG-I, we examined the role of RIG-I in apoptosis in LCMV infected cells. Notably, virus- induced mitochondrial apoptosis in LCMV infected cells was found to be independent of RIG- I and MDA5, but still depended on MAVS. Our study uncovered a novel mechanism by which arenaviruses alter the host cell's pro-apoptotic signaling pathway. This might represent a strategy arenaviruses developed to maintain this branch of the innate anti-viral defense in absence of type I IFN response. Taken together, these results allow a better understanding of the interaction of arenaviruses with the host cell's innate immunity, contributing to our knowledge about pathogenic properties of these important viruses. A better comprehension of arenavirus virulence may open new avenues for vaccine development and may suggest new antiviral targets for therapeutic intervention against arenavirus infections. - Les arenavirus sont des virus enveloppés à ARN simple brin qui comportent un grand nombre de pathogènes humains. Le pathogène humain le plus important parmi les arenavirus est le virus de Lassa qui est endémique en Afrique de l'Ouest, du Sénégal au Cameroun. Le virus de Lassa est l'agent étiologique d'une fièvre hémorragique sévère appelée fièvre de Lassa, et dont le taux de mortalité peut atteindre 30% chez les patients hospitalisés. L'une des caractéristiques principales des infections fatales à arenavirus chez l'Homme est l'absence de réponse immunitaire innée et adaptative. Dans la nature, les arenavirus sont hébergés par différentes espèces de rongeur, qui représentent à la fois les réservoirs naturels et les vecteurs de transmission des arenavirus. Dans leur hôte naturel, les arenavirus ont la capacité d'établir une infection persistante sans symptôme manifeste d'une quelconque pathologie. Nous pensons que la modulation de système immunitaire inné de la cellule hôte par les arenavirus est un paramètre clé pour la persistance au sein de l'hôte naturel, ainsi que pour la pathogenèse chez l'Homme. L'objectif de cette thèse était d'étudier l'interaction des arenavirus avec deux branches essentielles de la défense antivirale innée de la cellule hôte, le système interféron (IFN) de type I et l'apoptose. La nucléoprotéine virale (NP) est responsable de l'activité anti-IFN des arenavirus. Plus spécifiquement, la NP bloque 1'activation et la translocation nucléaire du facteur de transcription IRF3 qui conduit à la production des IFNs de type I. La NP du virus de Lassa et celle du virus de la chorioméningite lymphocytaire (LCMV), l'arénavirus prototypique, possèdent dans leur extrémité C-terminale un domaine 3'-5' exoribonucléase qui a été associé à l'activité anti-IFN de ces protéines. Dans un premier projet, nous avons cherché à identifier des composants cellulaires de la cascade de signalisation induisant la production d'IFNs de type I qui pourraient être ciblés par la NP virale. Nos recherches ont révélé que la NP de LCMV empêche 1'activation d'IRF3 en bloquant la phosphorylation du facteur de transcription. Nous avons découvert que la NP de LCMV cible spécifiquement la kinase IKKe, et que cette interaction spécifique est conservée à travers la famille des Arenaviridae. Notre étude a aussi permis de démontrer que la NP de LCMV interagit avec le domaine kinase d'IKKe et que l'extrémité C-terminale de la NP est impliquée. Pour finir, nous avons pu établir que l'association avec la NP de LCMV inhibe l'activité kinase d'IKKe. Cette première étude présente la découverte d'un nouveau facteur cellulaire d'interaction avec la NP des arenavirus. Cette association pourrait jouer un rôle dans l'activité anti-IFN des arénavirus, mais aussi potentiellement dans d'autres aspects des infections à arénavirus. Pour le second projet, nous nous sommes intéressés à la capacité des arénavirus à éviter et/ou supprimer l'apoptose mitochondriale. En tant que virus persistants, les arénavirus ont évolué vers une stratégie de survie "hit and stay" pour laquelle l'apoptose de la cellule hôte serait néfaste. Nous avons observé qu'à aucun moment durant l'infection LCMV n'induit l'apoptose mitochondriale. Spécifiquement, aucune activité de caspase, aucune libération mitochondriale de cytochrome c ainsi qu'aucun clivage de la polymerase poly(ADP-ribose) (PARP) n'a été détecté pendant l'infection à LCMV. Il est intéressant de noter que l'apoptose mitochondriale induite par les virus reste parfaitement fonctionnelle dans les cellules infectées par LCMV, alors que l'induction de la réponse IFN de type I est bloquée dans les mêmes cellules. La production des IFNs de type I et l'apoptose mitochondriale induite par les virus dépendent toutes deux du récepteur de reconnaissance de motifs moléculaires RIG-I. Nous avons, par conséquent, investigué le rôle de RIG-I dans l'apoptose qui a lieu dans les cellules infectées par LCMV lorsqu'on les surinfecte avec un autre virus pro-apoptotique. En particulier, l'apoptose mitochondriale induite par les surinfections s'est révélée indépendante de RIG-I et MDA5, mais dépendante de MAVS dans les cellules précédemment infectées par LCMV. Notre étude démontre ainsi l'existence d'un nouveau mécanisme par lequel les arénavirus altèrent la cascade de signalisation pro-apoptotique de la cellule hôte. Il est possible que les arénavirus aient développé une stratégie permettant de maintenir fonctionnelle cette branche de la défense antivirale innée en l'absence de réponse IFN de type I. En conclusion, ces résultats nous amènent à mieux comprendre l'interaction des arénavirus avec l'immunité innée de la cellule hôte, ce qui contribue aussi à améliorer notre connaissance des propriétés pathogéniques de ces virus. Une meilleure compréhension des facteurs de virulence des arénavirus permet, d'une part, le développement de vaccins et peut, d'autre part, servir de base pour la découverte de nouvelles cibles thérapeutiques utilisées dans le traitement des infections à arénavirus.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Rapport de synthèse : Introduction : Les premières applications cliniques de la thérapie photodynamique (PDT) remontent à plus d'une vingtaine d'années. Basée sur l'activation d'un médicament photosensibilisateur par une source lumineuse à une longueur d'onde spécifique, la PDT permet la destruction sélective de tissus contenant le produit actif. Ce procédé a été expérimenté dans le traitement de cancers en raison de la propriété du médicament à se concentrer dans les tumeurs tout en épargnant les structures normales contigües. Cependant, les photosensibilisateurs utilisés jusqu'à ce jour n'ont pas démontré une accumulation exclusive dans les tissus néoplasiques mais également dans les structures saines avoisinantes induisant une destruction tissulaire non sélective. Notamment, d'importantes complications ont été rapportées suite à l'utilisation de la PDT dans la cavité thoracique après la résection de mésothéliomes pleuraux, et ce malgré l'arrivée de photosensibilisateurs de secondes générations. De ce fait, plusieurs études expérimentales ont été menées afin d'améliorer la sélectivité tumorale du médicament en modulant différentes conditions de traitement et en modifiant la structure du photosensibilisateur par pégylation. Le but de cette étude expérimentale est de corréler l'activité photodynamique, la phototoxicité et la distribution du m-tetrahydroxyphenylchlorin (mTHPC) et de sa forme pégylée, le PEG-mTHPC. De ce fait, un modèle de souris nues porteur de xenogreffes de mésothéliome humain a été utilisé pour étudier les deux photosensibilisateurs. De récents travaux avec ce modèle ont montré que la mesure de la concentration tissulaire du mTHPC et de sa forme pégylée par HPLC restait limitée afin de prédire l'activité photodynamique. De ce fait, nous pensons que les mesures de fluorescence peuvent être plus appropriée. Le signalement fluorescent est mesuré dans le tissu tumoral et dans une région contrôle de la peau afin d'étudier la distribution et l'intensité des deux sensibilisateurs. Méthode : Des souris nues (cd1nu/nu mice) de 8 semaines ont été transplantées avec des fragments de mésothéliome malin humain (H-meso-1). Ces derniers ont été obtenus à partir d'une suspension cellulaire. Au moins trois passages ont été faits dans les animaux, avant que le traitement soit initié. Deux groupes de 6 souris chacun ont été utilisés pour l'injection intraveineuse par la queue du mTHPC à 0.15 mg/kg et du PEG-mTHPC à dose équimolaire. Après trois jour, la tumeur ainsi qu'une région contrôle de la cuisse ont été illuminées sur une surface d'un diamètre de 1.2 cm et pendant 133 secondes avec un laser à une longueur d'onde à 652 nm (fluence 20 J/cm2, fluence rate 150 mW/cm2). Les animaux ont été ensuite sacrifiés 72 heures après l'illumination. L'étendue de la nécrose tumorale et de la région contrôle ont été déterminées en aveugle par histomorphometrie par un pathologue (HJA). La fluorescence microscopique a été évaluée dans 12 souris à une concentration de 0.15 et 0.5 mg/kg pour le mTHPC, et à doses équimolaires pour le PEG-mTHPC. Trois animaux ont été injectés avec le mTHPC à 0.15 mg/kg, 3 autres à dose équimolaire avec la forme pégylée et 6 souris avec le mTHPC à 0.5 mg/kg et à dose équimolaire. Les animaux ont été sacrifiés 72 heures après injection. L'intensité fluorescente des sensibilisateurs a été mesurée dans la tumeur et la région contrôle. Suite à cela, les coupes ont été fixées par H&E et superposées aux images fluorescentes, afin de localiser la distribution des deux photosensibilisateurs dans les différents compartiments tissulaires. Six souris transplantées n'ayant ni été injectées avec les sensibilisateurs ou illuminées ont servi de groupe contrôle. Résultats : Trois jours après l'illumination, la PDT provoque une nécrose tumorale de 10 ±5.4 mm2 pour le mTHPC à 0.15mg/kg et 5.2 ± 4.6 mm2 pour sa forme pégylée à dose équimolaire. Cependant, la nécrose tumorale induite par les deux formulations du sensibilisateur est significativement plus élevée que dans le groupe contrôle (0.33 ± 0.58 mm2) (P=0.02). Toutefois, le mTHPC pégylé provoque une photosensibilité cutanée moins importante que la forme non-pegylée. Dans les deux groupes, aucune nécrose n'a été observée dans la cuisse des animaux. Trois jours après l'injection du mTHPC et de la forme pégylée à 0.15 mg/kg, aucune activité fluorescente n'a été détectée. Cependant, à 0.5 mg/kg, la fluorescence microscopique révèle une distribution hétérogène des deux photo-sensibilisateurs dans le tissu tumoral avec une accumulation prédominante dans les régions peri-vasculaires. Les deux médicaments montrent une distribution intracellulaire homogène dans le cytoplasme et une absence de signalement dans le nucleus. La mesure de l'intensité fluorescente du mTHPC à 0.5mg/kg ne montre pas de différence significative entre le tissu tumoral et la région contrôle. Par contre, le PEG-mTHPC montre une intensité fluorescente supérieure dans le tissu tumoral que dans la peau (ratio tumeur- peau 0.94 pour le mTHPC et 1.73 pour le PEG-mTHPC). Conclusion : L'utilisation du mTHPC à 0.15mg/kg induit une nécrose tumorale similaire à celle du PEG-mTHPC à dose équimolaire. Cependant, ce dernier démontre une photo-toxicité plus atténuée de la peau. La fluorescence microscopique permet de localiser les deux sensibilisateurs dans les différents compartiments tissulaires à partir d'une dose de 0.5 mg/kg. Le PEG-mTHPC induit un signalement fluorescent supérieur dans le tissu tumoral par rapport à la peau. La mesure du signalement fluorescent a le potentiel de prédire l'activité photodynamique du mTHPC et de sa forme pégylée dans les xénogreffes de mésothéliome humain dans un modèle de souris nue.
Resumo:
Objectifs: Déterminer la fréquence et les facteurs prédictifs de l'effet T2 shine-through dans l'hémangiome hépatique. Matériels et méthodes: Entre janvier 2010 et novembre 2011, l'imagerie par résonance magnétique du foie de 149 patients avec 388 hémangiomes hépatiques a été revue rétrospectivement. Les caractéristiques lésionnelles: la taille, la localisation, le signal et l'aspect en T1, T2 et en diffusion, l'effet T2 shine-through, le coefficient apparent de diffusion des hémangiomes hépatiques et du foie et type de rehaussement ont été évalués. Résultats: L'effet T2 shine-through était observé dans 204/388 (52.6%) des hémangiomes hépatiques et 100 (67.1%) patients. L'ADC moyen des hémangiomas avec T2 shine-through effect était significativement plus bas que les hémangiomas sans T2 shine-through effect (2.0 +/- 0.48 vs 2.38 +/- 0.45 10"3 mm2/s, P < .0001). L'analyse multivariée retrouvait comme facteurs indépendants de la présence d'un effet T2 shine-through un hypersignal sur les images fat- suppressed T2-weighted fast spin-echo, les hémangiomes avec un rehaussement classique et retardé, et l'ADC du foie. Conclusion: Le T2 shine-through effect est fréquemment observé dans les hémangiomes hépatiques et dépend des caractéristiques lésionnelles. Sa présence ne remet pas en question le diagnostic lorsque les signes IRM typiques sont présents.
Resumo:
Constitutive activation of the nuclear factor-KB (NF-KB) transcriptional pathway is the main characteristic of the activated B-cell-like (ABC) subtype of diffuse large B- cell lymphoma (DLBCL). This has been attributed to oncogenic mutations in the CARMA1, CD79A/B, MyD88 or RNF31 signaling proteins, which control NF-kB activation at different levels. Since several of these mutations lead to a state that mimics chronically antigen receptor-stimulated B-cells, and since the antigen receptor also triggers other transcription pathways, these might be important in ABC DLBCL malignancy too. In this study we analyzed whether abnormal expression and activity of members of the AP-1 transcription factor family could contribute to the pathogenesis of ABC DLBCL. Here, we identified activation of Jun as well as ATF members of the dimeric AP-1 transcription factor family, as a hallmark of ABC but not of germinal center B- cell-like (GCB) DLBCL cell lines. ABC DLBCL cell lines harbored an upregulated expression of c-Jun, JunB, JunD and ATF3 proteins. We could show that the upregulation of c-Jun, JunB and ATF3 was dependent on constitutive BCR and MyD88 signaling. Since AP-1 transcription factors need to dimerize to be active, Jun binding partners were investigated and we could demonstrate the presence of several ATF/Jun heterodimers (including c-Jun/ATF2, c-Jun/ATF3, c-Jun/ATF7, JunB/ATF2, JunB/ATF3, JunB/ATF7, JunD/ATF2, JunD/ATF3 and JunD/ATF7 heterodimers). The disruption of ATF/Jun heterodimers by A-Fos, a dominant negative form of Jun members, was toxic to ABC but not to GCB DLBCL cell lines. Finally, ATF3 immunohistochemistry on DLBCL patient samples revealed that samples classified as non-GCB had more intense and preferentially nuclear staining of ATF3, which could be of diagnostic relevance since the histological classification of the ABC and GCB DLBCL subtypes is difficult in clinical practice. In conclusion, we could show that ABC DLBCL are not only addicted to NF-KB signaling, but also to signaling by some members of the AP-1 transcription factor family. Thus, the AP-1 pathway might be a promising therapeutic target for the treatment of ABC DLBCL. Additionally, monitoring ATF3 levels could improve the diagnosis of ABC DLBCL by IHC. -- L'activation constitutive du facteur de transcription NF-KB est l'une des caractéristiques principales des lymphomes B du type ABC-DLBCL. Cette addiction est dépendante de mutations oncogéniques de CARMA1, CD79A/B, MyD88 et RNF31 qui contrôlent NF-KB à différents niveaux. Etant donné que la plupart de ces mutations mène à un état d'activation chronique du récepteur des cellules B (BCR) et que le BCR active d'autres voies de signalisation, d'autres facteurs de transcription pourraient être impliqués dans la lymphomagénèse des ABC-DLBCL. Dans cette étude, nous nous sommes demandé si les membres de la famille du facteur de transcription AP-1 contribuaient à la pathogénèse de ce type de lymphome. Dans des lignées cellulaires de lymphomes du type ABC-DLBCL en comparaison avec le type GCB-DLBCL, nous avons pu identifier une activation anormale de plusieurs membres de la famille Jun et ATF, deux sous-familles du facteur de transcription AP-1. Les lignées cellulaires dérivées de lymphomes du type ABC-DLBCL surexpriment les facteurs de transcription c-Jun, JunB, JunD et ATF3. Leur surexpression dépend de l'activation constitutive de la voie du BCR et de MyD88. Etant donné qu'AP-1 requiert la formation de dimères pour être actif, nous nous sommes intéressés aux partenaires d'interactions de c-Jun, JunB et JunD et avons pu montrer la formation de plusieurs hétérodimères Jun/ATF (incluant les hétérodimères c-Jun/ATF2, c-Jun/ATF3, c-Jun/ATF7, JunB/ATF2, JunB/ATF3, JunB/ATF7, JunD/ATF2, JunD/ATF3 et JunD/ATF7). Lorsque l'on empêche la formation de ces hétérodimères avec A-Fos, un dominant négatif des membres Jun, la survie des lignées cellulaires du type ABC-DLBCL est diminuée, tandis que les lignées cellulaires GCB-DLBCL ne sont pas affectées. Pour finir, des immunohistochimies (IHC) pour ATF3 sur des échantillons de patients classifiés comme GCB et non-GCB ont pu montrer une coloration d'ATF3 nucléaire et beaucoup plus intense que les échantillons du type GCB. Ainsi, ATF3 pourrait être potentiellement utile en clinique pour différencier le sous type non-GCB des GCB. En conclusion, nous avons pu montrer que les lymphomes du type ABC- DLBCL ne présentent pas uniquement une addiction à NF-KB, mais également de certains membres de la famille de facteur de transcription AP-1. Par conséquent, AP- 1 pourrait être une cible thérapeutique prometteuse pour le développement de futures stratégies. En outre, la détermination des niveaux d'ATF3 par IHC pourraient améliorer le diagnostic des patients du type ABC DLBCL.