998 resultados para Main dominante et non-dominante
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Depuis la fin des années 1990, on assiste dans les Alpes, comme partout en Europe, à un nouvel intérêt pour les géopatrimoines. A toutes les échelles - locale, nationale, internationale - ont émergé des projets d'inventaire, de protection et de valorisation (didactique, touristique) des géosites autour du concept de géodiversité. Cet article montre que ces tendances ne sont pas nouvelles mais constituent plutôt une étape dans des trajectoires patrimoniales diverses, initiées dès le XIXe siècle. La nouveauté est une patrimonialisation basée sur la valeur scientifique intrinsèque des sites, en tant que témoins de l'histoire de la Terre, et non plus seulement pour leur valeur esthétique ou pittoresque. Ce mouvement de patrimonialisation participe de la volonté de développer durablement les territoires alpins, notamment à travers la mise en place d'outils de développements territorial tels que les géoparcs.
Resumo:
Constitutive activation of the nuclear factor-KB (NF-KB) transcriptional pathway is the main characteristic of the activated B-cell-like (ABC) subtype of diffuse large B- cell lymphoma (DLBCL). This has been attributed to oncogenic mutations in the CARMA1, CD79A/B, MyD88 or RNF31 signaling proteins, which control NF-kB activation at different levels. Since several of these mutations lead to a state that mimics chronically antigen receptor-stimulated B-cells, and since the antigen receptor also triggers other transcription pathways, these might be important in ABC DLBCL malignancy too. In this study we analyzed whether abnormal expression and activity of members of the AP-1 transcription factor family could contribute to the pathogenesis of ABC DLBCL. Here, we identified activation of Jun as well as ATF members of the dimeric AP-1 transcription factor family, as a hallmark of ABC but not of germinal center B- cell-like (GCB) DLBCL cell lines. ABC DLBCL cell lines harbored an upregulated expression of c-Jun, JunB, JunD and ATF3 proteins. We could show that the upregulation of c-Jun, JunB and ATF3 was dependent on constitutive BCR and MyD88 signaling. Since AP-1 transcription factors need to dimerize to be active, Jun binding partners were investigated and we could demonstrate the presence of several ATF/Jun heterodimers (including c-Jun/ATF2, c-Jun/ATF3, c-Jun/ATF7, JunB/ATF2, JunB/ATF3, JunB/ATF7, JunD/ATF2, JunD/ATF3 and JunD/ATF7 heterodimers). The disruption of ATF/Jun heterodimers by A-Fos, a dominant negative form of Jun members, was toxic to ABC but not to GCB DLBCL cell lines. Finally, ATF3 immunohistochemistry on DLBCL patient samples revealed that samples classified as non-GCB had more intense and preferentially nuclear staining of ATF3, which could be of diagnostic relevance since the histological classification of the ABC and GCB DLBCL subtypes is difficult in clinical practice. In conclusion, we could show that ABC DLBCL are not only addicted to NF-KB signaling, but also to signaling by some members of the AP-1 transcription factor family. Thus, the AP-1 pathway might be a promising therapeutic target for the treatment of ABC DLBCL. Additionally, monitoring ATF3 levels could improve the diagnosis of ABC DLBCL by IHC. -- L'activation constitutive du facteur de transcription NF-KB est l'une des caractéristiques principales des lymphomes B du type ABC-DLBCL. Cette addiction est dépendante de mutations oncogéniques de CARMA1, CD79A/B, MyD88 et RNF31 qui contrôlent NF-KB à différents niveaux. Etant donné que la plupart de ces mutations mène à un état d'activation chronique du récepteur des cellules B (BCR) et que le BCR active d'autres voies de signalisation, d'autres facteurs de transcription pourraient être impliqués dans la lymphomagénèse des ABC-DLBCL. Dans cette étude, nous nous sommes demandé si les membres de la famille du facteur de transcription AP-1 contribuaient à la pathogénèse de ce type de lymphome. Dans des lignées cellulaires de lymphomes du type ABC-DLBCL en comparaison avec le type GCB-DLBCL, nous avons pu identifier une activation anormale de plusieurs membres de la famille Jun et ATF, deux sous-familles du facteur de transcription AP-1. Les lignées cellulaires dérivées de lymphomes du type ABC-DLBCL surexpriment les facteurs de transcription c-Jun, JunB, JunD et ATF3. Leur surexpression dépend de l'activation constitutive de la voie du BCR et de MyD88. Etant donné qu'AP-1 requiert la formation de dimères pour être actif, nous nous sommes intéressés aux partenaires d'interactions de c-Jun, JunB et JunD et avons pu montrer la formation de plusieurs hétérodimères Jun/ATF (incluant les hétérodimères c-Jun/ATF2, c-Jun/ATF3, c-Jun/ATF7, JunB/ATF2, JunB/ATF3, JunB/ATF7, JunD/ATF2, JunD/ATF3 et JunD/ATF7). Lorsque l'on empêche la formation de ces hétérodimères avec A-Fos, un dominant négatif des membres Jun, la survie des lignées cellulaires du type ABC-DLBCL est diminuée, tandis que les lignées cellulaires GCB-DLBCL ne sont pas affectées. Pour finir, des immunohistochimies (IHC) pour ATF3 sur des échantillons de patients classifiés comme GCB et non-GCB ont pu montrer une coloration d'ATF3 nucléaire et beaucoup plus intense que les échantillons du type GCB. Ainsi, ATF3 pourrait être potentiellement utile en clinique pour différencier le sous type non-GCB des GCB. En conclusion, nous avons pu montrer que les lymphomes du type ABC- DLBCL ne présentent pas uniquement une addiction à NF-KB, mais également de certains membres de la famille de facteur de transcription AP-1. Par conséquent, AP- 1 pourrait être une cible thérapeutique prometteuse pour le développement de futures stratégies. En outre, la détermination des niveaux d'ATF3 par IHC pourraient améliorer le diagnostic des patients du type ABC DLBCL.
Resumo:
Cette thèse voudrait expliquer l'émergence et l'autonomisation d'un groupe professionnel récent en France, celui des céramistes d'art, « inventé » au milieu du XXe siècle, et qui s'est largement développé après 1968. Il s'agit d'analyser l'apparition d'un groupe social dans la division du travail, puis sa capacité à assurer les moyens de sa reproduction et de sa pérennisation, tant par l'étude de ses dynamiques internes que par ses rapports à l'hors-groupe. Au-delà de l'aspect monographique, cette recherche interroge la professionnalisation de cet espace du travail artistique peu légitime culturellement, et les obstacles à celle-ci (définition des frontières, contrôle des pratiques). Les normes professionnelles - émergentes, codifiées, transmises, défendues ou contestées - constituant le point d'entrée de cette recherche : liant du groupe, elles sont aussi révélatrices de ses transformations, clivages internes et modes d'institutionnalisation. Dans cette optique, la recherche restitue la diversité des dimensions du métier en tenant ensemble travail et hors- travail : sociogenèse du métier, rapport des céramistes d'art au travail artistique et à la culture légitime, engagement dans les organisations professionnelles (associatives et syndicales), récèption des politiques publiques qui concernent le secteur. Cette recherche réaffirme ainsi la centralité du travail comme espace au carrefour de plusieurs espaces sociaux et de plusieurs types d'investissements, c'est-à-dire comme un rapport social général et non comme enclave sociale que l'on pourrait appréhender par elle-même. La thèse montre aussi que l'hybridité constitutive du métier, entre art et artisanat, constitue l'une des bases de sa professionnalisation : la contestation des principes et des critères de légitimité culturelle en sont les manifestations majeures. Enfin, l'étude de la politisation chez les différentes unités-générationnelles qui composent le métier met en évidence la portée instituante de l'auto-organisation associative et les modes de constitution d'une identité collective. Elle révèle également la présence de l'Etat en filigrane, par opposition ou par coopération. Tels sont les multiples fondements de cette professionnalisation multi-située et constamment évolutive évolutive. Cette recherche repose essentiellement sur des observations - directes et participantes - dans les lieux de vie, de travail et de socialisation des céramistes d'art, et sur 62 entretiens semi-directifs. En plus de l'enquête ethnographique, la thèse s'appuie sur les résultats d'une enquête par questionnaire (218 répondants) et de la documentation professionnelle (archives syndicales, compte-rendu associatifs, supports de communication, etc.).
Resumo:
Résumé large public: Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique précoce de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant les mécanismes cellulaires de la pathogenèse restent à identifier. Le métabolisme cérébral a ceci de remarquable qu'il repose sur la coopération entre deux types cellulaires, ainsi les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Ces fonctions astrocytaires sont essentielles au bon fonctionnement et à la survie neuronale; par conséquent, une altération de ces fonctions astrocytaires pourrait participer au développement de certaines maladies cérébrales. Le but de ce travail est, dans un premier temps, d'explorer les effets de médiateurs de la neuroinflammation (les cytokines pro-inflammatoires) et du peptide beta-amyloïde sur le métabolisme des astrocytes corticaux, en se focalisant sur les éléments en lien avec le métabolisme énergétique et le stress oxydatif. Puis, dans un second temps, de caractériser les conséquences pour les neurones des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus ici montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme énergétique du glucose, en diminuant l'apport potentiel de substrats énergétiques aux neurones. En plus de son effet propre, le peptide beta-amyloïde potentialise les effets des cytokines pro-inflammatoires. Or, dans le cerveau de patients atteints de la MA, les astrocytes sont exposés simultanément à ces deux types de substances. Les deux types de substances ont un effet ambivalent en termes de stress oxydatif. Ils induisent à la fois une augmentation de la libération de glutathion (potentiellement protecteur pour les neurones voisins) et la production d'espèces réactives de l'oxygène (potentiellement toxiques). Etant donné l'importance de la coopération entre astrocytes et neurones, ces modulations du métabolisme astrocytaire pourraient donc avoir un retentissement majeur sur les cellules environnantes, et en particulier sur la fonction et la survie neuronale. Résumé Les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, tels que le lactate, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique, précoce, de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant, les mécanismes cellulaires de la pathogenèse restent à identifier. Le but de ce travail est d'explorer les effets des cytokines pro-inflammatoires (Il-1 ß et TNFα) et du beta-amyloïde (Aß) sur le métabolisme du glucose des astrocytes corticaux en culture primaire ainsi que de caractériser les conséquences, pour la viabilité des neurones voisins, des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme glycolytique astrocytaire. Après 48 heures, le traitement avec TNFα et Il-lß cause une augmentation de la capture de glucose et de son métabolisme dans la voie des pentoses phosphates et dans le cycle de Krebs. A l'inverse, il cause une diminution de la libération de lactate et des stocks cellulaires de glycogène. En combinaison avec les cytokines tel qu'in vivo dans les cerveaux de patients atteints de MA, le peptide betaamyloïde potentialise les effets décrits ci-dessus. Isolément, le Aß cause une augmentation coordonnée de la capture de glucose et de toutes les voies de son métabolisme (libération de lactate, glycogenèse, voie des pentoses phosphate et cycle de Krebs). Les traitements altèrent peu les taux de glutathion intracellulaires, par contre ils augmentent massivement la libération de glutathion dans le milieu extracellulaire. A l'inverse, les deux types de traitements augmentent la production intracellulaire d'espèces réactives de l'oxygène (ROS). De plus, les cytokines pro-inflammatoires en combinaison augmentent massivement la production des ROS dans l'espace extracellulaire. Afin de caractériser l'impact de ces altérations métaboliques sur la viabilité des neurones environnants, un modèle de co-culture et des milieux conditionnés astrocytaires ont été utilisés. Les résultats montrent qu'en l'absence d'une source exogène d'antioxydants, la présence d'astrocytes favorise la viabilité neuronale ainsi que leur défense contre le stress oxydatif. Cette propriété n'est cependant pas modulée par les différents traitements. D'autre part, la présence d'astrocytes, et non de milieu conditionné, protège les neurones contre l'excitotoxicité due au glutamate. Les astrocytes prétraités (aussi bien avec le beta-amyloïde qu'avec les cytokines pro-inflammatoires) perdent cette propriété. Cet élément suggère que la perturbation du métabolisme astrocytaire causé par les cytokines pro-inflammatoires ou le beta-amyloïde pourrait participer à l'atteinte de la viabilité neuronale associée à certaines pathologies neurodégénératives.
Resumo:
L'objectif de la présente étude est de cerner les facteurs de succès et d'échec des réouvertures et modernisations de lignes ferroviaires transfrontalières dans les zones limitrophes. L'enquête prend pour base deux lignes franco-belges (Mons-Valenciennes et Namur- Charleville-Mézières) et deux lignes franco-suisses (Delémont-Belfort et Neuchâtel- Besançon). Le problème public réside dans l'absence de moyens de transports publics exploitant le potentiel existant dans le bassin de vie concerné (sous-exploitation du marché des transports). Les obstacles à franchir dans le domaine des transports ferroviaires peuvent être de nature juridique. Ainsi, des prescriptions légales telles que certains standards d'interopérabilité, l'absence d'une définition de l'expression «train régional» au niveau européen, la sécurité (passages à niveau) ou des mesures en faveur des personnes à mobilité réduite, peuvent entraver, voire empêcher des réouvertures ou modernisations de lignes régionales, car ces standards ne sont pas adaptés à la réalité des lignes dont le potentiel est faible en termes de voyageurs et de fret. À un autre niveau, il est rare que les aspects techniques constituent des obstacles. C'est cependant le cas lorsque deux réseaux ferroviaires nourrissent des philosophies antagonistes (réseau cadencé et non cadencé). Pour la réouverture des lignes, on constate l'absence de définitions claires, au niveau politique, de la desserte de base et des seuils de fréquentation minimale. Il y a parfois un contraste marqué entre une infrastructure dégradée et un matériel roulant très moderne, signe d'absence de sensibilisation à l'entretien des infrastructures ferroviaires. Pourtant, ces infrastructures jouent un rôle important à l'échelon géopolitique. Correctement aménagées (offre, temps de parcours, correspondances), elles permettent le désenclavement de toute une région. La réouverture d'un chaînon manquant peut changer la position géopolitique d'une région, comme dans le cas de Mons-Valenciennes; mais en même temps, l'argument de l'impact géopolitique peut entraver une réouverture, même lorsqu'il n'est pas fondé, comme le montre le cas de Dinant-Givet qui semble concurrencer une autre ligne existante. L'impact des lignes à grande vitesse sur les régions limitrophes est souvent surestimé. En revanche, la praticabilité du concept des quatre capitaux (capital manufacturé, social, naturel et humain) est sous-estimée dans le domaine des transports publics. Les grilles d'analyse des quatre capitaux nous ont en effet permis de prouver l'applicabilité du concept aux lignes ferroviaires transfrontalières, en dépit du manque de me- surabilité de certains indicateurs. L'évaluation des lignes retenues à l'aide de notre grille d'analyse montre que les lignes régionales françaises accusent un lourd retard en termes de performance. Ce fait est confirmé dans les quatre capitaux. En appliquant notre méthode de planification à des lignes ferroviaires (transfrontalières), on observe que les lignes actuelles n'exploitent pas suffisamment leur potentiel. L'approche proposée se base sur le triangle «offre - infrastructure - matériel roulant» et s'articule autour des usagers. Avant toute planification, il faut développer une vision pour la région et la ligne concernée, dans laquelle la voie ferrée servira d'axe structurant. La vision se manifeste par un horaire qui traduit l'offre sou-haitée à long terme avec des temps de parcours idéaux, et des noeuds de correspondance avec d'autres moyens de transport. Alors, les lignes régionales peuvent contribuer à un changement de paradigme qui favorise un mode de vie axé davantage sur les services des transports publics que sur le transport individuel, également dans les régions limitrophes. - Het doel van deze Studie is het onderzocken von de redenen van het succès en van het falen van de heropening of modernisering van al of niet grensoverschrijdende spoorlijnen. Het on- derzoek is gebaseerd op twee Frans-Belgische lijnen (Bergen-Yalenciennes en Namen- Charleville-Mezières) en twee Frans-Zwitserse lijnen (Delémont-Belfort en Neuchâtel- Besançon). Het probleem is de afwezigheid van openbare transportmogelijkheden in de uitbating van de betrokken woongebieden (onderbenutting van de transportmarkt). De te overschrijden hindernissen op het gebied van spoorwegvervoer kunnen van juridische oorsprong zijn. Dat wil zeggen dat wettelijke vereisten zoals bepaalde standaarden voor inte- roperabiliteit, het ontbreken van een definitie van «regionale trein» op Europees niveau, de beveiliging (spoorwegovergangen) of maatregelen voor mensen met verminderde mobiliteit de heropening of modernisering van de regionale lijnen kunnen verhinderen, aangezien deze normen niet zijn aangepast aan de realiteit op aan de lijnen waarvan het potenti eel laag is, zowel voor reizigers als voor goederen. Op een ander niveau is het zeldzaam dat de technische as-pecten voor obstakels zorgen. Het is nochtans het geval wanneer twee spoorwegnetten zorgen voor tegenstrijdige ideeën (regelmatig of onregelmatig bezet net). Om de lijnen te he- ropenen, is er een gebrek aan duidelijke afspraken op politiek niveau, voor een minimale be- diening en een minimale opkomst. Soms is er een groot contrast tussen een verouderde infras- tructuur en een zeer modem rollend materieel, een teken van gebrek aan gezond verstand bij het onderhoud van de spoorweginfrastructuur. Deze infrastructuur speelt echter een belan- grijke roi in het geopolitieke niveau. Goed beheerd (aanbod, reistijd, verbindingen) zorgen ze voor een heropening van een hele regio. De heropening van een ontbrekende schakel kan de geopolitieke positie van een regio veranderen, zoals in het geval van Bergen-Valenciennes, maar terzelfder tijd kan het argument van de geopolitieke impact een heropening verhinderen, zelfs als het ongegrond is, zoals in het geval van Dinant-Givet dat blijkt te concurreren met een andere bestaande lijn. De impact van hogesnelheidslijnen op grensoverschrijdende regio's wordt vaak overschat. Daartegenover wordt de haalbaarheid van het concept van de vier kapi- taalvlakken (opbouwend, sociaal, natuurlijk en menselijk kapitaal) onderschat op het gebied van openbaar vervoer. De analyse van de vier kapitaalvlakken heeft ons toegelaten de toepas- baar-heid van het concept van de grensoverschrijdende spoorlijnen aan te tonen, ondanks het ge-brek aan meetbaarheid van bepaalde indicatoren. Evaluatie van de lijnen, geselecteerd met behulp van ons analysekader, heeft aangetoond dat Franse regionale lijnen achterblijven op het gebied van prestaties. Dit wordt bevestigd op de vier kapitaalvlakken. Door het toepassen van onze planningsmethode op spoorlijnen (in grenszones), zien we dat de huidige lijnen hun potentieel onvoldoende benutten. De voorgestelde aanpak is gebaseerd op de driehoek «aan- bieding - infrastructuur - rollend materieel» en rieht zieh op de gebruikers. Vooraleer een planning opgesteld kan worden, moeten we een visie ontwikkelen voor de betrokken lijn en de regio waarin de spoorweg zal dienen als structurele as. De visie baseert zieh op een diens- tregeling die uitgaat van een aanbod op lange termijn met ideale rijtijden en knooppunten met an-dere transportmiddelen. Zodoende kunnen regionale lijnen bijdragen aan een paradigma- vers-chuiving die een levensstijl promoot die meer gericht is op het openbaar vervoer dan op het individueel vervoer, ook in naburige regio's. - Das Ziel der Studie ist die Identifizierung von Erfolgs- und Misserfolgsfaktoren bei Wiedereröffnungen und Modernisierungen von (grenzüberschreitenden) Regionalverkehrslinien in Randregionen. Die Untersuchung stützt sich auf zwei belgisch-französische (Mons- Valenciennes und Namur-Charleville-Mézières) sowie zwei schweizerisch-französische Linien (Delémont-Belfort und Neuchâtel-Besançon). Das öffentliche Problem besteht im Fehlen eines öffentlichen Verkehrsmittels, welches das vorhandene Potential im Einzugsbereich der betrachteten Linien vollständig ausnützt (unvollständige Ausnützung des vorhandenen Transportmarktes). Die zu überwindenden Hindernisse auf dem Gebiet des Eisenbahnwesens können juristischer Natur sein. Es handelt sich dabei um gewisse juristische Vorschriften w. z. B. Interoperabili- tätsstandards, die Abwesenheit einer klaren Definition des Begriffes «Regionalverkehr» auf europäischer Ebene, Sicherheitsstandards (Bahnübergänge) oder Massnahmen zu Gunsten von Behinderten, die Wiedereröffnungen behindern können, weil diese Standards keine Rücksicht auf die Gegebenheiten von Regionallinien mit einem geringen Nachfragepotential nehmen. Technische Vorgaben stellen nur selten ein Hindernis bei Wiedereröffnungen dar. Dies kann dann der Fall sein, wenn zwei Eisenbahnnetze mit unterschiedlichen Betriebsphilosophien aufeinander treffen (Netz mit Taktverkehr und unvertaktete Netze). Bei Wiedereröffnung von Eisenbahnlinie ist festzustellen, dass auf politischer Ebene keine Definitionen in Bezug auf Basisangebot und der minimalen Nachfrage bestehen. Bisweilen ist ein starker Kontrast zwischen einem schlechten Infrastrukturzustand und einem darauf verkehrenden modernem Rollmaterial festzustellen. Gerade diese Infrastruktur spielt auf geopolitischer Ebene eine wichtige Rolle. Wird diese korrekt betrieben (attraktives Angebot, Fahrzeit, Umsteigeverbindungen), erlaubt sie einer ganzen Region eine Lösung aus der Isolation. Die Wiedereröffnung eines fehlenden Teilstücks kann die geopolitische Situation einer Region positiv verändern, wie das Beispiel der Linie Mons-Valenciennes zeigt. Gleichzeitig kann das Argument der geopolitischen Position eine Wiedereröffnung behindern, auch wenn die vorgebrachten Argumente nicht stichhaltig sind, wie das Beispiel der Linie Dinant-Givet beweist, die angeblich einen bestehenden Eisenbahgüterverkehrskorridor konkurrenzieren soll. Der Einfluss von Hochgeschwindigkeitsstrecken auf Randregionen wird oft überschätzt. Im Gegensatz dazu wird die Anwendbarkeit des Konzeptes der vier Kapitalien (konstruiertes, soziales, natürliches und Human-Kapital) bei der Anwendbarkeit im öffentlichen Verkehr unters-chätzt. Der verwendete Analyseraster der vier Kapitalien erlaubt die Anwendbarkeit dieses Ansatzes auf grenzüberschreitende Eisenbahnlinien, trotz des Fehlens von Daten für zahlreiche Indikatoren, zu untermauern. Die Evaluation der betrachteten Linien hat gezeigt, dass die französischen Schienenregionalverkehrslinien einen bedeutenden Rückstand in Bezug auf die Leistungsfähigkeit vorweisen. Dies wird durch die Anwendung des Analyseraster der vier Kapitalien bestätigt. Der Einsatz, der in dieser Arbeit entwickelten Planungsmethode auf die vier grenzüberschreitenden Regionalverkehrslinien hat gezeigt, dass die heutige Betriebsweise von Regionalverkehrslinien das vorhandene Potential nicht ausschöpft. Der vorgeschlagene Ansatz basiert auf dem Dreieck «Angebot - Infrastruktur - Rollmaterial» in dem die Benützerlnnen im Zentrum stehen. Jedoch steht die Entwicklung einer Vision für die betroffene Region und Linie vor dem Beginn jeder Planung im Zentrum, bei der die Eisenbahnlinie als strukturierende Achse benützt wird. Diese manifestiert sich in einer Fahrplanstruktur, die das langfristig gewünschte Angebot mit idealen Fahrzeiten und Umsteigeknoten mit anderen Verkehrsmitteln beinhaltet. In dieser Weise können die Regionalverkehrslinien einen Beitrag zu einem Paradigmawechsel beitragen, der auch in Randregionen einen Lebensstil fördert, der vermehrt auf den öffentlichen Verkehr als auf den motorisierten Individualverkehr setzt. - L'obiettivo di questo studio è quello di identificare i fattori di successo e di fallimento relativi alla riapertura e modernizzazione di linee ferroviarie transfrontaliere e non in aree limitrofe. L'indagine si basa su due linee franco-belghe (Mons-Valenciennes e Namur-Charleville- Mézières) e due linee franco-svizzere (Delémont-Belfort e Neuchâtel-Besançon). Il problema pubblico è la mancanza di mezzi di trasporto pubblico che sfruttino il potenziale esistente nel bacino d'utenza interessato (sottoutilizzazione del mercato dei trasporti). Gli ostacoli da superare nel settore del trasporto ferroviario possono essere di natura giuridica - vale a dire, requisiti legali come alcuni standard d'interoperabilità, l'assenza di una definizione del termine «treno regionale» a livello europeo, la sicurezza (passaggi a livello) o misure a favore di persone a mobilità ridotta, che possono ostacolare o impedire la riapertura o modernizzazione di linee regionali poiché queste norme non vengono adattate alla realtà delle linee il cui potenziale è basso in termini di viaggiatori e merci. A un altro livello è raro che aspetti tecnici costituiscano degli ostacoli. Tuttavia è il caso quando due reti ferroviarie perseguono filosofie antagoniste (rete cadenzata e non cadenzata). Per riaprire le linee si rileva una mancanza di definizioni chiare, a livello politico, del collegamento di base e delle soglie minime di frequentazione. A volte vi è un netto contrasto tra un'infrastruttura degradata e un modernissimo materiale rotabile, segno della mancanza di sensibilizzazione per la manutenzione delle infrastrutture ferroviarie. Eppure queste strutture svolgono un ruolo importante a livello geopolitico. Correttamente gestite (offerta, tempi di percorrenza, coincidenze), permettono l'apertura verso l'esterno di un'intera regione. La riapertura di un tassello mancante può cambiare la posizione geopolitica di una regione, come nel caso di Mons-Valenciennes. Allo stesso tempo, tuttavia, l'argomento dell'impatto geopolitico, anche se infondato, può ostacolare una riapertura - come nel caso di Dinant-Givet che sembra fare concorrenza a un'altra linea esistente. L'impatto delle linee ad alta velocità sulle regioni limitrofe è spesso sovrastimato. In compenso, l'attuabilità del concetto dei quattro capitali (capitale fabbricato, sociale, naturale e umano) è sottovalutata nel settore dei trasporti pubblici. Le griglie d'analisi dei quattro capitali ci hanno effettivamente permesso di dimostrare l'applicabilità del concetto alle linee ferroviarie transfrontaliere, nonostante la mancanza di misurabilità di alcuni indicatori. La valutazione delle linee selezionate in supporto alla nostra griglia d'analisi mostra che le linee regionali francesi accusano un pesante ritardo in termini di prestazioni. Questo dato di fatto è confermato nei quattro capitali. Applicando il nostro metodo di pianificazione alle linee ferroviarie (transfrontaliere), si osserva che le attuali linee non sfruttano a sufficienza il loro potenziale. L'approccio proposto è basato sul triangolo «offerta / infrastrutture / materiale rotabile» e si articola attorno agli utenti. Prima di qualsiasi pianificazione, è necessario sviluppare una visione per la regione e la linea coinvolta, in cui la ferrovia servirà come asse strutturale. La visione si manifesta attraverso un orario che rifletta l'offerta desiderata a lungo termine, con tempi di percorrenza ideali e nodi di coincidenza con altri mezzi di trasporto. In questo modo, le linee regionali possono contribuire a un cambiamento di paradigma che favorisca uno stile di vita più focalizzato sui servizi di trasporto pubblico che sul trasporto individuale - anche nelle regioni limitrofe.
Resumo:
Introduction: Le déficit en vitamine D est un facteur de risque de fracture par ses effets osseux et extra osseux. En Suisse, 49,7% des patientes ostéoporotiques ont un déficit en vitamine D. L'objectif de ce travail était d'analyser le statut vitaminique D des patients hospitalisés pour fracture en fonction de la saison, du type de fracture et des caractéristiques individuelles. Méthode: Nous avons dosé la vitamine D des patients hospitalisés au CHUV pour une fracture entre le 1er novembre 2008 et le 31 juillet 2009 et vus dans le cadre de la filière de la fracture. Définition: insuffisance (10 et 30 μg/l) et carence (<10 μg/l) en vitamine D. Résultats: Le taux moyen de vitamine D était de 16,2 μg/l chez les 184 patients (femmes 86%, âge moyen 76ans). 167 patients (91%) avaient une insuffisance et 70 (38%) une carence. 59 patients bénéficiaient d'une supplémentation vitamino-calcique. Leur taux moyen était significativement plus élevé que ceux ne bénéficiant pas de supplémentation (22,9 vs 13,1 μg/l; p <0,05). Les proportions d'insuffisance (74,6% vs 94,4%) et de carence (3,4% vs 54,4%) étaient significativement plus basses. Le taux de vitamine D n'était pas différent entre les fractures traumatiques et non traumatiques (13,9 vs 16,4 μg/l; p = 0,4). Les patients avec une fracture de l'humérus avaient un taux plus bas que lors d'une autre fracture (9,0 vs 16,7 μg/l; p = 0,032). En distinguant les périodes hivernale et estivale, il n'existait pas de différence (16,13 vs 16,34; p = 0,90), ni en terme de carence (38% vs 37,9%; p = 0,99) ou d'insuffisance (86,7% vs 89,9%; p = 0,51). Aucune différence n'a été mise en évidence en fonction des classes d'âge (de 40 à >90 ans) ou du sexe. Les taux moyens de vitamine D étaient significativement plus bas lors d'IMC <18,5 ou >35. Conclusion: Cette analyse souligne l'importance du déficit en vitamine D dans une population de patients fracturés. Elle met en lumière le risque particulier couru par les patients aux deux extrêmes de l'IMC. Par ailleurs, les patients avec une supplémentation ont des taux sanguins de vitamine D insuffisants traduisant ou une compliance insuffisante ou la nécessité de prescrire des doses plus élevées.
Resumo:
Cette contribution s'intéresse à la convergence qui devrait exister entre la demande populaire en matière de prestations publiques et les décisions budgétaires des autorités afin que le secteur public soit efficace du point de vue allocatif. Elle cherche à appliquer la méthode de l'allocation contingente dans une volonté d'impliquer la population dans la répartition des ressources budgétaires. Schématiquement, il s'agit d'interroger les administré-e-s dans le cadre d'une enquête et de leur demander d'allouer un budget donné entre les différentes catégories de prestations publiques que l'administration doit offrir. Cette méthode est appliquée ici de façon expérimentale en utilisant comme périmètre d'analyse les budgets des collectivités locales suisses. Les tests effectués sur les résultats montrent que les préférences révélées ne le sont pas sur une base aléatoire. Si des différences apparaissent entre les allocations contingentes et la manière dont les ressources sont effectivement réparties entre les prestations communales, ces différences semblent découler d'une divergence de vues réelle et non d'un biais lié à la méthode.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
Résumé La levodopa (LD) est le traitement antiparkinsonien le plus efficace et le plus répandu. Son effet est composé d'une réponse de courte (quelques heures) et de longue durée (jours à semaines). La persistance de cette dernière dans les phases avancées de la maladie de Parkinson est controversée, et sa mesure directe n'a jamais été faite en raison des risques liés à un sevrage complet de LD. La stimulation du noyau sous-thalamique est un nouveau traitement neurochirurgical de la maladie de Parkinson, indiqué dans les formes avancées, qui permet l'arrêt complet du traitement médicamenteux chez certains patients. Nous avons étudié 30 patients qui ont bénéficié d'une telle stimulation, et les avons évalués avant l'intervention sans médicaments, et à 6 mois postopératoires, sans médicaments et sans stimulation. Chez 19 patients, la médication a pu être complètement arrêtée, alors qu'elle a dû être réintroduite chez les 11 patients restants. Au cours des 6 mois qui ont suivi l'intervention, le parkinsonisme s'est aggravé de façon significative dans le groupe sans LD, et non dans le groupe avec LD. Cette différence d'évolution s'explique par la perte de l'effet à long terme de la LD dans le groupe chez qui ce médicament a pu être arrêté. En comparant cette aggravation à la magnitude de l'effet à court terme, la réponse de longue durée correspond environ à 80 pourcent de la réponse de courte durée, et elle lui est inversement corrélée. Parmi les signes cardinaux de la maladie, la réponse de longue durée affecte surtout la bradycinésie et la rigidité, mais pas le tremblement ni la composante axiale. La comparaison du parkinsonisme avec traitement (stimulation et LD si applicable) ne montre aucune différence d'évolution entre les 2 groupes, suggérant que la stimulation compense tant la réponse de courte que de longue durée. Notre travail montre que la réponse de longue durée à la LD demeure significative chez les patients parkinsoniens après plus de 15 ans d'évolution, et suggère que la stimulation du noyau sous-thalamique compense les réponses de courte et de longue durée. Abstract Background: Long duration response to levodopa is supposed to decrease with Parkinson's disease (PD) progression, but direct observation of this response in advanced PD has never been performed. Objective: To study the long duration response to levodopa in advanced PD patients treated with subthalamic deep-brain stimulation. Design and settings: We studied 30 consecutive PD patients who underwent subthalamic deep-brain stimulation. One group had no antiparkinsonian treatment since surgery (no levodopa), while medical treatment had to be reinitiated in the other group (levodopa). Main outcome measures: motor Unified Parkinson's Disease Rating Scale (UPDRS). Results: In comparison with preoperative assessment, evaluation six months postoperatively with stimulation turned off for three hours found a worsening of the motor part of UPDRS in the no-levodopa group. This worsening being absent in the levodopa group, it most probably reflected the loss of the long duration response to levodopa in the no-levodopa group. Stimulation turned on, postoperative motor UPDRS in both groups were similar to preoperative on medication scores, suggesting that subthalamic deep-brain stimulation compensated for both the short and long duration responses to levodopa. Conclusions: Our results suggest that the long duration response to levodopa remains significant even in advanced PD, and that subthalamic deep-brain stimulation compensates for both the short and the long duration resposes to levodopa.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Résumé: Notre étude chevauche deux domaines de recherche quasi indissociables : ceux de la linguistique et de la didactique des langues. Comme l'indique le sujet, elle examine la conceptualisation et l'emploi de deux notions aspecto-temporelles du français (le passé composé et l'imparfait), sous l'impact des connaissances grammaticales déjà acquises sur deux autres langues : le singhalais et l'anglais. Notre recherche relève des domaines de la psycholinguistique, de la linguistique acquisitionnelle et de la linguistique comparative. Toutefois, dans le cadre de cette étude, nous examinons ces notions grammaticales françaises et leurs équivalents présumés dans les deux autres langues comme étant des concepts relevant des langues à statuts sociaux spécifiques [à savoir, langue maternelle (L1), langue seconde (L2) et langue étrangère (L3)], dans un contexte particulier d'enseignement/apprentissage et d'acquisition de langue [à savoir, le contexte d'enseignement/apprentissage et d'acquisition du français langue étrangère (FLE) au Sri Lanka]. En ce sens, notre étude est également liée aux domaines de la sociolinguistique et de la didactique des langues, notamment, étrangères. Ce qui pourrait probablement distinguer cette recherche des autres, c'est qu'elle aborde certaines questions linguistiques et didactiques peu étudiées jusqu'ici. Entre autres, l'influence de deux langues sur l'enseignement/apprentissage d'une L3, l'enseignement/apprentissage des langues dans des contextes exolingues et le rôle des transferts dans la conceptualisation des notions grammaticales. Pourtant, lorsque nous avons choisi le contexte d'apprentissage du FLE au Sri Lanka comme terrain de recherche, nous avons également visé d'autres objectifs : examiner les systèmes verbaux de trois langues dont l'imbrication n'a pas encore été objet d'étude ; examiner le système verbal aspecto-temporel peu explicité du singhalais à la lumière des descriptions linguistiques occidentales ; vérifier certains préjugés concernant les liens de proximité et de distance entre les trois langues choisies et étudier les causes de ces préjugés. Notre corpus provient de plusieurs classes de FLE au Sri Lanka. Le public observé était constitué d'adolescents ou d'adultes bilingues ayant le singhalais en L1 et l'anglais en L2. Les cours choisis se distinguaient les uns des autres par plusieurs critères, mais travaillaient tous sur les notions du passé composé et de l'imparfait. A la conclusion de notre étude, nous avons constaté qu'un nombre important de nos hypothèses initiales se sont avérées véridiques. A titre d'exemples, les transferts entre les langues premières et la langue cible sont récurrents et non négligeables chez l'écrasante majorité des apprenants exolingues observés, et parfois, même chez leurs enseignants; si ces apprenants recourent à ces langues pour étayer leur apprentissage, ni leurs enseignants ni leurs manuels provenant de l'étranger ne les guident dans ce travail; les transferts ayant l'anglais pour origine l'emportent considérablement sur ceux provenant du singhalais. De même, suite à l'analyse contrastive des trois systèmes verbaux aspecto-temporels et à l'analyse du corpus, nous avons également eu un résultat imprévu : contrairement à une représentation répandue chez les apprenants singhalais, il existe des points convergents entre leur L1 et le français ; du moins, au niveau de l'emploi de certains temps du passé. Un fait dont on était jusqu'ici ignorants mais dont on peut sûrement profiter dans les cours de FLE au Sri Lanka. Suite à ces observations et à la fin de notre thèse, nous avons fait quelques recommandations didactiques afin d'améliorer les conditions d'enseignement/apprentissage des langues étrangères, au Sri Lanka et ailleurs. Abstract: Our research is related to the fields of both linguistics and didactics, two research areas which are almost inseparable. As the title shows, the thesis examines the issue of conceptualizing and using of two grammatical (aspectual and temporal) concepts of the French language (le passé composé and l'imparfait), under the influence of previously acquired grammatical knowledge of two other languages: Sinhalese and English. Thus, our research is linked to the domains of psycholinguistics, acquisitional linguistics and comparative linguistics. However, within the framework of this study, we will consider the above-mentioned two French grammatical concepts and their presumed equivalents in the other two languages as concepts belonging to three languages with specific social status [i.e. first language (L1), second language (L2) and foreign language (L3)], taught/learnt/acquired in a particular language teaching/learning context [the context of teaching/learning of French as a foreign language (FFL) in Sri Lanka]. In that sense, our study is also associated with the fields of sociolinguistics and language teaching, especially foreign language teaching. What could probably make this study outstanding is that it studies certain linguistic and didactic issues which have not yet been studied. For example, it examines, among other issues, the following: the influence of two languages (i.e. mother tongue -L1 & second language -L2) on the teaching/learning process of a third language (i.e. foreign language- L3); foreign language teaching and learning in an exolingual context (where the target language is not spoken outside the classroom); the role of language transfers in the process of grammatical notion conceptualization. However, in selecting the FFL teaching/learning context in Sri Lanka as our field of research, we had further objectives in mind : i.e. 1) studying the verb systems of three languages whose combination has never been studied before ; 2) studying the aspectual-temporal formation of the Sinhalese verb system (which is hardly taught explicitly) in the light of the linguistic descriptions of dominant European languages; 3) verifying certain preconceived ideas regarding the proximity and the distance between the three chosen languages, and 4) studying the causes for these preconceptions. Our corpus is obtained from a number of FFL classes in Sri Lanka. The observed student groups consisted of bilingual adolescents and adults whose first language (L1) was Sinhalese and the second language (L2) was English. The observed classes differed in many ways but in each of those classes, a common factor was that the students had been learning some aspect of the two grammatical concepts, le passé composé and l'imparfait. Having completed our study, we now see that a considerable number of our initial hypotheses are proven correct. For example, in the exolingual French language teaching/learning context in Sri Lanka where we carried out our research, language transfers between the first and target languages were recurrent and numerous in the work of the greater majority of the observed language learners, and even their teachers; these transfers were so frequent that they could hardly be ignored during the teaching/learning process ; although learners turned to their first languages to facilitate the learning process of a new language, neither their teachers, nor their text books helped them in this task; the transfers originating from English were far too numerous than those originating from Sinhalese; however, contrary to the popular belief among many Sinhalese learners of French, the contrastive analysis of the three aspectual-temporal verb systems and the study of our corpus helped us in proving that there are common linguistic features between the Sinhalese and the French languages ; at least, when it comes to using some of their past tenses. This is a fact which had been ignored up to now but which could probably be used to improve French teaching/learning in Sri Lanka. Taking all observations into account, we made some pedagogical recommendations in the concluding part of our thesis with the view of improving foreign language teaching/learning in Sri Lanka, and elsewhere.
Resumo:
Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.
Resumo:
La thèse propose une analyse du rôle des objets dans quatre tragédies (Ajax, Trachiniennes, Electre, Philoctèté) et un drame satyrique (Limiers) de Sophocle. Le propos est d'étayer le constat selon lequel les objets ont un rôle prépondérant dans l'économie générale de chacune de ces intrigues et de dégager ce rôle chez cet auteur. L'introduction met en évidence l'émergence du material turn en sciences humaines jusque dans les sciences de l'Antiquité en passant par la littérature et l'anthropologie, souligne le caractère souple et opératoire de la catégorie de l'objet, le lien avec la question du signe et du langage non verbal et relève l'absence d'équivalent en grec ancien pour cette catégorie, avec le problème épistémologique que cela implique pour la présente recherche. L'objet n'est pas abordé ici comme accessoire, mais comme entité participant d'une fiction théâtrale. On distingue les moments où les objets sont susceptibles d'apparaître sur scène des moments où ils apparaissent dans des récits ou des évocations. Dans le monde fictionnel constitué par chaque intrigue, sont envisagés les modes d'apparition textuels et poétiques d'objets intra-fictionnels, dans le cadre du genre théâtral, qui combine discours et actions, avec les décalages et les phénomène de dissimulation et d'ostentation que cela implique. Les métaphores et les images jouent ici un rôle prépondérant. Des analyses circonstanciées en 5 chapitres thématisant les objets et leurs fonctions. Dans I'Ajax, les valeurs liées aux armes, en particulier l'épée d'Hector et le bouclier d'Eurysacès, telles qu'elles apparaissent dans l'épopée, sont transposées dans une logique tragique où le prestige lié à ces armes devient polémique et problématique. Le vêtement sacrificiel des Trachiniennes, auquel répond la figure d'Iole, un personnage largement réifiés, thématise le déséquilibre qui caractérise les relations entre Héraclès et Déjanire, dans le cadre des institutions du mariage et du sacrifice, où s'immisce une dimension sauvage et sournoise. Dans l'Electre, au contexte funéraire et d'appel à la vengeance, auquel renvoie une multitude d'objets (sceptre, hache, lit et autres pièces de mobilier, offrandes, etc.) se superpose une dimension méta-fictionnelle et méta-théâtrale investie par l'urne vide. L'arc du Philoctèté constitue l'enjeu dramatique principal de la tragédie et cristallise un débat polémique de valeurs humaines instables auquel s'oppose une logique divine et collective attachée au passé de l'objet, qui se trouve réorienté vers un avenir glorieux. Un passage par le seul drame satyrique conservé de Sophocle permet de constater que l'objet, une tortue-lyre, possède des caractéristiques similaires transposées dans le contexte satyrique, où l'hybridité, les marqueurs de la civilisation, les attributions des Satyres, mais aussi des traits comiques, jouent un rôle prépondérant. La conclusion tente une synthèse et identifie plusieurs observations transversales : jeux sur la présence et l'absence, décalages entre discours et actions, entre langage verbal et non verbal, modalités d'allusion à des personnages, temporalités et espaces absents, détournement des fonctions d'usage, modalités du don, de l'échange et de la privation, procédures de personnification et de réification, rôle prépondérant dans les modalités de l'accomplissement du destin. A la faveur de l'identification de ces caractéristiques transversales, on tente d'ouvrir le propos sur la question du cadavre, dont le statut semble intermédiaire entre personnage et objet, notamment aussi dans \'Antigone, et la figure d'Oedipe, qui apparaît comme un héros- objet dans les deux tragédies que lui consacre Sophocle, l'Oedipe-roi, et \'Oedipe à Colone.
Resumo:
Violence against women (VAW) has become an issue for public action and a subject of controversy and debate in the public arena. The occurrences of VAW are - at least in part - reported by public authorities and public policies are designed to combat it, by means of prevention campaigns, setting up of shelters or counselling services. All these measures bring together a range of institutional and non-institutional actors. VAW is furthermore the focus of specific laws, but we know little about the emergence of the regulation of VAW in Switzerland. In this article, we will present preliminary results of the developpment of policies adressing domestic violence in the canton of Geneva, focusing on the political arena and analysing the definitional work done by two associations. These case studies show that the concept of gender violence has been marginalized and replaced by a new understanding of the phenomenon of gender violence, which is presented most often in a symmetrical, psychological and racialized way. Les violences faites aux femmes font l'objet de débats et de controverses et sont désormais un problème public qui réunit une pluralité d'acteurs institutionnels et non institutionnels. Outre diverses législations en la matière, de multiples actions et politiques publiques ont été élaborées dans des contextes variés, sous forme de campagnes de prévention, de création de refuges et de centres de conseils. Dans ce contexte, on ne sait que peu de choses de l'émergence de la régulation de ces violences en Suisse et des diverses formes qu'elle a prises. Cet article présente des résultats provisoires concernant la prise en charge des violences domestiques dans le canton de Genève, en se centrant sur la scène politique et en analysant le travail définitionnel effectué par deux associations hégémoniques dans le domaine. Ces études de cas permettent d'affirmer que le concept de violence de genre a été marginalisé et remplacé par une nouvelle compréhension du phénomène, présentée le plus souvent de façon symétrique, psychologique et racialisée.