1000 resultados para Archéologie - Grèce - Erétrie - Stoa
Resumo:
(Abstract only in french) Une approche littéraire de l'intertextualité, à l'aide des catégories posées par G. Genette, permet de renouveler l'approche du rapport entre Actes de Paul et Actes canoniques. A la différence de la critique littéraire classique, qui ne repère pas de dépendance littéraire hors de similitudes verbales ou narratives, l'« hypertextualité » désigne un phénomène de relecture dans lequel un texte-source est recomposé et réinterprété au sein d'un écrit second. Grâce à cette catégorie, cette contribution rend compte du jeu dialectique de parenté et de divergence que l'on observe entre les Actes de Paul et les Actes de Luc. La recomposition de la biographie de Paul dans les Actes de Paul a usé de créativité, elle a puisé dans l'imaginaire chrétien, mais elle s'est aussi servie de traditions préservées dans la suivance de l'apôtre.
Resumo:
Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.
Resumo:
Résumé Streptococcus gordonii est une bactérie colonisatrice naturelle de la cavité buccale de l'homme. Bien que normalement commensale, elle peut causer des infections graves, telles que des bactériémies ou des endocardites infectieuses. La pénicilline étant un des traitements privilégiés dans de tels cas, l'augmentation rapide et globale des résistances à cet antibiotique devient inquiétante. L'étude de la physiologie et des bases génétiques de ces résistances chez S. gordonii s'avère donc importante. Les cibles moléculaires privilégiées de la pénicilline G et des β-lactames sont les penicilllin-binding proteins (PBPs). Ces enzymes associées à la membrane ont pour rôle de catalyser les réactions de transpeptidation et de transglycosylation, qui constituent les dernières étapes de la biosynthèse du peptidoglycan (PG). Elles sont définies comme classe A ou B selon leur capacité d'assurer soit les deux réactions, soit uniquement la transpeptidation. Les β-lactames inhibent le domaine transpeptidase de toutes les PBPs, entraînant l'inhibition de la synthèse du PG, l'inhibition de la croissance, et finalement la mort cellulaire. Chez les streptocoques, les PBPs sont aussi les premiers déterminants de la résistance à la pénicilline. De plus, elles sont impliquées dans la morphologie bactérienne, en raison de leur rôle crucial dans la formation du PG. Le but de ce travail était de caractériser les PBPs de S. gordonii et d'étudier leurs fonctions dans la vie végétative de la bactérie ainsi que durant le développement de la résistance à la pénicilline. Premièrement, des mutants auxquels il manque une ou deux PBP(s) ont été construits. Leur étude - au niveau physiologique, biochimique et morphologique - a montré le caractère essentiel ou dispensable de chaque protéine, ainsi que certaines de leurs fonctions potentielles. Deuxièmement, des mutants résistants à la pénicilline ont été générés. Leur caractérisation a montré l'importance des mutations dans les PBPs ainsi que dans d'autres gènes encore inconnus, de même que le rôle crucial des PBPs de classe A dans le développement de la résistance à la pénicilline. Des expériences supplémentaires sur des isolats résistants ont aussi prouvé que la résistance a un coût en terme de fitness, coût que S. gordonii parvient à compenser par des mécanismes d'adaptation. Finalement, les promoteurs des gènes des PBPs ont été déterminés et leur expression a été étudiée grâce au gène de luciférase. Il a ainsi été montré que la résistance à la pénicilline entraîne non seulement des altérations au niveau des protéines, mais aussi au niveau de la régulation des gènes. De plus, la pénicilline génère directement des modifications dans l'expression de PBPs spécifiques. Summary Streptococcus gordonii is a normal inhabitant of the human oral cavity and a pioneer colonizer of teeth. Although usually considered as a commensal, this organism can cause life-threatening infections such as bacteraemia or endocarditis. Since penicillin is one of the preferential treatments for such pathologies, the rapid and general increase of antibiotic resistance in the overall population becomes an issue. Thus, studying the physiologic and genetic bases of such a resistance in S. gordonii is of interest. The primary molecular targets of penicillin G and other β-lactams are the so called penicillin-binding proteins (PBPs). These are membrane-associated proteins that catalyze the last steps in peptidoglycan (PG) biosynthesis, namely transpeptidation and transglycosylation. Depending on their capacity to catalyze either reactions or only transpeptidation, they are considered as class A or class B PBPs, respectively. β-lactam antibiotics inhibit the transpeptidase domain of both of these classes of enzymes, resulting in inhibition of PG assembly, inhibition of bacterial growth, and ultimately leading to cell death. In streptococci, PBPs are also the primary determinants of penicillin-resistance. Moreover, because of their crucial role in PG formation, they are implicated in fundamental aspects of cell morphology. The goal of this work was thus to characterize S. gordonii PBPs and to explore their functions in terms of vegetative life and penicillin-resistance development. First, single and double PBP-inactivated mutants were generated and their effect on the bacterial physiology, cell wall biochemistry and ultrastructural morphology was assessed. This demonstrated the essentiality or dispensability of each protein for bacterial life. Second, penicillin-resistant mutants were generated by cyclic exposure to increasing concentrations of the drug. Characterization of these mutants pointed out the importance of both PBP and non-PBP mutations, as well as the crucial role of the class A PBPs in the development of penicillin-resistance. Further experiments on resistant isolates demonstrated the fitness cost of this resistance, but also the capacity of S. gordonii to adapt and regain the fitness of the wild-type. Finally, the promoters of PBP genes were determined and their expression was monitored using luciferase fusions. This showed that penicillin-resistance, in addition to modifications at the level of the protein, also triggered genetic alterations. Moreover, penicillin itself generated modifications in the expression of specific PBPs.
Resumo:
Grâce à des développements technologiques récents, tels que le système de positionnement par satellites GPS (Global Positioning System) en mode différentie on est maintenant capable de mesurer avec une grande précision non seulement le profil de vitesse de déplacement d'un sujet sur la terre mais aussi sa trajectoire en faisant totalement abstraction de la chronométrie classique. De plus, des capteurs accélérométriques miniaturisés permettent d'obtenir un complément d'information biomécanique utile (fréquence et longueur du pas, signature accélérométrique individuelle). Dans cet artide, un exemple d'application de ces deux techniques à des sports tels que le ski alpin (descente ou Super G) et le sprint est présenté. La combinaison de plusieurs mesures physiologiques, cinétiques et biomécaniques permettra de mieux comprendre les facteurs endogènes et exogènes qui jouent un rôle dans l'amélioration des performances de l'homme.
Resumo:
Il a été suggéré que l'hystérie avait disparu et n'était qu'un concept ancien, stigmatisant et péjoratif, voire erroné, reflétant l'incapacité de la communauté médicale à établir parfois un diagnostic. Actuellement ces troubles, appelés troubles dissociatifs ou de conversion, restent pourtant une réalité clinique fréquente et invalidante pour les patients. Plusieurs études et revues ont tenté de mieux décrire la présentation clinique, mais également de mieux comprendre les mécanismes neurobiologiques impliqués dans ces troubles grâce au développement de certaines techniques d'imagerie cérébrale. Si les corrélats neurobiologiques sont mieux compris, des traitements efficaces manquent encore et seule une prise en charge multidisciplinaire (généralistes, neurologues et psychiatres) et individualisée peut apporter un bénéfice au patient. It has been suggested that hysteria had waned and was an old-fashioned, stigmatizing and false concept, reflecting the incapacity of the medical community to establish a diagnosis in certain situations. Nowadays, however, those disturbances, now referred to as conversion or dissociative disorders, still remain a frequent and incapacitating condition that every clinician faces. These past decades, several studies have tried to better describe their clinical presentation and their neurobiological mechanisms, with the help of the development of new neuroimaging techniques. If the neurobiological correlates are now better understood, efficient treatments are still lacking and only a multidisciplinary (general practitioners, neurologists and psychiatrists) and individually-tailored therapy might be beneficial to the patients.
Resumo:
Parler d'une énigme non résolue, lorsqu'il est question de Jésus de Nazareth, paraît proche de la plaisanterie. Tout n'a-t-il pas été dit en 2000 ans de christianisme ? Le sujet n'est-il pas entièrement épuisé ? Or aujourd'hui, de nouvelles poussées viennent ébranler ce que l'on croyait acquis. Nous serions-nous laissés enfermer dans des réponses commodes, mais inexactes ? Daniel Marguerat avance cette question sur trois moments cruciaux de la vie du Galiléen : le baptême de Jésus par Jean le Baptiseur, le geste violent contre le Temple, et son exécution le 7 avril de l'an 30.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
On parle souvent de Platon en lui associant immédiatement le qualificatif de «philosophe du Même» : dans sa double portée politique et ontologique, la pensée platonicienne ignorerait en effet tout ce qui relève de l'altérité. Après avoir préalablement esquissé la situation des étrangers dans la Grèce antique, nous essaierons de montrer par la relecture de quelques extraits d'un texte politique (Lois) puis de passages à tonalité épistémologique (Le Sophiste) que la philosophie de Platon réserve au genre de l'Autre une place centrale.
Resumo:
Quand on parle de l'acide lactique (aussi connu sous le nom de lactate) une des premières choses qui vient à l'esprit, c'est son implication en cas d'intense activité musculaire. Sa production pendant une activité physique prolongée est associée avec la sensation de fatigue. Il n'est donc pas étonnant que cette molécule ait été longtemps considérée comme un résidu du métabolisme, possiblement toxique et donc à éliminer. En fait, il a été découvert que le lactate joue un rôle prépondérant dans le métabolisme grâce à son fort potentiel énergétique. Le cerveau, en particulier les neurones qui le composent, est un organe très gourmand en énergie. Récemment, il a été démontré que les astrocytes, cellules du cerveau faisant partie de la famille des cellules gliales, utilisent le glucose pour produire du lactate comme source d'énergie et le distribue aux neurones de manière adaptée à leur activité. Cette découverte a renouvelé l'intérêt scientifique pour le lactate. Aujourd'hui, plusieurs études ont démontré l'implication du lactate dans d'autres fonctions de la physiologie cérébrale. Dans le cadre de notre étude, nous nous sommes intéressés au rapport entre neurones et astrocytes avec une attention particulière pour le rôle du lactate. Nous avons découvert que le lactate possède la capacité de modifier la communication entre les neurones. Nous avons aussi décrypté le mécanisme grâce auquel le lactate agit, qui est basé sur un récepteur présent à la surface des neurones. Cette étude montre une fonction jusque-là insoupçonnée du lactate qui a un fort impact sur la compréhension de la relation entre neurones et astrocytes. - Relatively to its volume, the brain uses a large amount of glucose as energy source. Furthermore, a tight link exists between the level of synaptic activity and the consumption of energy equivalents. Astrocytes have been shown to play a central role in the regulation of this so-called neurometabolic coupling. They are thought to deliver the metabolic substrate lactate to neurons in register to glutamatergic activity. The astrocytic uptake of glutamate, released in the synaptic cleft, is the trigger signal that activates an intracellular cascade of events that leads to the production and release of lactate from astrocytes. The main goal of this thesis work was to obtain detailed information on the metabolic and functional interplay between neurons and astrocytes, in particular on the influence of lactate besides its metabolic effects. To gain access to both spatial and temporal aspects of these dynamic interactions, we used optical microscopy associated with specific fluorescent indicators, as well as electrophysiology. In the first part of this thesis, we show that lactate decreases spontaneous neuronal, activity in a concentration-dependent manner and independently of its metabolism. We further identified a receptor-mediated pathway underlying this modulatory action of lactate. This finding constituted a novel mechanism for the modulation of neuronal transmission by lactate. In the second part, we have undergone a characterization of a new pharmacological tool, a high affinity glutamate transporter inhibitor. The finality of this study was to investigate the detailed pharmacological properties of the compound to optimize its use as a suppressor of glutamate signal from neuron to astrocytes. In conclusion, both studies have implications not only for the understanding of the metabolic cooperation between neurons and astrocytes, but also in the context of the glial modulation of neuronal activity. - Par rapport à son volume, le cerveau utilise une quantité massive de glucose comme source d'énergie. De plus, la consommation d'équivalents énergétiques est étroitement liée au niveau d'activité synaptique. Il a été montré que dans ce couplage neurométabolique, un rôle central est joué par les astrocytes. Ces cellules fournissent le lactate, un substrat métabolique, aux neurones de manière adaptée à leur activité glutamatergique. Plus précisément, le glutamate libéré dans la fente synaptique par les neurones, est récupéré par les astrocytes et déclenche ainsi une cascade d'événements intracellulaires qui conduit à la production et libération de lactate. Les travaux de cette thèse ont visé à étudier la relation métabolique et fonctionnelle entre neurones et astrocytes, avec une attention particulière pour des rôles que pourrait avoir le lactate au-delà de sa fonction métabolique. Pour étudier les aspects spatio-temporels de ces interactions dynamiques, nous avons utilisé à la fois la microscopie optique associée à des indicateurs fluorescents spécifiques, ainsi que l'électrophysiologie. Dans la première partie de cette thèse, nous montrons que le lactate diminue l'activité neuronale spontanée de façon concentration-dépendante et indépendamment de son métabolisme. Nous avons identifié l'implication d'un récepteur neuronal au lactate qui sous-tend ce mécanisme de régulation. La découverte de cette signalisation via le lactate constitue un mode d'interaction supplémentaire et nouveau entre neurones et astrocytes. Dans la deuxième partie, nous avons caractérisé un outil pharmacologique, un inhibiteur des transporteurs du glutamate à haute affinité. Le but de cette étude était d'obtenir un agent pharmacologique capable d'interrompre spécifiquement le signal médié par le glutamate entre neurones et astrocytes pouvant permettre de mieux comprendre leur relation. En conclusion, ces études ont une implication non seulement pour la compréhension de la coopération entre neurones et astrocytes mais aussi dans le contexte de la modulation de l'activité neuronale par les cellules gliales.
Resumo:
CONTEXTE Les vasculites représentent un groupe de maladies inflammatoires touchant tous les vaisseaux, des grosses artères aux artères de plus petit calibre, en passant par les capillaires et les veines, de toutes tailles également. La taille des vaisseaux atteints est d'une importance cruciale pour le diagnostic puisque la classification actuelle en dépend. Sur le plan histopathologique, la vasculite est une réaction inflammatoire qui atteint la paroi de vaisseaux, et qui va entraîner alors une ischémie, puis une nécrose du vaisseau lui-‐ même voire des structures environnantes ; les caractéristiques microscopiques de ces lésions permettent souvent d'aider à préciser le groupe auquel appartient la vasculite. Cependant, il n'est pas toujours facile ni possible d'obtenir un échantillon de tissu, une biopsie, selon l'endroit concerné (cerveau, régions profondes et difficilement accessibles...). OBJECTIFS Dans les atteintes de type « vasculite », la peau est fréquemment un organe cible. Le grand avantage est son accès direct et aisé, notamment dans le but de pratiquer un examen histopathologique par le biais d'une biopsie, qui peut se pratiquer de manière superficielle ou profonde, révélant alors des vaisseaux de différents calibres. Face à un tableau clinique parfois complexe et menaçant, il est important de pouvoir orienter le diagnostic rapidement. L'objectif de ce travail est donc de déterminer quelles sont l'utilité et l'apport de la biopsie cutanée dans le diagnostic des vasculites, et autrement dit de déterminer s'il vaut la peine de pratiquer ce genre d'examen, ou s'il vaut mieux privilégier d'autres approches plus rentables sur ce plan-‐là. METHODES Grâce à l'aide des dermatologues et à la base de données du Service de dermatopathologie du CHUV, nous nous proposons de faire une étude rétrospective et systématique, sur les 5 années passées, de toutes les biopsies cutanées compatibles avec le diagnostic de vasculite. RESULTATS ESCOMPTES Ils sont de deux ordres : déterminer d'une part si le résultat de la biopsie était compatible avec le diagnostic clinique retenu chez les patients ayant subi ce type d'examen. Cela nous permettra alors d'établir des recommandations pour la réalisation éventuelle d'une biopsie cutanée dans ce type de situation. Il sera en effet capital de savoir si ce geste est utile et, le cas échéant, s'il faut demander une biopsie profonde ou si une biopsie superficielle est suffisante. Ce travail nous permettra d'autre part de revoir les caractéristiques cutanées -‐ sur le plan histopathologique -‐ des vasculites, et de déterminer aussi leur fréquence. Dans l'idéal, ce travail devrait permettre de faire la revue et la mise à jour des connaissances dans le domaine des vasculites cutanées, utiles aux praticiens notamment.
Resumo:
La trace matérielle dispose d'un potentiel incomparable pour mettre en relation des indices et occupe souvent une place centrale lors du procès pénal (Ribaux et Margot, 2008). Au delà de son rôle élémentaire en tant qu'élément de preuve, la trace matérielle véhicule de nombreuses autres informations encore trop peu exploitées en matière d'investigation ou pour servir de base au renseignement criminel. C'est particulièrement le cas des liens chimiques découverts grâce au profilage physico-chimique de produits stupéfiants saisis par les autorités. Le but de ce travail est d'estimer l'apport de ces liens chimiques à la perception de la structure des réseaux criminels. Pour ce faire, nous nous appuyons sur des modèles d'analyse des réseaux sociaux (SNA, Social Network Analysis). Ces modèles sont toujours plus utilisés pour traiter des affaires qui relèvent de la criminalité organisée, notamment pour comprendre la structure et la dynamique de ces réseaux d'acteurs. L'analyse des réseaux sociaux (SNA) procède par le calcul de différents indicateurs pour mettre en évidence des éléments pertinents de leur structure et leurs acteurs clés. Par exemple, l'identification des vulnérabilités de l'organisation et des mécanismes mis en place par les acteurs pourra orienter les actions policières. Cette recherche se base sur une enquête concernant un réseau international de trafic de produits stupéfiants. En plus des autres informations d'enquête traditionnellement disponibles, des liens chimiques ont été mis en évidence par le profilage de l'héroïne saisie à différents endroits et périodes, puis utilisés par les enquêteurs. Cette recherche consiste à utiliser les indicateurs SNA pour évaluer l'influence de ces liens chimiques sur la structure de ce réseau construit à partir des autres indices. Les premiers résultats montrent que les liens chimiques sont cohérents avec les autres types de relations, et qu'ils tendent, à eux seuls, à mettre en évidence les positions centrales de certains acteurs clés. De plus, l'intégration de ces liens renforce les centralités de certains acteurs et permet ainsi de les considérer de manière plus centrale qu'ils ne l'étaient auparavant. Enfin, ces premiers résultats laissent entrevoir des perspectives intéressantes notamment au travers de la pondération de ces relations afin d'évaluer de manière plus globale l'apport du potentiel informatif de ce type de renseignement.