283 resultados para Outil prédictif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Un nombre croissant de cas de malaria chez les voyageurs et migrants a été rapporté. Bien que l'analyse microscopique des frottis sanguins reste traditionnellement l'outil diagnostic de référence, sa fiabilité dépend considérablement de l'expertise de l'examinateur, pouvant elle-même faire défaut sous nos latitudes. Une PCR multiplex en temps réel a donc été développée en vue d'une standardisation du diagnostic. Un ensemble d'amorces génériques ciblant une région hautement conservée du gène d'ARN ribosomial 18S du genre Plasmodium a tout d'abord été conçu, dont le polymorphisme du produit d'amplification semblait suffisant pour créer quatre sondes spécifiques à l'espèce P. falciparum, P. malariae, P. vivax et P. ovale. Ces sondes utilisées en PCR en temps réel se sont révélées capables de détecter une seule copie de plasmide de P. falciparum, P. malariae, P. vivax et P. ovale spécifiquement. La même sensibilité a été obtenue avec une sonde de screening pouvant détecter les quatre espèces. Quatre-vingt-dix-sept échantillons de sang ont ensuite été testés, dont on a comparé la microscopie et la PCR en temps réel pour 66 (60 patients) d'entre eux. Ces deux méthodes ont montré une concordance globale de 86% pour la détection de plasmodia. Les résultats discordants ont été réévalués grâce à des données cliniques, une deuxième expertise microscopique et moléculaire (laboratoire de Genève et de l'Institut Suisse Tropical de Bâle), ainsi qu'à l'aide du séquençage. Cette nouvelle analyse s'est prononcé en faveur de la méthode moléculaire pour tous les neuf résultats discordants. Sur les 31 résultats positifs par les deux méthodes, la même réévaluation a pu donner raison 8 fois sur 9 à la PCR en temps réel sur le plan de l'identification de l'espèce plasmodiale. Les 31 autres échantillons ont été analysés pour le suivi de sept patients sous traitement antimalarique. Il a été observé une baisse rapide du nombre de parasites mesurée par la PCR en temps réel chez six des sept patients, baisse correspondant à la parasitémie déterminée microscopiquement. Ceci suggère ainsi le rôle potentiel de la PCR en temps réel dans le suivi thérapeutique des patients traités par antipaludéens. Abstract : There have been reports of increasing numbers of cases of malaria among migrants and travelers. Although microscopic examination of blood smears remains the "gold standard" in diagnosis, this method suffers from insufficient sensitivity and requires considerable expertise. To improve diagnosis, a multiplex real-time PCR was developed. One set of generic primers targeting a highly conserved region of the 18S rRNA gene of the genus Plasmodium was designed; the primer set was polymorphic enough internally to design four species-specific probes for P. falciparum, P. vivax, P. malarie, and P. ovale. Real-time PCR with species-specific probes detected one plasmid copy of P. falciparum, P. vivax, P. malariae, and P. ovale specifically. The same sensitivity was achieved for all species with real-time PCR with the 18S screening probe. Ninety-seven blood samples were investigated. For 66 of them (60 patients), microscopy and real-time PCR results were compared and had a crude agreement of 86% for the detection of plasmodia. Discordant results were reevaluated with clinical, molecular, and sequencing data to resolve them. All nine discordances between 18S screening PCR and microscopy were resolved in favor of the molecular method, as were eight of nine discordances at the species level for the species-specific PCR among the 31 samples positive by both methods. The other 31 blood samples were tested to monitor the antimalaria treatment in seven patients. The number of parasites measured by real-time PCR fell rapidly for six out of seven patients in parallel to parasitemia determined microscopically. This suggests a role of quantitative PCR for the monitoring of patients receiving antimalaria therapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Impression clinique que l'Etat de Stress Post-traumatique (ESPT) est sous-diagnostiqué dans la prise en charge des patients qui sont évalués dans le cadre d'une urgence psychiatrique. Objectifs: (i) identifier la prévalence de l'ESPT dans une unité d'urgence psychiatrique au moyen d'un instrument diagnostic et la comparer avec le diagnostic clinique retenu dans un échantillon historique (ii) évaluer la perception des cliniciens quant à l'utilisation systématique d'un instrument diagnostic Méthodes: la prévalence de l'ESPT a été évaluée chez des patients consécutifs (N = 403) qui ont bénéficié d'une consultation par des psychiatres de l'Unité urgence-crise du Service de Psychiatrie de Liaison (PLI) du CHUV, en utilisant le module J du Mini Mental Neuropsychologic Interview (MINI 5.0.0, version CIM-10). Ce résultat a été comparé avec la prévalence de l'ESPT mentionné comme diagnostic dans les dossiers (N = 350) d'un échantillon historique. La perception des médecins-assistants de psychiatrie quant au dépistage systématique de l'ESPT avec un instrument a été étudiée en se basant sur la conduite d'un focus group d'assistants travaillant dans l'Unité urgence-crise du PLI. Résultats: Parmi les patients (N = 316) évalués à l'aide de l'instrument diagnostic, 20,3% (n = 64) réunissaient les critères de l'ESPT. Cela constitue un taux de prévalence significativement plus élevé que la prévalence d'ESPT documentée dans les dossiers de l'échantillon historique (0,57%). Par ailleurs, la prévalence de l'ESPT est significativement plus élevée parmi les groupes socio- économiques précarisés, tels que réfugiés et sans papiers (50%), patients venant d'un pays à histoire de guerre récente (47,1%), patients avec quatre (44,4%) ou trois comorbidités psychiatriques (35,3%), migrants (29,8%) et patients sans revenus professionnels (25%). Le focus groupe composé de 8 médecins-assistants a révélé que l'utilisation systématique d'un outil- diagnostic ne convenait pas dans le setting d'urgence psychiatrique, notamment parce que l'instrument a été considéré comme non adapté à une première consultation ou jugé avoir un impact négatif sur l'entretien clinique. Toutefois, après la fin de l'étude, les médecins-assistants estimaient qu'il était important de rechercher activement l'ESPT et continuaient à intégrer les éléments principaux du questionnaire dans leur travail clinique. Conclusion et perspectives: cette étude confirme que l'ESPT est largement sous-diagnostiqué dans le contexte des urgences psychiatriques, mais que l'usage systématique d'un outil diagnostic dans ce cadre ne satisfait pas les praticiens concernés. Pour améliorer la situation et au vu du fait qu'un instrument diagnostic est considéré comme non-adapté dans ce setting, il serait peut-être bénéfique d'envisager un dépistage ciblé et/ou de mettre en place une stratégie de formation institutionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement dune candidose invasive est une complication hospitalière particulièrement redoutée en raison de sa mortalité élevée, comparable à celle du choc septique (40 %-60 %). La candidémie survient chez 0,05 % des patients hospitalisés, mais touche près de 1 % de ceux séjournant en réanimation, et est responsable de 5 à 10 % des bactériémies nosocomiales. Bien quune proportion élevée de patients hospitalisés soient colonisés par des levures du genre Candida, seule une minorité développe une candidose sévère. Celle-ci est toutefois difficile à diagnostiquer : les signes évocateurs dune dissémination ne surviennent habituellement que tardivement. Un traitement empirique précoce ou préemptif pourrait améliorer le pronostic, mais pour des raisons tant épidémiologiques quéconomiques, un tel traitement ne peut être appliqué à tous les patients à risque de développer une candidose sévère. Chez les patients présentant des facteurs de risque, la pratique de cultures de surveillance systématiques permet de déceler le développement dune colonisation et d'en quantifier le degré, de manière à ne débuter un traitement préemptif que lorsque lindex de colonisation dépasse un seuil critique prédictif d'infection secondaire. Ces éléments physiopathologiques et la mise à disposition des dérivés triazolés moins toxiques que l'amphotéricine B ont permis l'application de traitements prophylactiques. Chez les patients immunosupprimés, la généralisation de cette approche a été incriminée comme lun des éléments déterminant de lémergence dinfections à Candida non albicans dont le pronostic est moins favorable. Pour les patients de réanimation, une stricte limitation aux groupes soigneusement identifiés comme étant à risque élevé et chez lesquels lefficacité de la prophylaxie a pu être démontrée doit contribuer à limiter cet impact épidémiologique défavorable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : La prise en charge des patients avec hyperglycémie en soins aigus estdifficile et les erreurs de prescription d'insuline sont fréquentes. Notre objectifest de promouvoir l'évolution des pratiques vers une gestion efficace et sécuritairede l'hyperglycémie.Matériels et méthodes : Création d'un programme de formation structuré pourla gestion de l'hyperglycémie en soins aigus. Ce programme est le produit dumétissage entre le modèle de l'accompagnement thérapeutique et la systémiquedu management. Il vise l'acquisition d'une métacognition pour une réflexiontransversale face à l'hyperglycémie. Les objectifs spécifiques sont : comprendreles particularités de l'hyperglycémie en aigu ; gérer le basal/bolus ; argumenterle choix thérapeutique ; s'approprier l'outil sécuritaire d'aide à l'insulinothérapie ;anticiper la sortie du patient. Une analyse mixte a été effectuée : quantitative,glycémies, hypoglycémies, durée de séjour et qualitative, évolution de la réflexionautour de l'hyperglycémie.Résultats : Nov. 2009-2010, dans le Service de Médecine du CHUV, nous avonsdispensé 3 sessions de formation (15 cours), suivies d'une période de coaching,pour 78 internes. Évaluation quantitative : 85 patients (56,4 % H), âge moyen72,7 ± 9,6 ans, glycémies à J3 dans la cible (4-8,5 mmol/l) 44,6 %, glycémiemoyenne 8,5 ± 1,8 mmol/l, hypoglycémies 0,9 %, durée moyenne de séjour9,7 ± 5,4 J. Évaluation qualitative : choix du schéma thérapeutique pertinentdans la majorité des cas, environ 90 % des internes ont intégré les éléments depondération de l'insulinothérapie, estiment que cette formation a eu un impactpositif sur leur gestion, sont plus confiants dans leurs capacités et ont unmeilleur sentiment d'auto-efficacité. Les modalités pédagogiques adoptées ontfavorisé le transfert des compétences et le niveau de satisfaction globale atteint90 %.Conclusion : Le développement d'un programme de formation des soignants,basé sur l'approche réflexive et participative, permet une amélioration importantede la gestion de l'hyperglycémie. Notre projet s'inscrit dans une démarcheglobale visant à doter les bénéficiaires d'une vision systémique du diabète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 1990 et la fin de la Guerre Froide, les Etats-Unis d'Amérique sont devenus la première puissance mondiale, animée par l'idéal de défendre les valeurs occidentale et de répandre la démocratie dans le monde. Or, entre des racines identitaires gréco-romaines empruntées à l'Europe, et les guerres menées au Moyen-Orient contre différents ennemis, la « mission » de l'Amérique suscite critiques et interrogations, et le conflit est autant culturel que militaire. L'Iliade d'Homère au contenu guerrier, érigée par la tradition littéraire en oeuvre fondatrice de l'Occident, offre aux penseurs américains de tous horizons un outil de réflexion propre à éclairer ce présent si inconfortable. A travers l'étude d'un corpus tripartite inédit, ce travail se propose de questionner le rôle d'une oeuvre symbolique de l'Antiquité grecque dans le monde d'aujourd'hui, et débouche sur une réflexion plus large touchant au sens contemporain des études classiques et à la transmission du savoir au sein de la culture populaire. Dans un premier temps, elle examine des ouvrages ou articles à vocation scientifique, mais publiés pour la plupart hors du cadre académique, qui théorisent et expriment les enjeux des guerres des cultures américaines (« culture wars ») divisant conservateurs et libéraux sur la mission véritable d'une éducation libérale. Ces ouvrages se servent également de l'Iliade comme d'un miroir où se reflète les conflits modernes, afin d'atténuer le trouble contemporain en juxtaposant passé et présent. Dans un deuxième temps sont abordés les médias journalistiques et informatiques, à l'aide des résultats obtenus lors de recherches poussées, effectuées dans les archives informatiques des journaux publiés dans les capitales et villes majeures des cinquante Etats américains. De fascinantes comparaisons entre la guerre de Troie et la guerre en Irak y sont notamment construites. Le discours sur l'actualité se développe par le recours à l'Antiquité, et en tire de nombreuses « leçons » destinées au gouvernement américain et à tous les meneurs de guerres. Et dans un troisième temps, deux romans de science-fiction, Ilium (2003) et sa suite Olympos (2005), de Dan Simmons, fournissent un fascinant complément littéraire au reste du corpus. Imprégnés par les culture wars, ils transposent l'Iliade dans un lointain futur et expriment sous une forme nouvelle toutes les interrogations brûlantes qui, aujourd'hui particulièrement, animent une Amérique troublée tant par ses guerres que par la remise en question de son identité occidentale. Par cette réunion de trois domaines dissemblables, ce travail pose aussi de nombreuses questions épistémologiques sur la circulation de l'information, la transformation des savoirs, le flou des frontières entre les genres, la révolution que représente Internet, et la fragmentation progressive de la bulle académique. Il propose également de nombreuses perspectives d'ouverture permettant de poursuivre cette recherche. Car la réception contemporaine de l'Iliade - et de l'Antiquité en général - est un domaine riche et dynamique, qui présente l'avantage - ou l'inconvénient, c'est selon - d'être toujours d'actualité. L'inconfort du présent ne devrait pas empêcher son étude, car les résultats sont extrêmement révélateurs de la véritable relation qu'entretiennent les hommes d'aujourd'hui - et non plus seulement les savants - avec leur passé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans la lignée des récents travaux de réévaluation de l'histoire des études cinématographiques. Son objectif est de réviser la conception actuelle de l'historiographie du cinéma en France de 1896 jusqu'au début des années 1950 en remettant en question la vision homogène du courant historique de l'histoire traditionnelle du cinéma telle que l'ont présentée les tenants de la nouvelle histoire du cinéma. Cette thèse se divise en trois parties. J'expose dans la première mon cadre et mon principal outil d'analyse. Je présente l'opération historiographique telle que définie par Michel de Certeau, soit comme le croisement d'un lieu social marqué par des cadres intellectuels dominants, d'un ensemble de procédures dont l'historien se sert pour sélectionner ses sources et construire les faits, et enfin, d'une écriture qui implique l'élaboration d'un système de relations entre les différents faits construits. Je décris ensuite les courants historiques en France des années 1870 jusqu'au début des années 1950. Ce panorama me permet de mieux identifier les échanges, les emprunts et les enrichissements qui se sont opérés entre l'histoire et l'histoire du cinéma durant cette période. Dans la deuxième partie, je « construis » depuis l'intérieur d'un vaste ensemble de discours d'historiens du cinéma, d'historiens de la culture et de théoriciens du cinéma ce qui deviendra la conception dominante de l'historiographie du cinéma. Je montre qu'elle est élaborée par ceux que plusieurs commentateurs nomment les nouveaux historiens du cinéma et qu'elle se réduit à la succession de deux grands courants historiques : l'histoire traditionnelle et la nouvelle histoire du cinéma. J'expose ensuite comment cet acte de périodisation est instrumentalisé par ceux qui l'effectuent. L'objectif des nouveaux historiens n'est pas d'exhumer la pluralité des écritures de l'histoire du cinéma, mais plutôt de mettre en évidence la rupture qu'ils opèrent au sein de l'historiographie du cinéma. L'examen de la place accordée au dispositif cinématographique Hale's Tours dans les histoires générales parues avant et après le Congrès de Brighton me permet finalement d'atténuer la rupture entre ces deux courants historiques. Dans la troisième partie, j'engage l'examen de plusieurs manières d'approcher l'histoire du cinéma. J'identifie différentes ruptures dans l'historiographie française du cinéma concernant l'objet historique que les historiens se donnent, les outils conceptuels qu'ils convoquent et leurs relations aux sources qu'ils utilisent. Ces études de cas me permettent au final de témoigner de la richesse de l'historiographie française du cinéma avant le début des années 1950.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à trois années de concertation, le Département de l'instruction publique du canton de Genève a mis en place un « nouveau fonctionnement » de l'enseignement primaire à la rentrée scolaire de septembre 2008. La mise en oeuvre du nouveau dispositif était accompagnée de la création d'un outil d'évaluation externe appelé « Observatoire du fonctionnement de l'enseignement primaire ». L'analyse de cet outil d'évaluation fait l'objet du présent article. La problématique développée vise à montrer que, si l'expertise en matière d'évaluation de l'éducation n'est pas la science, elle peut toutefois être modestement fondée sur les valeurs de la production des connaissances, voire contribuer à quelque production de connaissances limitées aux « hypothèses mineures qui jaillissent chaque jour à foison dans le travail quotidien de la recherche » (Merton, 1965, pp. 13-14).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Un jour viendra où le principal avantage d'apprendre la médecine sera de se protéger contre les médecins ». Cette phrase de Jacques Ferron illustre bien le sentiment que certain-e-s patient-e-s cultivent à l'égard du corps médical, une confiance en les connaissances fournies par la science, mais une méfiance envers ceux chargés de les transmettre. La pilule contraceptive en est certainement l'emblème. Ce médicament apparu il y a maintenant 52 ans, fait depuis son apparition l'objet de débats intenses. Débats tant sociaux que médicaux. Aujourd'hui, la contraception orale est devenue la forme de contraception la plus utilisée dans le monde occidental mais malgré sont succès, elle reste toujours au centre des débats. Toutefois le contexte, les préoccupations et même la pilule ont changés. Le contexte actuel pousse les femmes à prendre la pilule, pour diverses raisons, soit personnelles, sociales, médicales ou commerciales. D'un côté elle est présentée comme la contraception « idéale », comme l'outil permettant à une femme d'avoir une vie sexuelle et professionnelle « libérée » avec un rapport risques- bénéfices optimal et de l'autre côté les femmes se posent des questions face à une pilule qui doit être prise quotidiennement et souvent à long terme. Une pilule dont elles entendent régulièrement parler dans les médias comme véhiculant un danger camouflé par un complot pharmaco-médical. Parfois commencée à un jeune âge, lorsque l'on est plus tout à fait enfant et loin d'être femme, ce contraceptif accompagne leurs premières aventures sexuelles et leurs premiers pas dans leur processus de construction en tant que femme. Mais très vite la pilule pose de nombreuses questions. Parce que les copines en parlent, parce que les médias en parlent, parce qu'elles ont l'impression d'avoir prit du poids, d'avoir une baisse de libido, d'être plus triste. Les médecins parlent d'un médicament peu dangereux, avec peu d'effets secondaires, mais elles ne se sentent pas rassurées. Parce que partout on nous dit que la pilule peut être dangereuse. Il y a ce reportage sur cette fille qui a fait un AVC, il y a cette amie qui portera un collant (bas à compression) à vie, il y a cet article qui dit que les poissons changent de sexe à cause des oestrogènes de leur pilule. Il y a ce sentiment que l'on ne leur dit pas tout.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le cancer de la vessie est la 4ème cause de cancer en Europe, chez l'homme. Dans 70% des¦cas, le diagnostic initial de cancer transitionnel de la vessie est non-musculo invasif mais jusqu'à 45%¦progresseront en tumeur musculo-invasive selon des facteurs de risques qui ont été scorés par¦l'Organisation européenne de recherche sur le traitement du cancer (EORTC). Après résection¦endoscopique transuréthrale vésicale (RTUV) de la tumeur, une instillation intravésicale (ives) d'agents¦chimiothérapeutiques ou d'immunomodulateurs tel que le Bacille Calmette Guérin (BCG) permet de¦réduire les récurrences/progressions. Cependant l'utilisation du BCG est limitée aux patients avec un risque¦de progression haut et intermédiaire au vu des effets secondaires occasionnés. Le système immunitaire¦joue un rôle certain dans l'évolution d'un processus néoplasique. Toutefois, les cancers adoptent différents¦mécanismes pour supprimer la réponse antitumorale. La variation de l'environnement immunologique¦tumoral pourrait avoir une valeur pronostique pour l'évolution naturelle de la maladie. Le but de notre¦étude est d'utiliser des coupes paraffines archivées de RTUV afin de définir l'environnement immunitaire¦des carcinomes urothéliaux non musculo-invasifs, en particulier les caractéristiques immunosuppressives,¦comme prédictif d'un comportement de progression néoplasique.¦Méthodologie : L'exploration d'une base de données de patients suivis pour le cancer de la vessie au¦CHUV afin de faire un choix des coupes de RTUV à examiner a été réalisée. Une approche transversale a été¦abordée en regroupant des patients de stades tumoraux différents ou en évaluant des foyers tumoraux¦multiples au sein de la vessie d'un même patient à un moment donné (i.e lors d'une même RTUV). Une¦approche longitudinale a également été adoptée avec comme objectif de comparer, chez le même patient,¦des tumeurs de stades, de grades et de score de risque de progression de l'EORTC différents au cours du¦temps. L'ARN des tissus de RTUV fixés au formol et enrobés en paraffine a été extrait et purifié. Un kit¦d'amplification en temps réel par réaction en chaîne par polymérase (RCP) pour 84 gènes impliqués dans¦l'anergie des cellules T et la tolérance immunitaire a été utilisé.¦Résultat : Nous avons réuni les informations cliniques de 157 sujets atteints de tumeur vésicale non¦musculo-invasive. 35% des sujets ont reçu une chimiothérapie ives et 40 % ont reçu du BCG ives. Les troisquarts¦de ces derniers ont reçu un cycle de BCG complet (6 semaines). Néanmoins, 38 % d'entre eux vont¦tout de même subir une progression de leur cancer. Les scores de progression de l'EORTC ont pu être¦calculés pour 94 sujets (39% haut risque, 42 % risque intermédiaire et 19% bas risque). 76% des patients à¦haut risque a été traité avec du BCG ives. Parmi les patients avec un risque intermédiaire de progression,¦seuls 15 % ont effectivement progressé incluant 2 patients avec des échantillons de RTUV disponibles pour¦analyse. L'analyse par RCP s'est focalisée sur une approche longitudinale incluant 6 patients suivis sur une¦longue période avec de multiples RTUV. 29 échantillons ont été sélectionnés, leur ARN purifiés, mais seuls¦16 ARN se sont révélés en quantité et qualité suffisante pour être analysé par RCP. L'analyse par RCP¦quantitative en temps réel a montré des problèmes dans la quantification de l'ADN génomique, ainsi que¦des gènes domestiques. Ceci a grandement handicapé nos analyses et n'a pas permis la mise en évidence¦convaincante de gènes immuno-modulateurs associés à la progression du cancer de la vessie.¦Discussion : Notre analyse du suivi des patients au CHUV montre que les chirurgiens façonnent leur prise¦en charge durant l'intervention selon des critères adaptés à la situation et tendent ainsi à une stratification¦des risques permettant un traitement adapté, de la même manière que le permet le score de l'EORTC, en¦tous cas en ce qui concerne les patients à haut risque de progression. Les nombreux facteurs impliqués¦dans le cancer de la vessie montrent néanmoins qu'il y aurait des avantages à rationaliser la prise en charge. L'archivage de tissus fixé au formol et enrobé en paraffine a l'avantage de représenter une source¦de matériel considérable et de grande valeur pour la recherche. Néanmoins, malgré l'évolution des¦techniques et la publicité des fabricants, il s'est avéré difficile d'exploiter ce matériel délicat pour en¦obtenir des résultats convaincants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: la planification infirmière de sortie des personnes âgées est une composante importante des soins pour assurer une transition optimale entre l'hôpital et la maison. Beaucoup d'événements indésirables peuvent survenir après la sortie de l'hôpital. Dans une perspective de système de santé, les facteurs qui augmentent ce risque incluent un nombre croissant de patients âgés, l'augmentation de la complexité des soins nécessitant une meilleure coordination des soins après la sortie, ainsi qu'une augmentation de la pression financière. Objectif: évaluer si les interventions infirmières liées à la planification de sortie chez les personnes âgées et leurs proches aidants sont prédictives de leur perception d'être prêts pour le départ, du niveau d'anxiété du patient le jour de la sortie de l'hôpital et du nombre de recours non programmé aux services de santé durant les trente jours après la sortie. Méthode: le devis est prédictif corrélationnel avec un échantillon de convenance de 235 patients. Les patients âgés de 65 ans de quatre unités d'hôpitaux dans le canton de Vaud en Suisse ont été recrutés entre novembre 2011 et octobre 2012. Les types et les niveaux d'interventions infirmières ont été extraits des dossiers de soins et analysés selon les composantes du modèle de Naylor. La perception d'être prêt pour la sortie et l'anxiété ont été mesurées un jour avant la sortie en utilisant l'échelle de perception d'être prêt pour la sortie et l'échelle Hospital Anxiety and Depression. Un mois après la sortie, un entretien téléphonique a été mené pour évaluer le recours non programmé aux services de santé durant cette période. Des analyses descriptives et un modèle randomisé à deux niveaux ont été utilisés pour analyser les données. Résultats: peu de patients ont reçu une planification globale de sortie. L'intervention la plus fréquente était la coordination (M = 55,0/100). et la moins fréquente était la participation du patient à la planification de sortie (M = 16,1/100). Contrairement aux hypothèses formulées, les patients ayant bénéficié d'un plus grand nombre d'interventions infirmières de préparation à la sortie ont un niveau moins élevé de perception d'être prêt pour le départ (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); le niveau d'anxiété n'est pas associé à la planification de sortie (r = -0,21, p <0,01) et la présence de troubles cognitifs est le seul facteur prédictif d'une réhospitalisation dans les 30 jours après la sortie de l'hôpital ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: en se focalisant sur chaque intervention de la planification de sortie, cette étude permet une meilleure compréhension du processus de soins infirmiers actuellement en cours dans les hôpitaux vaudois. Elle met en lumière les lacunes entre les pratiques actuelles et celles de pratiques exemplaires donnant ainsi une orientation pour des changements dans la pratique clinique et des recherches ultérieures. - Background: Nursing discharge planning in elderly patients is an important component of care to ensure optimal transition from hospital to home. Many adverse events may occur after hospital discharge. From a health care system perspective, contributing factors that increase the risk of these adverse events include a growing number of elderly patients, increased complexity of care requiring better care coordination after discharge, as well as increased financial pressure. Aim: To investigate whether older medical inpatients who receive comprehensive discharge planning interventions a) feel more ready for hospital discharge, b) have reduced anxiety at the time of discharge, c) have lower health care utilization after discharge compared to those who receive less comprehensive interventions. Methods: Using a predictive correlational design, a convenience sample of 235 patients was recruited. Patients aged 65 and older from 4 units of hospitals in the canton of Vaud in Switzerland were enrolled between November 2011 and October 2012. Types and level of interventions were extracted from the medical charts and analyzed according to the components of Naylor's model. Discharge readiness and anxiety were measured one day before discharge using the Readiness for Hospital Discharge Scale and the Hospital Anxiety and Depression scale. A telephone interview was conducted one month after hospital discharge to asses unplanned health services utilization during this follow-up period. Descriptive analyses and a two- level random model were used for statistical analyses. Results: Few patients received comprehensive discharge planning interventions. The most frequent intervention was Coordination (M = 55,0/100) and the least common was Patient participation in the discharge planning (M = 16,1/100). Contrary to our hypotheses, patients who received more nursing discharge interventions were significantly less ready to go home (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); their anxiety level was not associated with their readiness for hospital discharge (r = -0,21, p <0,01) and cognitive impairment was the only factor that predicted rehospitalization within 30 days after discharge ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: By focusing on each component of the discharge planning, this study provides a greater and more detailed insight on the usual nursing process currently performed in medical inpatients units. Results identified several gaps between current and Best practices, providing guidance to changes in clinical practice and further research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Malgré les immenses progrès réalisés depuis plusieurs années en médecine obstétricale ainsi qu'en réanimation néonatale et en recherche expérimentale, l'asphyxie périnatale, une situation de manque d'oxygène autour du moment de la naissance, reste une cause majeure de mortalité et de morbidité neurologique à long terme chez l'enfant (retard mental, paralysie cérébrale, épilepsie, problèmes d'apprentissages) sans toutefois de traitement pharmacologique réel. La nécessité de développer de nouvelles stratégies thérapeutiques pour les complications de l'asphyxie périnatale est donc aujourd'hui encore essentielle. Le but général de ce travail est l'identification de nouvelles cibles thérapeutiques impliquées dans des mécanismes moléculaires pathologiques induits par l'hypoxie-ischémie (HI) dans le cerveau immature. Pour cela, le modèle d'asphyxie périnatale (proche du terme) le plus reconnu chez le rongeur a été développé (modèle de Rice et Vannucci). Il consiste en la ligature permanente d'une artère carotide commune (ischémie) chez le raton de 7 jours combinée à une période d'hypoxie à 8% d'oxygène. Il permet ainsi d'étudier les lésions de type hypoxique-ischémique dans différentes régions cérébrales dont le cortex, l'hippocampe, le striatum et le thalamus. La première partie de ce travail a abordé le rôle de deux voies de MAPK, JNK et p38, après HI néonatale chez le raton à l'aide de peptides inhibiteurs. Tout d'abord, nous avons démontré que D-JNKI1, un peptide inhibiteur de la voie de JNK présentant de fortes propriétés neuroprotectrices dans des modèles d'ischémie cérébrale adulte ainsi que chez le jeune raton, peut intervenir sur différentes voies de mort dont l'activation des calpaïnes (marqueur de la nécrose précoce), l'activation de la caspase-3 (marqueur de l'apoptose) et l'expression de LC3-II (marqueur de macroautophagie). Malgré ces effets positifs le traitement au D-JNKI1 ne modifie pas l'étendue de la lésion cérébrale. L'action limitée de D-JNKI1 peut s'expliquer par une implication modérée des JNKs (faiblement activées et principalement l'isotype JNK3) après HI néonatale sévère. Au contraire, l'inhibition de la voie de nNOS/p38 par le peptide DTAT-GESV permet une augmentation de 20% du volume du tissu sain à court et long terme. Le second projet a étudié les effets de l'HI néonatale sur l'autophagie neuronale. En effet, l'autophagie est un processus catabolique essentiel au bien-être de la cellule. Le type principal d'autophagie (« macroautophagie » , que nous appellerons par la suite « autophagie ») consiste en la séquestration d'éléments à dégrader (protéines ou organelles déficients) dans un compartiment spécialisé, l'autophagosome, qui fusionne avec un lysosome pour former un autolysosome où le contenu est dégradé par les hydrolases lysosomales. Depuis peu, l'excès ou la dérégulation de l'autoptiagie a pu être impliqué dans la mort cellulaire en certaines conditions de stress. Ce travail démontre que l'HI néonatale chez le raton active fortement le flux autophagique, c'est-à-dire augmente la formation des autophagosomes et des autolysosomes, dans les neurones en souffrance. De plus, la relation entre l'autophagie et l'apoptose varie selon la région cérébrale. En effet, alors que dans le cortex les neurones en voie de mort présentent des caractéristiques mixtes apoptotiques et autophagiques, ceux du CA3 sont essentiellement autophagiques et ceux du CA1 sont principalement apoptotiques. L'induction de l'autophagie après HI néonatale semble donc participer à la mort neuronale soit par l'enclenchement de l'apoptose soit comme mécanisme de mort en soi. Afin de comprendre la relation pouvant exister entre autophagie et apoptase un troisième projet a été réalisé sur des cultures primaires de neurones corticaux exposés à un stimulus apoptotique classique, la staurosporine (STS). Nous avons démontré que l'apoptose induite par la STS était précédée et accompagnée par une forte activation du flux autophagique neuronal. L'inhibition de l'autophagie de manière pharmacologique (3-MA) ou plus spécifiquement par ARNs d'interférence dirigés contre deux protéines autophagiques importantes (Atg7 et Atg5) a permis de mettre en évidence des rôles multiples de l'autophagie dans la mort neuronale. En effet, l'autophagie prend non seulement part à une voie de mort parallèle à l'apoptose pouvant être impliquée dans l'activation des calpaïnes, mais est également partiellement responsable de l'induction des voies apoptotiques (activation de la caspase-3 et translocation nucléaire d'AIF). En conclusion, ce travail a montré que l'inhibition de JNK par D-JNKI1 n'est pas un outil neuroprotecteur efficace pour diminuer la mort neuronale provoquée par l'asphyxie périnatalé sévère, et met en lumière deux autres voies thérapeutiques beaucoup plus prometteuses, l'inhibition de nNOS/p38 ou de l'autophagie. ABSTRACT : Despite enormous progress over the last«decades in obstetrical and neonatal medicine and experimental research, perinatal asphyxia, a situation of lack of oxygen around the time of the birth, remains a major cause of mortality and long term neurological morbidity in children (mental retardation, cerebral palsy, epilepsy, learning difficulties) without any effective treatment. It is therefore essential to develop new therapeutic strategies for the complications of perinatal asphyxia. The overall aim of this work was to identify new therapeutic targets involved in pathological molecular mechanisms induced by hypoxia-ischemia (HI) in the immature brain. For this purpose, the most relevant model of perinatal asphyxia (near term) in rodents has been developed (model of Rice and Vannucci). It consists in the permanent ligation of one common carotid artery (ischemia) in the 7-day-old rat combined with a period of hypoxia at 8% oxygen. This model allows the study of the hypoxic-ischemic lesion in different brain regions including the cortex, hippocampus, striatum and thalamus. The first part of this work addressed the role of two MAPK pathways (JNK and p38) after rat neonatal HI using inhibitory peptides. First, we demonstrated that D-JNKI1, a JNK peptide inhibitor presenting strong neuroprotective properties in models of cerebral ischemia in adult and young rats, could affect different cell death mechanisms including the activation of calpain (a marker of necrosis) and caspase-3 (a marker of apoptosis), and the expression of LC3-II (a marker of macroautophagy). Despite these positive effects, D-JNKI1 did not modify the extent of brain damage. The limited action of D-JNKI1 can be explained by the fact that JNKs were only moderately involved (weakly activated and principally the JNK3 isotype) after severe neonatal HI. In contrast, inhibition of nNOS/p38 by the peptide D-TAT-GESV increased the surviving tissue volume by around 20% at short and long term. The second project investigated the effects of neonatal HI on neuronal autophagy. Indeed, autophagy is a catabolic process essential to the well-being of the cell. The principal type of autophagy ("macroautophagy", that we shall henceforth call "autophagy") involves the sequestration of elements to be degraded (deficient proteins or organelles) in a specialized compartment, the autophagosome, which fuses with a lysosome to form an autolysosome where the content is degraded by lysosomal hydrolases. Recently, an excess or deregulation of autophagy has been implicated in cell death in some stress conditions. The present study demonstrated that rat neonatal HI highly enhanced autophagic flux, i.e. increased autophagosome and autolysosome formation, in stressed neurons. Moreover, the relationship between autophagy and apoptosis varies according to the brain region. Indeed, whereas dying neurons in the cortex exhibited mixed features of apoptosis and autophagy, those in CA3 were primarily autophagíc and those in CA1 were mainly apoptotic. The induction of autophagy after neonatal HI seems to participate in neuronal death either by triggering apoptosis or as a death mechanism per se. To understand the relationships that may exist between autophagy and apoptosis, a third project has been conducted using primary cortical neuronal cultures exposed to a classical apoptotic stimulus, staurosporine (STS). We demonstrated that STS-induced apoptosis was preceded and accompanied by a strong activation of neuronal autophagic flux. Inhibition of autophagy pharmacologically (3-MA) or more specifically by RNA interference directed against two important autophagic proteins (Atg7 and AtgS) showed multiple roles of autophagy in neuronal death. Indeed, autophagy was not only involved in a death pathway parallel to apoptosis possibly involved in the activation of calpains, but was also partially responsible for the induction of apoptotic pathways (caspase-3 activation and AIF nuclear translocation). In conclusion, this study showed that JNK inhibition by D-JNKI1 is not an effective neuroprotective tool for decreasing neuronal death following severe perinatal asphyxia, but highlighted two more promising therapeutic approaches, inhibition of the nNOSlp38 pathway or of autophagy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de gestion des eaux souterraines doivent souvent être justiffées par des modèles quantitatifs d'aquifères qui tiennent compte de l'hétérogénéité des propriétés hydrauliques. Les aquifères fracturés sont parmi les plus hétérogènes et très difficiles à étudier. Dans ceux-ci, les fractures connectées, d'ouverture millimètrique, peuvent agir comme conducteurs hydrauliques et donc créer des écoulements très localisés. Le manque général d'informations sur la distribution spatiale des fractures limite la possibilité de construire des modèles quantitatifs de flux et de transport. Les données qui conditionnent les modèles sont généralement spatialement limitées, bruitées et elles ne représentent que des mesures indirectes de propriétés physiques. Ces limitations aux données peuvent être en partie surmontées en combinant différents types de données, telles que les données hydrologiques et de radar à pénétration de sol plus commun ément appelé géoradar. L'utilisation du géoradar en forage est un outil prometteur pour identiffer les fractures individuelles jusqu'à quelques dizaines de mètres dans la formation. Dans cette thèse, je développe des approches pour combiner le géoradar avec les données hydrologiques affn d'améliorer la caractérisation des aquifères fracturés. Des investigations hydrologiques intensives ont déjà été réalisées à partir de trois forage adjacents dans un aquifère cristallin en Bretagne (France). Néanmoins, la dimension des fractures et la géométrie 3-D des fractures conductives restaient mal connue. Affn d'améliorer la caractérisation du réseau de fractures je propose dans un premier temps un traitement géoradar avancé qui permet l'imagerie des fractures individuellement. Les résultats montrent que les fractures perméables précédemment identiffées dans les forages peuvent être caractérisées géométriquement loin du forage et que les fractures qui ne croisent pas les forages peuvent aussi être identiffées. Les résultats d'une deuxième étude montrent que les données géoradar peuvent suivre le transport d'un traceur salin. Ainsi, les fractures qui font partie du réseau conductif et connecté qui dominent l'écoulement et le transport local sont identiffées. C'est la première fois que le transport d'un traceur salin a pu être imagé sur une dizaines de mètres dans des fractures individuelles. Une troisième étude conffrme ces résultats par des expériences répétées et des essais de traçage supplémentaires dans différentes parties du réseau local. En outre, la combinaison des données de surveillance hydrologique et géoradar fournit la preuve que les variations temporelles d'amplitude des signaux géoradar peuvent nous informer sur les changements relatifs de concentrations de traceurs dans la formation. Par conséquent, les données géoradar et hydrologiques sont complémentaires. Je propose ensuite une approche d'inversion stochastique pour générer des modèles 3-D de fractures discrètes qui sont conditionnés à toutes les données disponibles en respectant leurs incertitudes. La génération stochastique des modèles conditionnés par géoradar est capable de reproduire les connexions hydrauliques observées et leur contribution aux écoulements. L'ensemble des modèles conditionnés fournit des estimations quantitatives des dimensions et de l'organisation spatiale des fractures hydrauliquement importantes. Cette thèse montre clairement que l'imagerie géoradar est un outil utile pour caractériser les fractures. La combinaison de mesures géoradar avec des données hydrologiques permet de conditionner avec succès le réseau de fractures et de fournir des modèles quantitatifs. Les approches présentées peuvent être appliquées dans d'autres types de formations rocheuses fracturées où la roche est électriquement résistive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La notion de « médiateurs » est moderne, mais elle apparaît néanmoins comme un objet et un outil de recherche intéressants pour d'autres périodes que la nôtre, car un « médiateur » est plus qu'un lien ou un intermédiaire passif. Par sa position médiane, le médiateur exerce une action susceptible d'opérer des échanges entre plusieurs cultures, ou bien de construire un dialogue entre plusieurs groupes sociaux ou politiques et, le cas échéant, d'éviter un conflit. Nous avons ainsi souhaité appliquer cette notion au cadre de l'Empire romain, caractérisé par la diversité identitaire. Quelles étaient les figures de médiateurs culturels et politiques au sein de cet Empire ? Pour quelles raisons certains voyageurs, intellectuels, athlètes et artistes, administrateurs, marchands etc., ont-ils été conduits à endosser ce rôle, consciemment ou inconsciemment ? Quels étaient leurs rapports avec le pouvoir romain et leurs marges de manoeuvre à l'égard des institutions ? Quelle était l'efficacité de leur action ? Pour répondre à ces questions et pour éprouver la pertinence de cette notion de « médiateurs », cet ouvrage réunit une série d'études portant sur différents types de médiateurs : « passeurs de culture », relais du pouvoir politique, acteurs de la régulation sociale et politique, que l'on peut trouver à l'oeuvre dans l'Empire de Rome, entre le IIe siècle av. J.-C. et le IVe siècle de notre ère. Ils sont analysés à partir de sources littéraires et épigraphiques.