363 resultados para Efficacité populationnelle
Resumo:
L'approche décisionnelle met l'accent sur la manière dont l'individu aborde et négocie les décisions à différents moments de son parcours. Le modèle PIC propose un outil qui permet d'accompagner le processus décisionnel systématiquement. Souvent les conseillers ont tendance à le suivre de manière intuitive. Cependant, un suivi structuré pourrait améliorer l'efficacité de leurs interventions.
Resumo:
Résumé de la thèse en français Titre : Différence entre hommes et femmes dans la réponse à un inhibiteur de l'enzyme de conversion de l'angiotensine et un diurétique chez des patients hypertendus d'origine Africaine. Introduction: L'efficacité des inhibiteurs de l'enzyme de conversion de l'angiotensine (ACEI) dans le traitement de l'hypertension artérielle chez les patients africains est controversée. Objectif: Nous avons examiné la baisse de la tension artérielle ambulatoire (ABP) en réponse à un diurétique et un ACEI chez des patients hypertendus d'origine africaine et nous avons évalué les différentes caractéristiques déterminant l'efficacité du traitement. Méthodes: Etude en simple-aveugle randomisée, en crossover AB/BA. Arrangement Familles hypertendues d'origine africaine de la population générale des Seychelles. Participants : 52 patients (29 hommes et 23 femmes) sur 62 patients hypertendus éligibles ont été inclus. Le principal résultat était la mesure de la réponse de l'ABP à 20 mg de lisinopril (LIS) ou 25 mg d'hydrochlorothiazide (HCT) quotidiennement pendant quatre semaines. Résultats: Le jour, la réponse systolique/diastolique de l'ABP sous HCT était de 4.9 (95% intervalle de confiance (IC) 1.2-8.6)/3.6 (1.0-6.2) mm Hg pour les hommes et 12.9 (9.216.6)/6.3 (3.7-8.8) mm Hg pour les femmes. Sous LIS, la réponse était de 18.8 (15.022.5)/14.6 (12.0-17.1) mm Hg pour les hommes et de 12.4 (8.7-16.2)/7.7 (5.1-10.2) mm Hg pour les femmes. La nuit, la réponse systolique/diastolique sous HCT était de 5.0 (0.6-9.4)/2.7 ((-0.4)-5.7) mm Hg pour les hommes et de 11.5 (7.1-16.0)/5.7 (2.6-8.8) mm Hg pour les femmes, et sous LIS était de 18.7 (14.2-22.1)/15.4 (12.4-18.5) mm Hg pour les hommes et de 3.5 ((-1.0)-7.9)/2.3 ((-0.8)-5.4) mm Hg pour les femmes. L'analyse de régression linéaire multiple a montré que le sexe est un prédicteur indépendant de la réponse tensionnelle à l'HCT et au LIS. Conclusions : Les patients hypertendus d'origine africaine ont présenté une baisse tensionnelle plus grande en réponse au LIS qu'à l'HCT. Les hommes ont mieux répondu au LIS qu'à l'HCT alors que les femmes ont répondu de manière similaire aux deux traitements.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Le modèle de l'agence et le phénomène d'agentification du service public correspondant au cours de ces deux dernières décennies s'inscrit à l'origine dans les réformes associées à la Nouvelle Gestion Publique, dans une visée d'amélioration de la performance du secteur public, par une plus grande efficacité managériale (eg Pollitt et al., 2001). Le modèle est basé sur une logique contractuelle: l'autorité politique attribue un mandat à l'agence, l'agence délivre les prestations attendues ; celle-ci est ensuite contrôlée sur ses résultats. Afin de délivrer les prestations de manière efficiente et efficace, l'agence doit bénéficier d'une latitude et flexibilité substantielle dans l'utilisation de ces ressources, c'est-à-dire d'un affranchissement (partiel) des règles et procédures bureaucratiques (eg Bouckaert, 2003).
Resumo:
En lien avec la prise de conscience de l'importance du patrimoine géologique et géomorphologique, les géomorphosites ont obtenu une attention croissante de la part de la communauté scientifique. Des méthodes d'évaluation, de classification et des stratégies de conservation ont été développées afin de sauvegarder le géopatrimoine pour les générations présentes et futures. Parallèlement, des programmes éducatifs et de loisirs ainsi que divers projets de développement local ont été créés ces dernières années afin de promouvoir et sauvegarder le géopatrimoine. Que ce soit pour l'évaluation, la conservation ou la promotion, la cartographie des géomorphosites est utile à plusieurs égards. Les cartes peuvent fournir des données fondamentales pour la description détaillée des géomorphosites, servir d'aide à la décision, par exemple dans la définition des priorités de protection, ou soutenir la valorisation et la médiation du géopatrimoine. Cette étude fait l'état de l'avancement et des objectifs encore à atteindre dans le domaine de la cartographie des géomorphosites et propose un cadre général prenant en compte les différents objectifs et publics. L'objectif principal de cette étude est la cartographie des géomorphosites pour un public de non - spécialistes dans le domaine de la valorisation du géopatrimoine ( géotourisme ). Dans ce contexte, les cartes sont souvent utilisées pour montrer les itinéraires ou les points d'intérêt. Elles peuvent cependant également servir à représenter des données géoscientifiques afin de visualiser les processus qui ont contribué à la formation d'un géomorphosite ou d'un paysage géomorphologique et qui ne sont plus ou pas toujours clairement visibles dans le paysage. Dans ce cas, les cartes deviennent des outils de visualisation, comme un schéma ou un diagramme. L'enjeu de la cartographie pour non - spécialistes réside dans un transfert efficace des informations entre le cartographe et l'utilisateur. Par conséquent, nous focalisons l'attention à la fois sur la réalisation de la carte par le cartographe (quelle information? Quel mode de visualisation?) et sur l 'interprétation de la carte par l'utilisateur (efficacité de la transmission). Notre recherche est basée sur des études empiriques, menées dans la vallée de Maderan (canton d'Uri) et dans des classes des cantons d'Uri et du Tessin, visant à acquérir des connaissances sur la familiarité et les intérêts des non - spécialistes par rapport au géopatrimoine, ainsi que sur leurs compétences en matière de lecture de carte. L'objectif final est de formuler des propositions méthodologiques pour la cartographie des géomorphosites à des fins de valorisation.
Resumo:
Les syndromes neuropathiques sont caractérisés par une douleur d'intensité élevée, de longue durée et résistante aux analgésiques classiques. De fait, il existe un risque important de répercussions sur la vie et le bien-être des patients. A travers une vignette clinique, cet article abordera le diagnostic, le traitement spécifique et l'impact de la douleur neuropathique sur la qualité de vie et les conséquences psychologiques associées, comme la dépression et l'anxiété. Nous présenterons des outils validés qui permettent d'objectiver la composante neuropathique aux douleurs et les comorbidités psychiatriques associées. Cette évaluation globale favorise un meilleur dialogue avec les patients ainsi que l'élaboration de stratégies thérapeutiques, notamment par le biais d'antidépresseurs, dont l'efficacité sera discutée en fin d'article. Neuropathic pain syndromes are characterized by intense and long lasting pain that is resistant to usual analgesics. Patients are therefore at high risk of decreased quality of life and impaired well-being. Using a case report, we will consider in this article the diagnosis and treatment of neuropathic pain as well as its impact on the quality of life including psychological consequences such as depression and anxiety. We will present simple and reliable scales that can help the general practitioner evaluate the neuropathic component of the pain syndrome and its related psychiatric co-morbidities. This comprehensive approach to pain management should facilitate communication with the patient and help the practitioner select the most appropriate therapeutic strategy, notably the prescription of antidepressants, the efficacy of which we will discuss at the end of the article.
Resumo:
Résumé : Emotion et cognition sont deux termes généralement employés pour désigner des processus psychiques de nature opposée. C'est ainsi que les sciences cognitives se sont longtemps efforcées d'écarter la composante «chaude »des processus «froids »qu'elles visaient, si ce n'est pour montrer l'effet dévastateur de la première sur les seconds. Pourtant, les processus cognitifs (de collecte, maintien et utilisation d'information) et émotioAnels (d'activation subjective, physiologique et comportementale face à ce qui est attractif ou aversif) sont indissociables. Par l'approche neuro-éthologique, à l'interface entre le substrat biologique et les manifestations comportementales, nous nous sommes intéressés à une fonction cognitive essentielle, la fonction mnésique, classiquement exprimée chez le rongeur par l'orientation spatiale. Au niveau du substrat, McDonald et White (1993) ont montré la dissociation de trois systèmes de mémoire, avec les rôles de l'hippocampe, du néostriatum et de l'amygdale dans l'encodage des informations respectivement épisodiques, procédurales et émotionnelles. Nous nous sommes penchés sur l'interaction entre ces systèmes en fonction de la dimension émotionnelle par l'éclairage du comportement. L'état émotionnel de l'animal dépend de plusieurs facteurs, que nous avons tenté de contrôler indirectement en comparant leurs effets sur l'acquisition, dans diverses conditions, de la tâche de Morris (qui nécessite la localisation dans un bassin de la position d'une plate-forme submergée), ainsi que sur le style d'exploration de diverses arènes, ouvertes ou fermées, plus ou moins structurées par la présence de tunnels en plexiglas transparent. Nous avons d'abord exploré le rôle d'un composant du système adrénergique dans le rapport à la difficulté et au stress, à l'aide de souris knock-out pour le récepteur à la noradrénaline a-1 B dans un protocole avec 1 ou 4 points de départ dans un bassin partitionné. Ensuite, nous nous sommes penchés, chez le rat, sur les effets de renforcement intermittent dans différentes conditions expérimentales. Dans ces conditions, nous avons également tenté d'analyser en quoi la situation du but dans un paysage donné pouvait interférer avec les effets de certaines formes de stress. Finalement, nous avons interrogé les conséquences de perturbations passées, y compris le renforcement partiel, sur l'organisation des déplacements sur sol sec. Nos résultats montrent la nécessité, pour les souris cont~ô/es dont l'orientation repose sur l'hippocampe, de pouvoir varier les trajectoires, ce qui favoriserait la constitution d'une carte cognitive. Les souris a->B KO s'avèrent plus sensibles au stress et capables de bénéficier de la condition de route qui permet des réponses simples et automatisées, sous-tendues par l'activité du striatum. Chez les rats en bassin 100% renforcé, l'orientation apparaît basée sur l'hippocampe, relayée par le striatum pour le développement d'approches systématiques et rapides, avec réorientation efficace en nouvelle position par réactivation dépendant de l'hippocampe. A 50% de renforcement, on observe un effet du type de déroulement des sessions, transitoirement atténué par la motivation Lorsque les essais s'enchaînent sans pause intrasession, les latences diminuent régulièrement, ce qui suggère une prise en charge possible par des routines S-R dépendant du striatum. L'organisation des mouvements exploratoires apparaît dépendante du niveau d'insécurité, avec différents profils intermédiaires entre la différentiation maximale et la thigmotaxie, qui peuvent être mis en relation avec différents niveaux d'efficacité de l'hippocampe. Ainsi, notre travail encourage à la prise en compte de la dimension émotionnelle comme modulatrice du traitement d'information, tant en phase d'exploration de l'environnement que d'exploitation des connaissances spatiales. Abstract : Emotion and cognition are terms widely used to refer to opposite mental processes. Hence, cognitive science research has for a long time pushed "hot" components away from "cool" targeted processes, except for assessing devastating effects of the former upon the latter. However, cognitive processes (of information collection, preservation, and utilization) and emotional processes (of subjective, physiological, and behavioral activation roue to attraction or aversion) are inseparable. At the crossing between biological substrate and behavioral expression, we studied a chief cognitive function, memory, classically shown in animals through spatial orientation. At the substrate level, McDonald et White (1993) have shown a dissociation between three memory systems, with the hippocampus, neostriatum, and amygdala, encoding respectively episodic, habit, and emotional information. Through the behavior of laboratory rodents, we targeted the interaction between those systems and the emotional axis. The emotional state of an animal depends on different factors, that we tried to check in a roundabout way by the comparison of their effects on acquisition, in a variety of conditions, of the Morris task (in which the location of a hidden platform in a pool is required), as well as on the exploration profile in different apparatus, open-field and closed mazes, more or less organized by clear Plexiglas tunnels. We first tracked the role, under more or less difficult and stressful conditions, of an adrenergic component, with knock-out mice for the a-1 B receptor in a partitioned water maze with 1 or 4 start positions. With rats, we looked for the consequences of partial reinforcement in the water maze in different experimental conditions. In those conditions, we further analyzed how the situation of the goal in the landscape could interfere with the effect of a given stress. At last, we conducted experiments on solid ground, in an open-field and in radial mazes, in order to analyze the organization of spatial behavior following an aversive life event, such as partial reinforcement training in the water maze. Our results emphasize the reliance of normal mice to be able to vary approach trajectories. One of our leading hypotheses is that such strategies are hippocampus-dependent and are best developed for of a "cognitive map like" representation. Alpha-1 B KO mice appear more sensitive to stress and able to take advantage of the route condition allowing simple and automated responses, most likely striatum based. With rats in 100% reinforced water maze, the orientation strategy is predominantly hippocampus dependent (as illustrated by the impairment induced by lesions of this structure) and becomes progressively striatum dependent for the development of systematic and fast successful approaches. Training towards a new platform position requires a hippocampus based strategy. With a 50% reinforcement rate, we found a clear impairment related to intersession disruption, an effect transitorily minimized by motivation enhancement (cold water). When trials are given without intrasession interruption, latencies consistently diminish, suggesting a possibility for striatum dependent stimulus-response routine to occur. The organization of exploratory movements is shown to depend on the level of subjective security, with different intermediary profiles between maximum differentiation and thigmotaxy, which can be considered in parallel with different efficiency levels of the hippocampus dependent strategies. Thus, our work fosters the consideration of emotion as a cognitive treatment modulator, during spatial exploration as well as spatial learning. It leads to a model in which the predominance of hippocampus based exploration is challenged by training conditions of various nature.
Resumo:
La Suisse est très mal préparée à la généralisation des DRG, en raison surtout du manque d'efficacité de la gouvernance et de la régulation économique du système de santé. Une période de transition est nécessaire. [Ed.]
Resumo:
Résumé Le but final de ce projet est d'utiliser des cellules T ou des cellules souches mésenchymateuses modifiées génétiquement afin de surexprimer localement les deux chémokines CXCL13 et CCL2 ensemble ou chacune séparément à l'intérieur d'une tumeur solide. CXCL13 est supposé induire des structures lymphoïdes ectopiques. Un niveau élevé de CCL2 est présumé initier une inflammation aiguë. La combinaison des deux effets amène à un nouveau modèle d'étude des mécanismes régulateur de la tolérance périphérique et de l'immunité tumorale. Les connaissances acquises grâce à ce modèle pourraient permettre le développement ou l'amélioration des thérapies immunes du cancer. Le but premier de ce travail a été l'établissement d'un modèle génétique de la souris permettant d'exprimer spécifiquement dans la tumeur les deux chémokines d'intérêt à des niveaux élevés. Pour accomplir cette tâche, qui est en fait une thérapie génétique de tumeurs solides, deux types de cellules porteuses potentielles ont été évaluées. Des cellules CD8+ T et des cellules mésenchymateuses de la moelle osseuse transférées dans des receveurs portant une tumeur. Si on pouvait répondre aux besoins de la thérapie génétique, indépendamment de la thérapie immune envisagée, on posséderait là un outil précieux pour bien d'autres approches thérapeutiques. Plusieurs lignées de souris transgéniques ont été générées comme source de cellules CD8+ T modifiées afin d'exprimer les chémokines d'intérêt. Dans une approche doublement transgénique les propriétés de deux promoteurs spécifiques de cellules T ont été combinées en utilisant la technologie Cre-loxP. Le promoteur de granzyme B confère une dépendance d'activation et le promoteur distal de lck assure une forte expression constitutive dès que les cellules CD8+ T ont été activées. Les transgènes construits ont montré une bonne performance in vivo et des souris qui expriment CCL2 dans des cellules CD8+ T activées ont été obtenues. Ces cellules peuvent maintenant être utilisées avec différents protocoles pour transférer des cellules T cytotoxiques (CTL) dans des receveurs porteur d'une tumeur, permettant ainsi d'évaluer leur capacité en tant que porteuse de chémokine d'infiltrer la tumeur. L'établissement de souris transgéniques, qui expriment pareillement CXCL13 est prévu dans un avenir proche. L'évaluation de cellules mésenchymateuses de la moelle osseuse a démontré que ces cellules se greffent efficacement dans le stroma tumoral suite à la co-injection avec des cellules tumorales. Cela représente un outil précieux pour la recherche, vu qu'il permet d'introduire des cellules manipulées dans un modèle tumoral. Les résultats confirment partiellement d'autres résultats rapportés dans un modèle amélioré. Cependant, l'efficacité et la spécificité suggérées de la migration systémique de cellules mésenchymateuses de la moelle osseuse dans une tumeur n'ont pas été observées dans notre modèle, ce qui indique, que ces cellules ne se prêtent pas à une utilisation thérapeutique. Un autre résultat majeur de ce travail est l'établissement de cultures de cellules mésenchymateuses de la moelle osseuse in vitro conditionnées par des tumeurs, ce qui a permis à ces cellules de s'étendre plus rapidement en gardant leur capacité de migration et de greffe. Cela offre un autre outil précieux, vu que la culture in vitro est un pas nécessaire pour une manipulation thérapeutique. Abstract The ultimate aim of the presented project is to use genetically modified T cells or mesenchymal stem cells to locally overexpress the two chemokines CXCL13 and CCL2 together or each one alone inside a solid tumor. CXCL13 is supposed to induce ectopic lymphoid structures and a high level of CCL2 is intended to trigger acute inflamation. The combination of these two effects represents a new model for studying mechanisms that regulate peripheral tolerance and tumor immunity. Gained insights may help developing or improving immunotherapy of cancer. The primary goal of the executed work was the establishment of a genetic mouse model that allows tumor-specific expression of high levels of the two chemokines of interest. For accomplishing this task, which represents gene therapy of solid tumors, two types of potentially useful carrier cells were evaluated. CD8+ T cells and mesenchymal bone marrow cells to be used in adoptive cell transfers into tumor-bearing mice. Irrespectively of the envisaged immunotherapy, satisfaction of so far unmet needs of gene therapy would be a highly valuable tool that may be employed by many other therapeutic approaches, too. Several transgenic mouse lines were generated as a source of CD8+ T cells modified to express the chemokines of interest. In a double transgenic approach the properties of two T cell-specific promoters were combined using Cre-loxP technology. The granzyme B promoter confers activation-dependency and the lck distal promoter assures strong constitutive expression once the CD8+ T cell has been activated. The constructed transgenes showed a good performance in vivo and mice expressing CCL2 in activated CD8+ T cells were obtained. These cells can now be used with different protocols for adoptively transferring cytotoxic T cells (CTL) into tumor-bearing recipients, thus allowing to study their capacity as tumor-infiltrating chemokine carrier. The establishment of transgenic mice likewisely expressing CXCL13 is expected in the near future. In addition, T cells from generated single transgenic mice that have high expression of an EGFP reporter in both CD4+ and CD8+ cells can be easily traced in vivo when setting up adoptive transfer conditions. The evaluation of mesenchymal bone marrow cells demonstrated that these cells can efficiently engraft into tumor stroma upon local coinjection with tumor cells. This represents a valuable tool for research purposes as it allows to introduce manipulated stromal cells into a tumor model. Therefore, the established engraftment model is suited for studying the envisaged immunotherapy. These results confirm to some extend previously reported results in an improved model, however, the suggested systemic tumor homing efficiency and specificity of mesenchymal bone marrow cells was not observed in our model indicating that these cells may not be suited for therapeutic use. Another major result of the presented work is the establishment oftumor-conditioned in vitro culture of mesenchymal bone marrow cells, which allowed to more rapidly expand these cells while maintaining their tumor homing and engrafting capacities. This offers another valuable tool as in vitro culture is a necessary step for therapeutic manipulations.
Resumo:
[Table des matières] 1. Concept de la réduction des risques. 2. Stratégie de réduction des risques en France. 3. Usage des drogues en France et principaux dommages associés. 4. Comorbidités psychiatriques chez les usagers de drogues. 5. Risques infectieux chez les usagers de drogues. 6. Evolution de l'incidence du VHC chez les usagers de drogues en France. 7. Pratiques à risque chez les fumeurs de crack. 8. Prévention de l'initiation à l'injection et transitions vers d'autres modes d'administration. 9. Traitements de substitution aux opiacés. 10. Autres traitements de la dépendance. 11. Programmes d'échange de seringues. 12. Centres d'injection supervisés. 13. Parcours de soins des usagers de drogues. 14. Rapport coût-efficacité des dispositifs de réduction des risques. 15. Dispositifs de réduction des risques en France. 16. Accessibilité et acceptabilité des actions de réduction des risques. 17. Réduction des risques adaptée aux femmes. 18. Réduction des risques en milieu pénitentiaire. Synthèse et recommandations. Communications. Usage de drogue et réduction des risques en Europe. Eléments d'histoire sur la politique de réduction des risques en France. Situation de la politique de réduction des risques en France. Approche judiciaire française. Rôle des associations dans la politique de réduction des risques en France. Prévention de la délinquance et réduction des risques et dommages sociaux au Canada. Complications liées à l'auto-injection des traitements de substitution aux opiacés. Contributions des intervenants et associations. Annexes.
Resumo:
Introduction : La diminution de la fraction d'éjection après infarctus du myocarde est-elle suffisante pour justifier l'implantation prophylactique de défibrillateur ? Introduction: La diminution de la fraction d'éjection (FE) est un facteur prédictif majeur de mortalité cardiaque chez les patients avec ancien infarctus du myocarde (IM). Les plus récentes études, pour la plupart conduites à la fin des années 90, montrent une diminution de la mortalité post-hospitalière à 10 à 20% par année. Une amélioration de la survie par implantation prophylactique de défibrillateurs a été démontrée chez les patients avec dysfonction myocardique avancée après ancien IM dans la cadre de l'étude MADIT II (Multicenter Automatic Defibrillator Implantation Trial) et est depuis lors, considérée comme une thérapie recommandée. Le bénéfice de l'implantation prophylactique de défibrillateurs en terme de nombre nécessaire de patients à traiter pour prévenir un évènement est d'un intérêt primordial en raison des complications potentielles liées à la procédure et l'appareillage, des implications psychologiques ainsi qu'en raison de l'analyse coût-efficacité. Le nombre de patients à traiter est corrélé au risque actuel de mortalité rythmique, probablement influencé par les récentes avancées thérapeutiques dans la prise en charge aigue de l'IM (notamment par angioplastie primaire) et de l'insuffisance cardiaque. Or, dans '' l'étude MADIT II, le recrutement des patients était effectué entre 1997 et 2001 et l'intervalle moyen entre l'IM et le recrutement était de plus de 6 ans. Le but de l'étude était donc d'évaluer, dans la pratique générale, la mortalité actuelle de patients ayant survécu à un IM avec diminution consécutive significative de la FE. La stratification du risque sur la base des variables hospitalières a de même été explorée. Méthode: Une analyse de cohorte de patients avec infarctus aigu du myocarde admis de 1999 à 2000 a été effectuée dans 2 centres hospitaliers (un universitaire et un cantonal). Tous les dossiers cliniques des patients sortis d'hôpital avec FE documentée ≤ 0.40 ont été inclus. Les caractéristiques des patients, les procédures diagnostiques et thérapeutiques ainsi que la médication étaient reportées. La période de suivi débutait à la sortie d'hôpital. Les end-points primaires étaient la mortalité globale, la mortalité cardiaque et les morts subites. Une analyse bivariée et multivariée a été effectuée. Résultats: 165 patients ont été inclus. Durant un suivi médian de 30 mois (interquartile range 22-36), 18 patients sont décédés (5 morts classifiées comme cardiaques, 8 comme subites, 5 de causes non cardiaques). Les taux de mortalité à un et deux ans selon analyse de Kaplan-Meier étaient de 6.7 et 8.6%, respectivement. Les variables reflétant l'atteinte coronarienne et sa prise en charge (antécédent d'IM, reperfusion aigue, revascularisation complète) étaient plus significativement associées à la mortalité comparées aux variables reflétant la dysfonction myocardique (FE, classe Killip à l'admission). Conclusion : La mortalité des patients ayant survécu à un IM avec dysfonction myocardique avancée a diminué de façon substantielle depuis la fin des années 90. La diminution de la mortalité rythmique implique une augmentation proportionnelle du nombre de patients à traiter par implantation de défibrillateur pour prévenir un évènement. Par ailleurs, une stratification du risque après IM basée uniquement sur la FE semble être inappropriée au vu de son impact mineur sur la mortalité comparé aux autres facteurs de risque identifiés dans notre étude. Les patients sans antécédents d'infarctus et ceux ayant bénéficié d'une revascularisation aigue ou complète avait une mortalité cumulée à 2 ans de, respectivement, 2.5%, 3.9% et 2.3%. Pour ce type de patients à bas risque le bénéfice de l'implantation prophylactique de défibrillateur doit être remis en question. Au vu de cette étude, une stratification additionnelle du risque avant implantation de défibrillateur est à considérer.
Resumo:
Cet article propose une mise à jour des recommandations pour le bilan de santé et la prévention primaire et secondaire de nombreuses maladies cardiovasculaires et oncologiques. Les nouveautés pour le dépistage des cancers concernent essentiellement les cancers colorectal, du poumon et de la prostate. Pour la prévention des maladies cardiovasculaires, le dépistage de la sténose de l'artère carotidienne n'est toujours pas recommandé. Les preuves de la littérature sont insuffisantes pour recommander le dépistage de l'artériopathie coronarienne ou périphérique chez les patients asymptomatiques. Le partage de l'information et de la décision entre le médecin et le patient est à privilégier lorsqu'il existe une incertitude quant à l'efficacité d'une intervention. This article provides an update on the recommendations for the routine check-up and the primary and secondary prevention of cancer and cardiovascular disease. Changes for cancer screening affect mainly colorectal, lung and prostate cancers. In the area of cardiovascular disease prevention, screening for carotid artery stenosis is still not recommended. The current evidence is insufficient to recommend screening for coronary heart disease or peripheral artery disease in asymptomatic patients. Shared information and decision making between physician and patient is recommended when there is uncertainty regarding the effectiveness of an intervention.
Resumo:
Contexte : Les patients souffrant d'un épisode dépressif sévère sont fréquemment traités par des inhibiteurs sélectifs de la recapture de la sérotonine (SSRI). Cependant, seulement 30-50% des patients répondront à ce type de traitement. Actuellement, il n'existe pas de marqueur biologique utilisable pour prédire la réponse à un traitement par SSRI. Un délai dans la mise en place d'une thérapie efficace peut avoir comme conséquences néfastes une augmentation du risque de suicide et une association avec un moins bon pronostic à long terme lors d'épisodes ultérieurs. Objectif : Par l'étude du métabolisme cérébral par tomographie par émission de positons (PET) au F-18-fluorodeoxyglucose (FDG), nous étudierons la présence de corrélations éventuelles entre la réponse clinique, qui généralement survient dans les 4 à 6 semaines après l'instauration du traitement antidépresseur, et une modification du métabolisme cérébral mesuré plus précocement, dans le but d'identifier les futurs répondeurs au traitement par SSRI. Méthodes : Cette étude longitudinale comprendra 20 patients unipolaires avec un épisode dépressif sévère au bénéfice d'un traitement par SSRI. Chacun des patients aura deux examens PET cérébraux au F-18-FDG. Le premier PET aura lieu juste avant le début du traitement aux SSRI et le second dans la 3ème semaine après début du traitement. La réponse clinique sera mesurée à 3 mois, et les répondeurs seront identifiés par une diminution significative des scores lors d'évaluation sur échelles de dépression. La recherche d'altérations métaboliques cérébrales sera faite en évaluant: (1) l'examen de base ou (2) l'examen PET précoce, à la recherche d'altérations spécifiques corrélées à une bonne réponse clinique, afin d'obtenir une valeur pronostique quant à la réponse au traitement. L'analyse de l'imagerie cérébrale utilisera la technique SPM (Statistical Parameter Mapping) impliquant un traitement numérique voxel par voxel des images PET. Résultats escomptés : Cette étude caractérisant les variations du métabolisme cérébral dans la phase précoce d'un traitement par SSRI vise à identifier des marqueurs métaboliques potentiels fournissant une valeur prédictive quant à la future efficacité du traitement SSRI introduit. Plus-value escomptée : L'identification d'un tel marqueur métabolique permettrait d'identifier rapidement les futurs répondeurs aux SSRI, et par conséquent d'éviter de proposer aux non-répondeurs la poursuite d'une médication, pendant plusieurs semaines, qui aurait peu de chance d'être efficace. Ainsi, une identification précoce des répondeurs aux SSRI pourrait permettre d'éviter des délais dans la mise en place d'une thérapie efficace et d'obtenir une amélioration du pronostic à plus long terme, avec une influence favorable sur les coûts de la santé.