589 resultados para Facteurs contextuels
Resumo:
L'état de mal épileptique est une condition médicale sévère fréquemment rencontrée dont la mortalité est importante. Son traitement représente donc une urgence médicale. Il a déjà été démontré par des études bien conduites (Treiman et al., 1998) que l'administration de benzodiazépines est efficace en première intention. Or, 35-45% des états de mal échappent à ce traitement et malheureusement, les données scientifiques concernant le traitement de deuxième ligne sont nettement moins consistantes. Par ailleurs, si le rôle pronostique des caractéristiques de l'état de mal (type de crise, étiologie, état de conscience, âge du patient) sont connues (Rossetti et al., 2006), (Neligan and Shorvon, 2011), le rôle des comorbidités n'a reçu que peu d'attention à ce Dans la première partie de ce travail publiée dans Epilepsia (Alvarez et al., 2011) nous nous sommes intéressé au traitement de deuxième ligne et principalement aux trois substances les plus prescrites : la phénytoine (PHT), le valproate (VPA) et plus récemment le lévétiracetam (LEV). A ce jour, aucune étude n'avait comparé l'efficacité de ces substances pourtant largement utilisées. Ainsi, afin de savoir lequel ces anti-épileptiques utilisés en 2ème ligne est le plus efficace, nous avons extrait de notre base de données regroupant tout les états de mal épileptiques traités au Centre Hospitalier Universitaire Vaudois, tous les épisodes durant lesquelles le traitement par benzodiazépines à échoué (187 épisodes). Nous avons ensuite comparé les différentes caractéristiques cliniques et les différents outcomes de trois groupes de patients (ceux qui ont reçu de la PHT, du VPA ou du LEV). Nous avons pu mettre ainsi en évidence certaines différences d'efficacité inconnues jusqu'alors entre le VPA et le LEV, impliquant une certaine prudence face à l'emploi grandissant de ce dernier. La seconde partie de notre publiée dans Epilepsia (Alvarez et al., 2012) s'est portée sur les facteurs pronostiques de l'état de mal et plus précisément sur le rôle joué par les comorbidités. En utilisant la même base de données, nous avons pu démontrer que le pronostique d'un état de mal est très majoritairement influencé par l'étiologie et l'âge et que les comorbidités ne jouent qu'un rôle marginal. La présence de comorbidités n'impliquant pas forcément une mauvaise issue, la fragilité de certains patients ne doit pas dissuader les cliniciens à traiter adéquatement ces patients souffrant d'une condition aussi sévère qu'un état de mal épileptique.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Question de recherche : Est-ce que la limite de taille de 7 mm d'un anévrisme intracrânien non rompu¦proposée par les études internationales est un critère valable de sélection entre un traitement¦conservateur (observation périodique) ou une intervention curative sur la population du CHUV ?¦Contexte : On estime actuellement la fréquence des anévrismes intracrâniens à 0.2-9% dans la¦population générale. Le taux d'hémorragie sous-arachnoïdienne due à une rupture d'anévrisme est¦estimé à 6-16 pour 100'000 personnes.¦Selon les investigateurs de l'International Study of Unruptured Intracranial Aneurysms (ISUIA, 2003),¦le taux cumulé de rupture à 5 ans pour les anévrismes de moins de 7 mm de diamètre est de 0.05% ou¦2.5% selon que l'anévrisme se situe sur une artère de la circulation cérébrale antérieure ou postérieure,¦respectivement.¦Ces chiffres sont fortement controversés. En effet, d'autres études montrent que le risque de rupture des¦anévrismes inférieurs à 7 mm de diamètre est bien plus important que ne le laisse supposer l'étude¦ISUIA.¦Objectifs : L'objectif de ce travail de maîtrise vise à déterminer si la limite de taille de 7 mm d'un¦anévrisme cérébral non rompu proposé par certaines études internationales (et notamment l'étude¦ISUIA) est un critère valable pour sélectionner entre une observation périodique ou une intervention¦curative (chirurgicale ou endovasculaire) des patients.¦Un corollaire qui découle de cette question est de savoir s'il est justifié de traiter d'emblée un¦anévrisme cérébral non rompu mesurant moins de 7 mm.¦Matériel et Méthodes : Etude rétrospective observationnelle basée sur des données provenant des¦dossiers médicaux des patients admis aux urgences du CHUV avec une hémorragie sousarachnoïdienne¦due à la rupture d'un anévrisme intracrânien pendant une période allant de juin 2005 à¦avril 2011.¦Différents paramètres sont pris en considération : l'âge et le sexe du patient, la taille, la localisation et le¦nombre d'anévrismes, les facteurs de risque de rupture comme le tabac, l'hypertension artérielle et la¦consommation d'alcool, ainsi que les antécédents et l'histoire familiale de rupture d'anévrisme.¦Le critère de jugement principal est la taille de l'anévrisme, suivi par sa localisation.¦Les critères d'exclusion des patients sont les suivants : anévrismes mycotique, fusiforme ou¦traumatique, tumeur cérébrale maligne.¦Résultats escomptés : Avec ce travail, une nouvelle limite de diamètre anévrismal pourrait être¦proposée, en tenant compte des différents paramètres analysés sur un échantillon de la population¦locale. Les résultats pourraient apporter plus de précisions dans le bilan du risque d'une rupture¦anévrismale. Ainsi, la décision d'une intervention bénéficierait d'une base de réflexion nouvelle pour¦les anévrismes non rompus de petite taille.¦Plus-value escomptée : Cette étude pourrait contribuer à améliorer le pronostic des patients porteurs¦d'anévrisme(s) intracrânien(s). Elle permettrait en effet d'intervenir en cas d'anévrismes intracrâniens¦non rompus de taille inférieure à 7 mm, avant que ceux-ci ne se rompent et provoquent une hémorragie¦sous-arachnoïdienne.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
RESUME Ce travail se propose de discuter des résultats comportementaux observés chez des rats obtenus dans trois paradigmes expérimentaux différents : le bassin de Morris (Morris Water Maze, Morris, 1984) ; la table à trous (Homing Board, Schenk, 1989) et le labyrinthe radial (Radial Arm Maze, Olton et Samuelson, 1976). Les deux premières tâches sont spatiales et permettent un apprentissage de place en environnements contrôlés, et la troisième est une tâche comportementale qui différencie deux habiletés particulières, celle d'élimination (basée sur la mémoire de travail) et celle de sélection (basée sur la mémoire de référence). La discussion des résultats porte sur les stratégies de navigation utilisées par les animaux pour résoudre les tâches et plus précisément sur les facteurs qui peuvent influencer le choix de ces stratégies. Le facteur environnemental (environnement contrôlé) et le facteur cognitif (vieillissement) représentent les variables étudiées ici. C'est ainsi que certaines hypothèses communément acceptées ont été malmenées par nos résultats. Or si l'espace est habituellement supposé homogène (toutes les positions spatiales présentent le même degré de difficulté lors d'un apprentissage en champ ouvert), ce travail établit qu'une position associée -sans contiguïté - à l'un des trois indices visuels situés dans la périphérie de l'environnement est plus difficile à apprendre qu'une position située entre deux des trois indices. Deuxièmement, alors qu'il est admis que l'apprentissage d'une place dans un environnement riche requiert le même type d'information. dans la bassin de Morris (tâche nagée) que sur la table à trous (tâche marchée), nous avons montré que la discrimination spatiale en bassin ne peut être assurée par les trois indices visuels périphériques et nécessite la présence d'au moins un élément supplémentaire. Enfin, l'étude du vieillissement a souvent montré que l'âge réduit les capacités cognitives nécessaires à la navigation spatiale, conduisant à un déficit général des performances d'un animal sénescent, alors que dans notre travail, nous avons trouvé les animaux âgés plus performants et plus efficaces que les adultes dans une tâche particulière de collecte de nourriture. Ces expériences s'inscrivent dans une étude générale qui met à l'épreuve le modèle théorique proposé pax Schenk et Jacobs (2003), selon lequel l'encodage de la carte cognitive (Tolman, 1948 ; O'Keefe et Nadel, 1978) se ferait dans l'hippocampe par l'activité de deux modules complémentaires :d'une part le CA3 - Gyrus Denté pour le traitement d'une trame spatiale basée sur des éléments directionnels et Jou distribués en gradient (bearing map) et d'autre part le CAl - Subiculum pour le traitement des représentations locales basées sur les positions relatives des éléments fixes de l'environnement (sketch map). SUMMARY This work proposes to talk about behavioural results observed in three different experimental paradigms with rats: the Morris Water Maze (Morris, 1984); the Homing Board (Schenk, 1989) and the Radial Arm Maze (Olton and Samuelson, 1976). The two first tasks are spatial ones and allow place learning in controlled environments. The third one is a behavioural task which contrasts two particular skills, the elimination (based on working memory) and the selection one (based on reference memory). The topic of the discussion will be the navigation strategies used by animals to solve the different tasks, and more precisely the factors which can bias this strategies' choice. The environmental (controlled) and the cognitive (aging) factors are the variables studied here. Thus, some hypotheses usually accepted were manhandled by our results. Indeed, if space is habitually homogenously considered (all spatial positions present the same degree of difficulty in an open field learning), this work establishes that an associated position -without being adjacent - to one of the three visual cues localised in the environmental periphery is more difficult to learn than a configurationnel position (situated between two of the three cues). Secondly, if it is received that place learning in a rich environment requires the same information in the Morris water maze (swimming task) that on the Homing board (walking task), we showed that spatial discrimination in the water maze can't be provided by the three peripheral cue cards and needs the presence of a supplementary cue. At last, aging studies often showed that oldness decreases cognitive skills in spatial navigation, leading to a general deficit in performances. But, in our work, we found that senescent rats were more efficient than adult ones in a special food collecting task. These experiments come within the scope of a general study which tests the theoretical model proposed by Jacobs and Schenk (2003), according to which the cognitive map's encoding (Tolman, 1948, O'Keefe and Nadel, 1978) should take place in the hippocampus by two complementary modules, first the DG-CA3 should encode directional and/or gradients references (the bearing map), and secondly the Subiculum-CAl should process locale elements (the sketch map).