996 resultados para Le Bail method
Resumo:
Cette thèse présente à la fois des résultats de simulations numériques en plus de ré- sultats expérimentaux obtenus en laboratoire sur le rôle joué par les défauts de structure dans le silicium amorphe. Nos travaux de simulation numérique furent réalisés avec une nouvelle méthode de simulation Monte-Carlo cinétique pour décrire l’évolution tempo- relle de modèles de silicium amorphe endommagés sur plusieurs échelles de temps jus- qu’à une seconde à la température pièce. Ces simulations montrent que les lacunes dans le silicium amorphe sont instables et ne diffusent pas sans être détruites. Nous montrons également que l’évolution d’un modèle de silicium amorphe endommagé par une colli- sion ionique lors d’un recuit peut être divisée en deux phases : la première est dominée exclusivement par la diffusion et la création/destruction de défauts de liaison, alors que la deuxième voit les créations/destructions de liens remplacées par des échanges de liens entre atomes parfaitement coordonnés. Les défauts ont aussi un effet sur la viscosité du silicium amorphe. Afin d’approfondir cette question, nous avons mesuré la viscosité du silicium amorphe et du silicium amorphe hydrogéné sous l’effet d’un faisceau d’ions. Nous montrons que la variation de la viscosité dans les deux matériaux est différente : le silicium amorphe hydrogéné a une viscosité constante en fonction de la fluence des ions alors que le silicium amorphe pur a une viscosité qui augmente de façon linéaire. Pour de faibles fluences, la viscosité du silicium hydrogéné est plus grande que la viscosité sans hydrogène. La présence d’hydrogène diminue également l’amplitude de la variation logarithmique de la contrainte observée lors de la relaxation à la température de la pièce.
Resumo:
Ce mémoire a pour objet d’étude la notion du rapport aux savoirs historiques des élèves de l’ordre secondaire. Plus précisément, il sera question des relations existant entre la conception qu’entretiennent les élèves de l’histoire et du métier de l’historien, leur conception de l’action humaine dans l’histoire et leur sentiment d’être eux-mêmes, aujourd’hui, des acteurs politiques effectifs. Ce sujet est ancré dans le contexte de l’introduction des prescriptions en matière d’éducation à la citoyenneté dans le programme d’histoire de niveau secondaire. Cet ajout a pour conséquence d’introduire de nouveaux objectifs en matière d’éducation à la citoyenneté : l’élève, par l’étude de l’évolution démocratique, doit être amené à comprendre le rôle de l’action humaine dans l’histoire, lui faisant ainsi comprendre la valeur de sa propre participation à la vie sociale et politique. Cela étant dit, les recherches montrent que les enseignants et les enseignantes tardent à adopter la terminologie propre aux compétences du programme de formation en histoire et éducation à la citoyenneté et perpétuent un enseignement de l’histoire-récit qui fait la part belle aux grands évènements et aux grands hommes (Bouhon, 2009; Moisan, 2011). De plus, les manuels utilisés laissent peu de place aux individus ou aux groupes d’individus agissants et présentent rarement leurs actions de manière à rendre compte de leur efficacité (Éthier, 2001; Lefrançois, Éthier et Demers, 2011). Enfin, les recherches montrent que les élèves sont enclins à expliquer les changements à l’aide d’une histoire personnalisante, occupée principalement par les grands hommes et les hauts faits de l’histoire politique et militaire (Hallden, 1986 ; Carretero, Jacott, Limon, Lopez-Manjon et Leon, 1994 ; Carretero, Asuncion et Jacott, 1997 ; Tutiaux-Guillon et Fourmond, 1998). En explorant les conséquences complexes de ces différents constats, nous avons ressenti une insatisfaction à l’égard de la capacité d’explication de ce phénomène qu’offrait le champ conceptuel de didactique de l’histoire. Par conséquent, ce mémoire portera sur le transfert de la notion de rapport au savoir au domaine de la didactique de l’histoire à partir de la sociologie et de l’anthropologie. Le modèle théorique proposé a été obtenu grâce à une recherche spéculative qui a été inspirée des méthodes de Martineau, Simard et Gauthier (2001) et de Van der Maren (1996).
Resumo:
Thèse réalisé en cotutelle avec l'Université libre de Bruxelles (Belgique)
Resumo:
Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.
Resumo:
Dans une séquence d'arrêts rendus à partir de 1996, la Cour suprême du Canada établit que les recours pour « atteinte illicite » prévus à l'article 49 de la Charte des droits et libertés de la personne doivent être soumis au régime de responsabilité civile de droit commun. La Cour suprême indique à cette occasion que, pour qu’il y ait atteinte illicite à un droit, la violation de ce droit devra être qualifiée de fautive. Cette qualification pourra être démontrée par « la transgression d’une norme de conduite jugée raisonnable dans les circonstances selon le droit commun » ou, « comme c’est le cas pour certains droits », lorsqu’un comportement transgresse « […] une norme dictée par la Charte elle-même ». Dans le premier cas, la notion de faute absorbe la notion d’illicéité, alors que dans le deuxième cas elle se dissout dans l’illicite (ce qui en fait une faute objective in abstracto). Or, dans ce dernier cas, la Cour suprême du Canada, en 2008, dans l’arrêt Ciment du Saint-Laurent, a indiqué que la faute constitue une obligation de moyens, qui s’évalue selon le critère de la personne prudente et diligente. Il ne peut donc s’agir d’une obligation de résultats. Il serait donc maintenant difficile de concilier cette caractérisation de la faute avec la politique adoptée par la Cour suprême en matière de Charte. Puisque le texte de la Charte contient lui-même les conditions matérielles et formelles dans lesquelles il sera possible de conclure à l’existence d’une atteinte illicite, il serait souhaitable, aux fins d’assurer la cohérence du droit, que la méthode de convergence des recours entre le Code et la Charte soit délaissée afin de reconnaître la pleine autonomie matérielle des recours prévus à la Charte, ce qui, du même coup, aurait pour effet de ne pas dénaturer la notion de faute. De plus, alors que la Cour suprême établissait dans ces arrêts qu’une atteinte illicite ne comporte pas un préjudice en soi, l’auteure soutien que le dommage causé à un droit comporte toujours un préjudice inhérent, que le droit se doit de sanctionner.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
L’étude cherche à provoquer la convergence des regards sur des enjeux méthodologiques fondamentaux, soit les enjeux de mesure, de décision et d’impact inhérents à toute démarche de sélection académique. À cet effet, elle explorera la capacité de prédiction de certaines variables non cognitives envers la compétence de professionnalisme observée chez les étudiants du doctorat professionnel de premier cycle en pharmacie. La sélection des candidats au sein des programmes académiques en santé repose en grande partie sur une évaluation de la capacité cognitive des étudiants. Tenant compte du virage compétence pris par la majorité des programmes en santé, la pertinence et la validité des critères traditionnels de sélection sont remises en question. La présente étude propose de valider l’utilisation des échelles de mesure de la personnalité, des valeurs et de l’autodétermination pour guider l’optimalité et l’équité des décisions de sélection. Les enjeux de mesure de ces variables seront abordés principalement par la modélisation dichotomique et polytomique de Rasch. L’application de la méthode des strates permettra, par la suite, de répondre aux enjeux de décision en procédant à une différenciation et un classement des étudiants. Puis, les enjeux d’impact seront, à leur tour, explorés par le modèle de régression par classes latentes. L’étude démontre notamment que le recours à la modélisation a permis une différenciation précise des étudiants. Cependant, la violation de certaines conditions d’application des modèles et la faible différenciation établie entre les étudiants sur la base des critères de professionnalisme, rendent l’évaluation de la capacité de prédiction de la personnalité, des valeurs et de l’autodétermination hasardeuse. À cet effet, les modèles identifiés par les analyses de régression par classes latentes s’avèrent peu concluants. Les classes latentes ainsi identifiées ne présentent pas de distinctions marquées et utiles à la sélection. Bien que les diverses procédures de modélisation proposées présentent des avantages intéressants pour une utilisation en contexte de sélection académique, des recherches additionnelles sur la qualité des critères de professionnalisme et sur la qualité des échelles de mesure des variables non cognitives demeurent nécessaires.
Resumo:
Pre-publication drafts are reproduced with permission and copyright © 2013 of the Journal of Orthopaedic Trauma [Mutch J, Rouleau DM, Laflamme GY, Hagemeister N. Accurate Measurement of Greater Tuberosity Displacement without Computed Tomography: Validation of a method on Plain Radiography to guide Surgical Treatment. J Orthop Trauma. 2013 Nov 21: Epub ahead of print.] and copyright © 2014 of the British Editorial Society of Bone and Joint Surgery [Mutch JAJ, Laflamme GY, Hagemeister N, Cikes A, Rouleau DM. A new morphologic classification for greater tuberosity fractures of the proximal humerus: validation and clinical Implications. Bone Joint J 2014;96-B:In press.]
Resumo:
But: L’objectif premier de cette étude est d’examiner la relation entre le type de passion que les athlètes entretiennent envers leur sport et les différentes stratégies de coping que ceux-ci utilisent. Cette étude a aussi comme objectif de vérifier si les stratégies de coping ont un effet médiateur dans la relation entre la passion et le burnout. Finalement, elle permettra d'approfondir les connaissances sur l'interaction entre le type de passion et le burnout. Les questions posées sont (1) Est-ce que les athlètes utilisent différentes stratégies de coping selon qu'ils soient passionnés harmonieux ou obsessifs? (2) Existe-t-il une différence entre les athlètes passionnés obsessifs et les athlètes passionnés harmonieux quant aux symptômes du burnout? (3) Existe-t-il une différence entre les athlètes utilisant des stratégies de coping orientées vers l'évitement et ceux utilisant des stratégies orientées vers la tâche quant aux symptômes du burnout? et (4) Est-ce que les athlètes qui sont passionnés obsessifs et qui utilisent des stratégies de coping orientés vers l'évitement sont ceux qui présentent le plus de symptômes du burnout? Méthodologie: L'échantillon est composé de 74 étudiants-athlètes de niveau universitaire. Résultats: (1) Les athlètes harmonieux utilisent plus de stratégies de coping orientées vers le déploiement des efforts et le contrôle des pensées que les athlètes obsessifs. (2) Les athlètes obsessifs utilisent le désengagement plus souvent que les athlètes harmonieux. (4) Les athlètes obsessifs présentent plus de symptômes d'épuisement que les athlètes harmonieux. (5) Les questions de recherche 3 et 4 se sont avérées non-significatives.
Resumo:
Malgré l’engouement pour les neurosciences cognitives des émotions et les nombreuses publications des dernières décennies tentant d’élucider les bases neurobiologiques des émotions, nos connaissances sur le domaine restent embryonnaires. Plusieurs questions importantes restent toujours sans réponses incluant s’il existe ou non un système unique pour le traitement de stimuli émotionnels et s’il y a ou non des différences entre les hommes et les femmes pour le traitement de stimuli émotionnels. L’objectif de cette thèse est d’apporter certains éléments de réponses à ces questions à travers une caractérisation du substrat neurobiologique impliqué dans le traitement de stimuli émotionnels visuels et dynamiques. Ce travail a été mené via l’imagerie par résonance magnétique fonctionnelle (IRMf) cérébrale. Le premier chapitre, subdivisé en quatre sections, permet de présenter la perspective dans laquelle s’inscrit la thèse. La première section de ce chapitre sert à établir certaines balises définitionnelles liées aux émotions. La seconde section, basée sur une lecture des textes originaux, retrace les faits historiques saillants de la neurobiologie des émotions allant de Charles Darwin à Joseph Ledoux. La troisième section débute où la seconde s’arrête et continue l’histoire de la neurobiologie des émotions à travers un résumé de toutes les principales méta-analyses d’imagerie fonctionnelle cérébrale des émotions. La dernière section du chapitre permet de présenter la problématique de recherche. La recherche, à proprement parler, qui constitue le corps de la thèse est ensuite présentée sous forme de trois articles. Enfin, les résultats de cette recherche et la manière dont ils s’inscrivent dans la continuité de nos connaissances actuelles font l’objet d’une discussion générale. Le premier article (chapitre II) rapporte, chez les hommes et les femmes, les régions du cerveau qui sont plus activées lors du traitement de films érotiques que lors du traitement de films dits ‘neutres’. Un chevauchement manifeste est observé entre les hommes et les femmes. Par contre, une activation significativement plus grande est observée chez les hommes pour l’hypothalamus, une région importante pour le comportement sexuel à travers la phylogénie. De plus, chez les hommes seulement, l’activation hypothalamique est corrélée à l’excitation sexuelle subjective. Comme la recherche présentée dans le premier article se sert de conditions expérimentales relativement longues pour l’IRMf (i.e. extraits de films de 3 minutes) et que ceci peut induire une nette diminution de signal en lien avec certaines contraintes de l’IRMf, le second article (chapitre III) examine les corrélats du traitement de stimuli sexuels en utilisant, cette fois, un paradigme d’IRMf classique où plusieurs extraits de films de 33 secondes sont présentés à la place. Cette étude démontre que, pour le traitement de stimuli sexuels, ce paradigme classique d’IRMf est beaucoup plus sensible que celui du premier article. De plus, comme ce paradigme mène à une reproduction des résultats du premier papier, ce travail soutient la perspective selon laquelle les paradigmes à époques courtes sont une alternative valide aux longues époques comme méthode d’étude du traitement de stimuli émotionnels. Le troisième article (chapitre IV) capitalise sur le protocole du second article et démontre que les patrons d’activation associés au visionnement de courts extraits de films induisant du dégoût, de l’amusement, ou de l’excitation sexuelle, sont très étendus. Une analyse de conjonction formelle démontre un large chevauchent de ces patrons à travers les différents affects étudiés. Enfin, le cinquième chapitre sert de discussion générale. Les questions des différences entre les hommes et les femmes dans le traitement des émotions, de l’existence ou non d’un système général pour le traitement des émotions, ainsi que de la manière dont un tel système pourrait être conçu, sont des points saillants de la discussion. Ces points sont abordés à la lumières des connaissances actuelles et des résultats des trois articles.
Resumo:
La stimulation du nerf vague (SNV) a reçu l’approbation de Santé Canada en 2001, comme en Europe, pour le traitement de la dépression réfractaire et en 2005 aux États-Unis. Les études européennes et américaines rapportent un taux de réponse de 50% et de rémission de 30% après un an de traitement. La sélection des patients, encadrée par la recherche de marqueurs biologiques et des critères de résistance, pourrait contribuer à améliorer les taux de réponse. Cette étude décrit le suivi des patients ambulatoires souffrant de dépression réfractaire, d’un spectre unipolaire ou bipolaire (n=13) sous SNV. Une révision exhaustive de l’histoire médicale et thérapeutique précède une évaluation clinique intensive. Si un consensus d’équipe est obtenu, une investigation clinique à la recherche des marqueurs biologiques est effectuée. Ceci inclut une tomographie par émission de photons simples (SPECT), une tomographie par émission de positrons (TEP), une formule sanguine complète, un test de suppression à la dexaméthasone (DST), une collecte d’urine 24h (catécholamines et cortisol), une polysomnographie et une évaluation neuropsychologique abrégée. Après 1 an de traitement, 61,5% (8/13) des patients ont atteint le seuil de réponse (diminution de 50% des symptômes), dont 87.5% (7/8) en rémission. Les patients diagnostiqués d’un trouble bipolaire, présentant un DST anormal et/ou avec déficits cognitifs ont répondu au traitement et poursuivent leur rémission après 2 ans. Une sélection minutieuse des patients pour le SNV serait une méthode efficace pour traiter les dépressions réfractaires, notamment pour prévenir les rechutes, amenant un état euthymique durable pour la plupart des patients.
Resumo:
Cette recherche, de type exploratoire et descriptif, s’intéresse à l’expérience et au point de vue des parents à l’égard de l’implication directe de leurs enfants en médiation familiale. La méthodologie privilégiée pour réaliser cette étude est qualitative, et la perspective théorique utilisée est la phénoménologie. L’échantillon est constitué de huit parents, tous ayant participé à une entrevue semi-dirigée au sujet de l’implication de leurs enfants dans le processus de médiation familiale. Les données ont été recueillies entre le mois de mai et octobre 2013, et ont été analysées en s’appuyant sur la méthode d’analyse de contenu telle que proposée par L’Écuyer (1990) ainsi que Mayer et Deslauriers (2000). Il ressort de cette recherche que l’implication directe des enfants en médiation familiale a une influence considérable sur le processus. En effet, la majorité des participants de la présente étude ont rapporté que l’implication de leurs enfants a été déterminante afin de conclure une entente au sujet du partage des responsabilités parentales. Aussi, les résultats suggèrent que la majorité des participants ont vécu de manière positive la participation de leurs enfants et sont satisfaits des retombées de l’implication. Par contre, quelques parents ont vécu de manière négative cette expérience. De tels résultats mettent en lumière les limites et risques liés à l’implication directe des enfants en médiation familiale. De plus, les modalités d’implication choisies par les médiateurs familiaux semblent avoir influencé le vécu des parents et de leurs enfants dans le processus. Les résultats donnent également accès à la perception des parents au sujet du vécu de leurs enfants avant, pendant et après le processus d’implication. Une suggestion qui émane de cette recherche est que l’enfant, bien qu’amené à prendre parole dans la médiation familiale, ne doit pas être tenu responsable d’une décision liée au partage des responsabilités parentales. Les conclusions de ce mémoire alimentent une stratégie en médiation familiale qui est peu documentée à partir de l’expérience et du point de vue des parents.
Resumo:
Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.
Resumo:
La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose).