337 resultados para Mémoire humaine


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La douleur articulaire associée à l’arthrose est un problème clinique majeur, spécialement chez les personnes âgées. L’intensité de la douleur est souvent amplifiée lors de mouvement de l’articulation et principalement lors du soutien de la charge corporelle sur le membre lésé. Malheureusement, les traitements pharmacologiques proposés sont trop souvent associés à des effets secondaires néfastes et à une inefficacité pour le soulagement de la douleur à long terme. Divers modèles murins sont utilisés en laboratoire de recherche pour des études précliniques de molécules aux propriétés analgésiques. Une évaluation comparative de la réponse comportementale douloureuse des animaux d’un modèle d’instabilité articulaire induit par le sectionnement du ligament croisé antérieur accompagné d’une méniscectomie partielle (le modèle ACLT+pMMx) et d’un modèle de dégénérescence articulaire induite par le monoiodoacetate (le modèle MIA) a permis de sélectionner un modèle approprié pour la continuité du projet. Les deux modèles ont démontré des lésions tissulaires, mais le modèle MIA a démontré une réponse douloureuse plus prononcée que le modèle ACLT+pMMx. Par l’analyse de la démarche, le modèle MIA a démontré une boiterie claire dans le patron de la démarche des animaux qui est associée à une lésion unilatérale. Le modèle MIA a donc été choisi pour la suite du projet. La problématique principale dans la recherche sur la douleur associée à l’arthrose est une compréhension incomplète des mécanismes de douleur responsables de l’induction et du maintien de l’état de douleur. Il devient donc nécessaire d’améliorer nos connaissances de ces mécanismes en effectuant une caractérisation plus approfondie des modèles animaux employés pour l’évaluation de stratégies pharmacologiques analgésiantes. Afin de bien comprendre le modèle MIA, une caractérisation des événements moléculaires centraux lors de la progression du processus dégénératif des structures articulaires de ce modèle s’est effectuée aux jours 3, 7, 14, 21 et 28 post injection. Des mécanismes hétérogènes qui modulent l’information nociceptive en fonction de la progression temporelle de la pathologie ont été observés. Les changements du contenu i spinal des neuropeptides sélectionnés (substance P, CGRP, dynorphine A et Big dynorphine) ont débuté sept jours suivant l’injection de MIA. L’observation histologique a démontré que les dommages structuraux les plus importants surviennent entre les jours 14 et 21. C’est entre les jours 7 et 21 que les lésions démontrent le plus de similarités à la pathologie humaine. Cela suggère que lors d’une évaluation préclinique d’un traitement pharmacologique pour pallier la douleur articulaire utilisant le modèle MIA, l’étude doit tenir compte de ces événements afin de maximiser l’évaluation de son efficacité. Puisque les traitements pharmacologiques conventionnels proposés pour le soulagement de la douleur ne font pas l’unanimité en terme d’efficacité, d’effets non désirés et de coûts monétaires parfois onéreux, les molécules de dérivés de plante deviennent une alternative intéressante. L’eugénol, le principal constituant de l’huile de clou de girofle, a été administré oralement pour une période de 28 jours chez des rats ayant reçu l’injection intra-articulaire de MIA afin d’évaluer son efficacité pour le traitement de la douleur articulaire. L’eugénol à une dose de 40 mg/kg s’est révélé efficace pour l’amélioration du patron de la démarche des animaux ainsi que pour la diminution de l’allodynie mécanique secondaire. De plus, les concentrations spinales de neuropeptides pronocicepteurs ont diminué chez les animaux traités. Par une évaluation histopathologique, l’eugénol n’a démontré aucune évidence d’effets toxiques suite à une administration per os quotidienne pour une période prolongée. Ces résultats suggèrent le potentiel thérapeutique complémentaire de la molécule d’eugénol pour le traitement de la douleur articulaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur le recours à des mesures restrictives du commerce par le Canada comme moyen de lutte contre le travail dangereux des enfants, dans un contexte de mise en œuvre de la responsabilité internationale d’un État en cas de non respect de la Convention de l’Organisation internationale du travail nº 182 sur les pires formes de travail des enfants. Bien que la capacité d’imposer des telles mesures se rapportant à des situations de travail dangereux des enfants soit analysée, essentiellement, du point de vue du droit de l’Organisation internationale du commerce (OMC), cette étude reste circonscrite à l’application de la Convention OIT 182. De plus, cette thèse veut fournir une analyse prospective de nature spéculative portant sur l’opportunité de recourir à de telles mesures en discutant de leurs éventuelles conséquences sur les enfants qu’on vise à protéger par ce moyen. La première partie de la thèse s’intéresse à la légalité d’éventuelles sanctions commerciales imposées par le Canada afin d’amener un pays membre de l’OMC dont il importe des produits à respecter la Convention OIT 182. La légalité de ces sanctions est abordée tant du point de vue du régime général du GATT que de celui des exceptions générales. Du point de vue du régime général, l’analyse porte notamment sur l’article III de cet accord relatif au principe du traitement national. Une fois constatée leur illicéité à l’égard de l’article III du GATT, seul l’article XX de cet accord peut être invoqué pour permettre le recours à ces mesures. Nous nous attardons plus particulièrement aux exceptions de l’article XX relatives à la protection de la moralité publique et à celle de la protection de la vie et de la santé humaine. La thèse aborde les conditions auxquelles est assujetti le recours aux exceptions de l’article XX retenues comme pertinentes, notamment celles de la « nécessité » des mesures et du respect des compétences étatiques. En outre, cette étude analyse les conditions d’application des mesures restrictives du commerce découlant du préambule de l’article XX. En ce qui concerne l’exception relative à la moralité publique, cette notion est discutée dans un contexte national spécifique, soit celui du Canada. La seconde partie de la thèse s’intéresse à l’opportunité de recourir à des mesures commerciales restrictives et leurs conséquences éventuelles sur les enfants dont la protection est recherchée. La démarche, qui est éminemment prospective, prend la forme d’une étude de cas portant sur un secteur productif qui n’a jamais connu dans les faits des sanctions commerciales, soit la production floricole en Équateur. Il s’agit d’un secteur caractérisé par la présence d’enfants en situation de travail dangereux impliqués dans la production de biens destinés à l’exportation. Notre recherche est de type exploratoire. De ce fait, elle ne vise pas à formuler des conclusions fermes quant aux effets des sanctions, mais plutôt à déceler les effets potentiellement bénéfiques ou nuisibles que les mesures restrictives du commerce pourraient avoir sur les enfants exploités, ainsi qu’à évaluer la contribution des sanctions commerciales à la solution du problème.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente étude porte sur les aspects Nature-Culture relatifs à l’émergence de variations interindividuelles quant à la capacité universelle de régulation d’une émotion primaire, la tristesse. Cette problématique représente un exemple du lien entre la conception évolutionniste d’une nature humaine universelle, innée et génétiquement prescrite, mais susceptible de variation dans son expression en fonction d’expériences individuelles liées aux processus de socialisation et d’enculturation. À l’aide du devis génétiquement informatif des jumeaux, nous nous sommes d’abord penchés sur l’étiologie gènes-environnement de la dépression à l’enfance, une dysfonction du système de régulation émotionnelle de la tristesse. Puis, nous nous sommes interrogés quant à l’influence du traitement et de l’état psychique maternels sur cet aspect du développement émotionnel de l’enfant. Nos analyses de la symptomatologie dépressive indiquent une absence d’influence génétique dans le développement de ce trouble de l’humeur. Les variations individuelles de la régulation de la tristesse reposent ainsi uniquement sur les effets de l’environnement. Nos résultats révèlent également l’existence d’une relation importante entre l’état psychique de la mère, évalué lorsque les jumeaux avaient cinq mois, et la présence de symptômes dépressifs chez ces derniers mesurés huit ans plus tard. L’état psychique de la mère est considéré comme l’un des meilleurs indicateurs de la qualité du traitement maternel en bas âge. Nos mesures directes des comportements maternels envers le nourrisson et le développement ultérieur du trouble de dépression indiquent également l’existence de tendances statistiques allant dans le sens de notre hypothèse d’un traitement maternel sous-optimal contribuant au développement de dysfonctions émotionnelles ultérieures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Si, depuis son apparition, la télévision suscite de nombreuses réactions de mépris chez les élites cultivées, son emprise sur l’individu et la vie en société est indéniable. La littérature ne pouvait manquer de s’intéresser à la nature et à l’évolution de ce média si discuté avec lequel elle entretient des relations plus complexes qu’il n’y paraît. Cette étude porte sur deux romans qui proposent une représentation très élaborée et singulière du petit écran et de son rôle, La Télévision de Jean-Philippe Toussaint et Que la paix soit avec vous de Serge Joncour. Chacun d’eux fait l’objet d’un chapitre. En plus de procéder à une critique incisive du média télévisuel, ces fictions mettent en évidence ses liens avec l’imaginaire social contemporain. Toussaint accorde une importance particulière aux bouleversements socioculturels causés par la télévision et montre qu’elle a si bien investi la place de la vie quotidienne que les mondes réel et virtuel risquent désormais constamment de se confondre. Joncour décrit avec soin l’influence qu’elle exerce sur notre perception de la réalité et critique la lecture superficielle du monde qu’elle impose. Cependant qu’elles effectuent ce travail critique, les deux œuvres se rejoignent pour souligner son pouvoir de fascination et la présentent telle une tentatrice redoutable. Parce qu’elle part d’une lecture interne des textes pour les mettre en relation avec la façon dont la télévision, en tant que dispositif sémiotique, c’est-à-dire en tant que machine à produire du sens, informe la réalité humaine, notre étude se situe sur le terrain de la sociocritique des textes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le puceron du soya (Aphis glycines) est le ravageur le plus important de la culture du soya en Amérique du Nord. Quoi qu’efficaces, les pesticides permettent le contrôle des ravageurs que pour une courte période et nécessitent plusieurs applications au cours de la saison. De plus, ils sont dommageables pour l’environnement et la santé humaine. La lutte biologique se présente comme une alternative crédible pour le contrôle des populations d’A. glycines en Amérique du Nord. Trois parasitoïdes (Binodoxys communis, Aphidius colemani, Aphelinus certus) du puceron semblent être des candidats prometteurs. L’objectif de cette étude était d’examiner certains attributs biologiques de ces parasitoïdes au Québec. Dans le cas de B. communis et A. certus nous avons estimé leur synchronisme saisonnier ainsi que leur résistance au froid en laboratoire et en conditions naturelles. Dans le cas, d’A. colemani, nous avons évalué sa capacité à parasiter le puceron du soya et à se disperser dans un champ de soya. Nos résultats démontrent que la souche utilisée de B. communis a perdu sa capacité à entrer en diapause, probablement à cause de la longue période d’élevage en laboratoire qui a suivi son échantillonnage en Asie. Aphelinus certus démontre un potentiel intéressant puisqu’il possède un synchronisme saisonnier tant en automne qu’au printemps avec son hôte ainsi qu’un bon potentiel de survie hivernale au Québec. Quant à A. colemani, les essais suggèrent qu’il se disperse rapidement hors des champs sans attaquer de manière significative A. glycines.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis une vingtaine d’années, nous nous familiarisons avec l’appellation d’Africains -Américains pour désigner les Noirs Américains. Cependant, dès son apparition, certaines personnes ont pensé que cette appellation ne serait pas acceptée par les membres du groupe. Pourtant, à leur arrivée sur le continent américain,les Noirs s’identifiaient comme Africains et cette référence est réapparue au XXe siècle. À travers des entrevues, effectuées à Atlanta en mars 2001, nous analysons le rôle joué par la mémoire collective et la mémoire sociale sur l’identité et nous interprétons les discours des individus concernant la nouvelle appellation instaurée en 1989. Ce mémoire est une analyse historique et anthropologique des discours identitaires chez des Africains-Américains d’Atlanta en 2001. Nous identifions deux axes du processus d’identification dont les racines remontent au XIXe siècle. La conscience de la situation unique des Africains en Amérique a toujours orienté l’identité «…and the Negro protest movement in two ways and has led in two directions simultaneously: wanting out and wanting in …» (Joanne Grant 1968, 1983, 1986: 9).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.