942 resultados para Partage des connaissances
Resumo:
Les populations autochtones canadiennes ont un passé difficile qui influence leur vécu actuel. Les recherches canadiennes et ailleurs dans le monde s’entendent sur la surreprésentation des enfants autochtones en protection de l’enfance. Au Canada, la surreprésentation s’explique présentement par la présence de conditions de vie dégradées plutôt qu’en raison d’un traitement différentiel des services de protection à l’égard des enfants autochtones. La présente étude ajoute aux connaissances sur les mauvais traitements et la réponse des services de protection de la jeunesse aux enfants autochtones québécois en s’intéressant à trois questions : leur surreprésentation, leurs différences par rapport aux autres enfants et les prédicteurs du placement. D’abord, à partir des données administratives de la protection de la jeunesse, la surreprésentation des enfants autochtones est évaluée à trois étapes des services : les signalements retenus, les situations fondées et les placements. Les enfants autochtones et les autres enfants sont comparés sur un ensemble de caractéristiques personnelles, familiales, parentales des signalements et des services rendus. Les prédicteurs du placement des enfants desservis par la protection de la jeunesse sont enfin vérifiés, en portant une attention particulière à l’importance du statut autochtone dans cette prédiction. Les résultats révèlent une augmentation de la surreprésentation des enfants autochtones d’une étape à l’autre des services de protection considérés. Ces enfants ont plus souvent des conditions de vie difficiles et sont confrontés à davantage de facteurs de risque que les autres enfants. Le statut autochtone est important dans la prédiction du placement, même après l’ajout d’un ensemble de caractéristiques pouvant contribuer à la prédiction. La complexité d’accès aux services de première ligne dans les communautés autochtones ou l’influence d’une variable non considérée, telle la pauvreté matérielle et économique, constituent de possibles explications. Les implications pour la recherche et la pratique sont discutées.
Resumo:
Par une approche analytique, cette étude en éthique clinique a examiné la problématique de la demande d’assistance médicalisée pour mourir formulée dans le cadre des soins de fin de vie. Partant du fait que cette demande sollicite les soignants dans leur savoir et leur savoir-faire, surtout dans leur savoir-être, cette étude rend d’abord compte d’un fait : bon gré mal gré l’interdit de l’euthanasie par la loi et la déontologie médicale, ainsi que le débat contradictoire à son sujet qui dure déjà voici quelques décennies, il arrive de temps à autres que les soignants œuvrant en soins de fin de vie, soient confrontés à une demande d’assistance médicalisée pour mourir. Cette demande qui émane de certaines personnes en fin de vie et / ou de leurs proches, est souvent source de malaise pour les soignants à l’endroit de qui elle crée des défis majeurs et fait naître des dilemmes éthiques importants. Plus particulièrement, cette demande interroge toujours la finalité même des soins de fin de vie : est-ce que l’aide pour mourir fait partie de ces soins ? En réponse à cette question difficile, cette démarche réflexive de soignant chercheur en éthique montre qu’il est difficile de donner une réponse binaire en forme de oui / non ; il est difficile de donner une réponse d’application universalisable, et de définir une généralisable conduite à tenir devant une telle demande, car chaque cas est singulier et unique à son genre. Cette étude montre prioritairement que l’humanisation de la mort est à la fois un enjeu éthique important et un défi majeur pour notre société où la vie des individus est médicalisée de la naissance à la mort. En conséquence, parce que la demande d’assistance médicalisée pour mourir sollicite les soignants dans leur savoir et leur savoir-faire, cette étude montre toute l’importance de la réflexivité et de la créativité que doivent développer les soignants pour apporter une réponse constructive à chaque demande : une réponse humanisant le mourir et la mort elle-même, c’est-à-dire une réponse qui soit, sur le plan éthique, raisonnable et cohérente, une réponse qui soit sur le plan humain, porteuse de sens. D’où, outre l’axiologie, cette démarche réflexive montre que l’interdisciplinarité, la sémantique, l’herméneutique et les grilles d’analyse en éthique, constituent des outils réflexifs efficaces pouvant mieux aider les soignants dans leur démarche. Sur quelles bases éthiques, les soignants doivent-ils examiner une demande d’assistance médicalisée pour mourir, demande qui se présente toujours sous la forme d’un dilemme éthique? Cette question renvoie entre autre au fait que cette demande sollicite profondément les soignants dans leur savoir-être en relation des soins de fin de vie. Aussi bonnes les unes que les autres, qu’on soit pour ou contre l’euthanasie, plusieurs stratégies et méthodes d’analyse sont proposées aux soignants pour la résolution des conflits des valeurs et des dilemmes éthiques. Mais, ce n’est pas sur cette voie-là que cette étude invite les soignants. C’est plutôt par leur réflexivité et leur créativité, enrichies principalement par leur humanisme, leur expérience de vie, leur intuition, et secondairement par les différentes méthodes d’analyse, que selon chaque contexte, les soignants par le souci permanent de bien faire qui les caractérisent, trouveront toujours par eux-mêmes ce qui convient de faire dans l’ici et maintenant de chaque demande. C’est pourquoi, devant une demande d’assistance médicalisée pour mourir qui leur est adressée dans le cadre des soins de fin de vie, cette démarche éthique invite donc les soignants à être « des cliniciens créatifs, des praticiens réflexifs» . C’est pour cette raison, sur le plan proprement dit de la réflexion éthique, cette étude fait apparaître les repères de l’éthique humaniste de fin de vie comme bases axiologiques sur lesquels les soignants peuvent construire une démarche crédible pour répondre au mieux à cette demande. L’éthique humaniste de fin de vie située dans le sillage de l’humanisme médical , où l’humain précède le médical, renvoie au fait qu’en soins de fin de vie où émerge une demande d’aide à la mort, entre le demandeur de cette aide et le soignant, tout doit être basé sur une confiante relation d’homme à homme, même si du côté du soignant, son savoir être dans cette relation est aussi enrichi par sa compétence, ses connaissances et son expérience ou son savoir-faire. Basée sur l’humanité du soignant dans la démarche de soins, l’éthique humaniste de fin de vie en tant que pratique réflexive émerge de la créativité éthique du soignant lui-même et de l’équipe autour de lui ; et cette éthique se situe entre interrogation et transgression, et se définit comme une éthique « du vide-de-sens-à-remplir » dans un profond souci humain de bien faire. Car, exclue l’indifférence à la demande de l’assistance médicalisée pour mourir, son acceptation ou son refus par le soignant, doit porter sur l’humanisation de la mort. Cette dernière étant fondamentalement définie par rapport à ce qui déshumanise la fin de vie.
Resumo:
Grâce aux nombreuses études sur le sujet, nous savons qu’une stimulation inflammatoire vasculaire excessive entraîne un débalancement des fonctions homéostatiques de l’endothélium. Ce débalancement est à l’origine d’une dysfonction endothéliale définie comme étant l’étape clé contribuant au développement de l’athérosclérose. Le Toll-like receptor-2 (TLR2) est impliqué dans l’activation cellulaire via la transcription des gènes liés à l’inflammation. Il reconnaît des molécules microbiennes mais également des facteurs endogènes non-infectieux tels que sécrétés par les tissus endommagés provenant de la dysfonction endothéliale. Ainsi, l’activation et la signalisation du TLR2 sont en étroite relation avec le développement de l’athérosclérose. Les études épidémiologiques ont confirmé le rôle athéroprotecteur de l’œstrogène via de nombreux mécanismes d’action. Ainsi, nous avons cherché à identifier de nouvelles cibles moléculaires permettant de mieux interpréter les bénéfices potentiels de l’œstrogène sur le système cardiaque. Pour la première fois chez les cellules endothéliales (CE) vasculaires de souris, nos travaux ont confirmé l’effet anti-inflammatoire de l’œstrogène via la diminution de l’expression et de l’activité du TLR2. Nous avons également déterminé l’influence de l’œstrogène sur le profil de la réponse inflammatoire de ce récepteur en mesurant les potentiels endothéliaux de migration et d’adhésion. De plus, nous avons caractérisé les voies de signalisation impliquées en démontrant l’influence négative de l’œstrogène sur la phosphorylation des kinases activées par le TLR2; illustrant l’interaction entre l’œstrogène et la signalisation de ce récepteur. Nos travaux amènent ainsi de nouvelles connaissances sur la régulation endothéliale du TLR2 et mettent en lumière les effets anti-inflammatoires et vasculaires rapides de l’œstrogène.
Resumo:
L’Organisation mondiale de la Santé recommande aux individus de limiter leur consommation d’aliments sucrés dans le but de prévenir le développement des maladies chroniques. En santé publique, peu de recherches ont tenté d’identifier les facteurs individuels et contextuels qui peuvent influencer conjointement la consommation de ces aliments. Or, de telles connaissances seraient utiles pour guider les interventions nutritionnelles visant à en réduire la consommation. L’objectif de cette thèse est d'étudier les facteurs reliés au comportement et les contextes associés à la consommation quotidienne d’aliments sucrés chez des adultes vivant dans un milieu urbain occidental. Cette étude a été menée auprès d'une communauté moyen-orientale établie dans la Ville de Montréal. Les aliments sucrés ont été définis comme étant les glucides raffinés dont la teneur en sucres totaux dépasse 20 % de l’énergie totale. Lors de l’étape exploratoire (N = 42), un rappel de 24 heures a permis d’identifier les sources d’aliments sucrés et de déterminer l’apport quotidien en sucres totaux de cette communauté. Une étude qualitative descriptive a été privilégiée et un cadre écologique a guidé la réalisation d’entrevues semi-dirigées sur les contextes de consommation (N = 42). Une analyse de contenu employant des procédures de codage initial et focus a mené à l’élaboration d’un instrument de mesure quantitatif sur les contextes de consommation. Cet instrument a été soumis à un pré-test (N = 20), puis administré à l’échantillon principal (N = 192). Une analyse factorielle exploratoire a permis de préciser les contextes de consommation. Les facteurs individuels mesurés incluent les données sociodémographiques, les symptômes dépressifs, la maîtrise de soi, l’assoupissement de jour, les perceptions ainsi que l’hémoglobine glycosylée. La consommation quotidienne de sucres totaux a été mesurée par un questionnaire de fréquence alimentaire (N = 192). Une analyse de régression multivariée employant le modèle linéaire généralisé (distribution de type gamma et lien logarithmique) a été effectuée pour mesurer les relations entre les contextes de consommation, les facteurs individuels et la consommation de sucres totaux, en contrôlant l’âge et le sexe. L’apport quotidien en sucres totaux de l'échantillon est de 20,3 %, ce qui s’apparente aux apports des Canadiens et des Québécois. La consommation quotidienne moyenne est de 76 g/j. Les analyses qualitative et factorielle ont permis d’identifier un ensemble de 42 contextes de consommation regroupés en sept domaines (Actes et situations de grignotage, Stimuli visuels, Besoins énergétiques, Besoins émotionnels, Indulgence, Contraintes, Socialisation). La consommation quotidienne de sucres totaux est supérieure chez les hommes (B = 0,204, ES = 0,094, p = 0,03). Les facteurs positivement associés à la consommation sont le grignotage (B = 0,225, ES = 0,091, p = 0,01), la prise de dessert (B = 0,105, ES = 0,036, p = 0,001) ainsi que les symptômes dépressifs (B = 0,017, ES = 0,094, p = 0,03). L’âge (B = -0,01, ES = 0,004, p = 0,02), l’indulgence (B = -0,103, ES = 0,052, p = 0,05) et l’auto-modération (B = -0,121, ES = 0,042, p = 0,001) montrent, pour leur part, une association négative. Cette étude a privilégié une méthodologie mixte et a permis de développer une mesure innovatrice pour étudier les facteurs contextuels associés à la consommation d’aliments sucrés. Ceux-ci ont été analysés conjointement avec les facteurs individuels. Afin d'encourager les individus à réduire leur consommation de sucres totaux lorsque nécessaire, les initiatives en santé publique devraient en effet cibler les contextes de consommation de même que les facteurs individuels.
Resumo:
Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.
Resumo:
Le modèle de la bibliothèque, très ancien, s’est adapté aux évolutions des sociétés démontrant sa souplesse et sa robustesse. Il s’appuie sur un écosystème fondé sur le partage et comprend deux moments, celui de la constitution d’une collection et celui de sa mise en accès et définit un écosystème autonome. Récemment les bibliothécaires ont développé des études pour mesurer le retour sur investissement de leurs services. Malgré l’intérêt de ces calculs, la valeur ajoutée originale de la bibliothèque est difficile à appréhender précisément. Elle s’appuie selon les contextes sur la mutualisation ou sur la capacité à trouver rapidement des informations inattendues et celle de conserver des informations potentiellement importantes. Le modèle et sa valeur peuvent s’interpréter comme mémoire additionnelle d’un individu, capital informationnel d’une organisation, ou empreinte d’une civilisation. Le numérique ébranle la bibliothèque, mais chaque média émergent a obligé celle-ci à se repositionner. Inversement, la bibliothèque a été une des premières sources d’inspiration pour le web dont certains acteurs ont réussi, aujourd’hui, à faire de l’exploitation son modèle une activité très profitable.
Resumo:
La mémoire et l’apprentissage sont des phénomènes complexes qui demeurent encore incertains quant aux origines cellulaire et moléculaire. Il est maintenant connu que des changements au niveau des synapses, comme la plasticité synaptique, pourraient déterminer la base cellulaire de la formation de la mémoire. Alors que la potentialisation à long-terme (LTP) représente un renforcement de l’efficacité de transmission synaptique, la dépression à long-terme (LTD) constitue une diminution de l’efficacité des connexions synaptiques. Des études ont mis à jour certains mécanismes qui participent à ce phénomène de plasticité synaptique, notamment, les mécanismes d’induction et d’expression, ainsi que les changements morphologiques des épines dendritiques. La grande majorité des synapses excitatrices glutamatergiques se situe au niveau des épines dendritiques et la présence de la machinerie traductionnelle près de ces protubérances suggère fortement l’existence d’une traduction locale d’ARNm. Ces ARNm seraient d’ailleurs acheminés dans les dendrites par des protéines pouvant lier les ARNm et assurer leur transport jusqu’aux synapses activées. Le rôle des protéines Staufen (Stau1 et Stau2) dans le transport, la localisation et dans la régulation de la traduction de certains ARNm est bien établi. Toutefois, leur rôle précis dans la plasticité synaptique demeure encore inconnu. Ainsi, cette thèse de doctorat évalue l’importance des protéines Staufen pour le transport et la régulation d’ARNm dans la plasticité synaptique. Nous avons identifié des fonctions spécifiques à chaque isoforme; Stau1 et Stau2 étant respectivement impliquées dans la late-LTP et la LTD dépendante des récepteurs mGluR. Cette spécificité s’applique également au rôle que chaque isoforme joue dans la morphogenèse des épines dendritiques, puisque Stau1 semble nécessaire au maintien des épines dendritiques matures, alors que Stau2 serait davantage impliquée dans le développement des épines. D’autre part, nos travaux ont permis de déterminer que la morphogenèse des épines dendritiques dépendante de Stau1 était régulée par une plasticité synaptique endogène dépendante des récepteurs NMDA. Finalement, nous avons précisé les mécanismes de régulation de l’ARNm de la Map1b par Stau2 et démontré l’importance de Stau2 pour la production et l’assemblage des granules contenant les transcrits de la Map1b nécessaires pour la LTD dépendante des mGluR. Les travaux de cette thèse démontrent les rôles spécifiques des protéines Stau1 et Stau2 dans la régulation de la plasticité synaptique par les protéines Stau1 et Stau2. Nos travaux ont permis d’approfondir les connaissances actuelles sur les mécanismes de régulation des ARNm par les protéines Staufen dans la plasticité synaptique. MOTS-CLÉS EN FRANÇAIS: Staufen, hippocampe, plasticité synaptique, granules d’ARN, traduction, épines dendritiques.
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
Les recherches en relations industrielles portent rarement sur les politiques publiques du marché du travail. Lorsqu’elles existent, ces recherches s’intéressent généralement à l’efficacité de ces politiques. Or, cette thèse illustre l’importance de comprendre comment se forment les lois et les règlements. Afin de mieux comprendre le processus d’élaboration des politiques publiques, une étude de cas a été réalisée dans le domaine des retraites au Québec et au Canada entre 2003 et 2008. Les retraites ont été ciblées en raison des bouleversements socio-économiques que connaissait le Canada à l’époque, notamment le vieillissement de la population et les fluctuations des rendements des fonds de retraite. Ce sujet a également été retenu car il s’agit d’une compétence partagée entre les paliers gouvernementaux fédéral et provinciaux ainsi que partagée entre le secteur public et privé.Afin d’étudier la question, des théories en relations industrielles et en sciences économiques ont été considérées. C’est toutefois la théorie des courants multiples du politologue américain John Kingdon qui a été retenu comme fondement théorique de cette thèse. Cette théorie, qui postulait que les acteurs voulant influencer les politiques publiques devaient attirer l’attention sur des problèmes, contrôler le débat sur les politiques considérées et se faire des appuis, a été confirmée. La contribution majeure de cette thèse a été d’identifier les différents types d’acteurs impliqués dans le processus d’élaboration de politiques publiques de retraite, les stratégies qu’ils ont employées pour y parvenir et les résultats de leurs efforts.
Resumo:
Dans ce mémoire, nous examinons le fichage de la délinquance sexuelle dont les divers régimes juridiques reposent sur l’idée que ces contrevenants présentent un risque réel de récidive criminelle. Les données scientifiques sur la délinquance sexuelle relativisent ce risque et attestent qu’il est quasi absent dans un très grand nombre de cas. Il existe donc une dichotomie entre les prémisses du droit et les connaissances issues des sciences sociales et humaines sur cette question. Le fichage de cette délinquance au Canada donne lieu à des mécanismes administratifs provinciaux en plus d’un régime fédéral contenu au Code criminel. Nous émettons l’hypothèse que le fichage provincial emporte de véritables conséquences pénales sur les délinquants sexuels, affectent leurs droits en vertu de l’article 7 de la Charte et contrecarre des principes de justice fondamentale. Ensuite, nous examinons le régime fédéral intégré au Code criminel et nous argumentons que ce mécanisme juridique crée une mesure punitive de la nature d’une peine. Par conséquent, le fichage fédéral devrait être aménagé de façon à satisfaire aux garanties constitutionnelles propres à la peine et aux principes généraux de la détermination de la peine en vertu de la Partie XXIII du Code criminel. Nous concluons que les législateurs successifs ont créé des régimes juridiques régissant le fichage de la délinquance sexuelle en écartant les principes fondamentaux administratifs, criminels et constitutionnels qui devraient présider à l’élaboration des règles concernant ce stigmate de la criminalité. Les tribunaux, par leur interprétation, ont également déqualifié cette stigmatisation de la criminalité sexuelle à titre de peine. Le droit relatif au fichage de la délinquance sexuelle donne donc lieu à une érosion des principes fondamentaux de la justice criminelle et punitive.
Resumo:
L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.
Resumo:
Le fardeau vasculaire (présence de maladies vasculaires et/ou cérébrovasculaires) est associé à une augmentation des troubles cognitifs chez les personnes âgées, ainsi qu’à un plus haut risque de démence vasculaire (DV) et de démence de type Alzheimer (DTA). Un nombre restreint de travaux a porté sur l’impact du fardeau vasculaire sur la cognition des personnes avec trouble cognitif léger (TCL). Pourtant, les personnes avec TCL représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence. Cette thèse comprend trois articles de revue qui visent à exposer les connaissances entourant la santé vasculaire et la cognition des personnes âgées et trois articles empiriques (Chapitres 5, 6, 7). La première étude empirique traite de l’impact du fardeau vasculaire sur la cognition des personnes TCL et a comme objectif de spécifier quelles fonctions cognitives sont affectées par le fardeau vasculaire et dans quelle mesure le fardeau vasculaire influence l’hétérogénéité des TCL (Chapitre 5). Dans le cadre de la deuxième étude, nous avons examiné l’intégrité des processus stratégiques et non stratégiques de mémorisation des TCL avec et sans fardeau vasculaire, afin d’évaluer si ces processus diffèrent quantitativement et qualitativement entre ces deux groupes (Chapitre 6). Enfin, dans la troisième étude nous avons évalué les capacités d’association (binding) ainsi que la résistance à l’interférence des personnes TCL, les liens entre ces processus mnésiques et différents marqueurs cérébraux en plus des facteurs permettant de prédire l’évolution vers une démence (Chapitre 7). Les résultats présentés dans cette thèse appuient l’hypothèse selon laquelle le fardeau vasculaire influence le profil cognitif des TCL. Dans un premier temps, nous avons montré que le fardeau vasculaire est associé à une atteinte exécutive plus importante chez les TCL (Chapitre 5). De plus, nos résultats suggèrent que le fardeau vasculaire influence la classification clinique de ces derniers, puisque ceux dont le fardeau est élevé répondent davantage aux critères de TCL amnestique domaine multiple (trouble de mémoire plus au moins un autre déficit cognitif) tandis que ceux sans fardeau répondent davantage aux critères de TCL amnestique domaine unique (trouble isolé de la mémoire). Dans un deuxième temps, nous avons montré des différences dans la nature des processus mnésiques atteints chez les TCL avec et sans fardeau vasculaire (Chapitre 6). Alors que les premiers présentent une atteinte prédominante des processus stratégiques de mémorisation, les seconds présentent une atteinte des processus stratégiques et non stratégiques de mémorisation. Lorsque seuls les résultats des TCL ayant évolué vers une démence sont analysés, le patron d’atteinte est similaire puisque les TCL vasculaires sont quantitativement moins touchés que les TCL non-vasculaires au niveau des processus non-stratégiques de mémorisation. Enfin, tant les TCL qui progressent vers une démence que les TCL qui restent stables après un suivi de trois ans éprouvent tous des difficultés de mémoire associative et sont sensibles à l’interférence proactive (Chapitre 7). De plus, le fardeau vasculaire est associé à la sensibilité à l’interférence alors que le volume hippocampique est associé aux difficultés de mémoire associative. Enfin, nos résultats indiquent que les TCL qui éprouvent des difficultés de mémoire associative sont plus à risque d’évoluer vers une démence que les TCL ne présentant pas ces mêmes difficultés. De façon globale, les résultats de cette thèse révèlent que le fardeau vasculaire joue un rôle important dans l’hétérogénéité des TCL.
Resumo:
La réparation de l’ADN par excision des nucléotides (NER) est un mécanisme capable de retirer une large variété de lésions causant une distorsion de la double hélice, comme celles causées par les rayons ultraviolets (UV). Comme toutes les voies de réparation de l’ADN, la NER contribue à la prévention de la carcinogénèse en prévenant la mutation de l’ADN. Lors de ce processus, il y a d’abord reconnaissance de la lésion par la protéine XPC/Rad4 (humain/levure) qui recrute ensuite TFIIH. Ce complexe déroule l’ADN par son activité hélicase et recrute l’endonucléase XPG/Rad2 ainsi que d’autres protéines nécessaires à l’excision de l’ADN. Lors de son arrivée au site de lésion, XPG/Rad2 déplace XPC/Rad4. TFIIH agit également lors de la transcription de l’ADN, entre autres par son activité hélicase. Outre cette similarité de la présence de TFIIH lors de la transcription et la réparation, il est possible de se demander en quoi les deux voies sont similaires. Nous nous sommes donc intéressés aux interactions impliquant TFIIH et la machinerie de réparation de l’ADN. Nous avons donc entrepris une caractérisation structurale et fonctionnelle de ces interactions. Nous avons découvert que Rad2 et Rad4 possèdent un motif d’interaction en nous basant sur d’autres interactions de la sous-unité Tfb1 de TFIIH. Par calorimétrie à titrage isotherme, nous avons observé que les segments de ces deux protéines contenant ce motif interagissent avec une grande affinité au domaine PH de Tfb1. Le site de liaison de ces segments sur Tfb1PH est très semblable au site de liaison du domaine de transactivation de p53 et au domaine carboxy-terminal de TFIIEα avec Tfb1PH, tel que démontré par résonance magnétique nucléaire (RMN). De plus, tous ces segments peuvent faire compétition les uns aux autres pour la liaison à Tfb1PH. Nous avons aussi démontré in vivo chez la levure qu’une délétion de Tfb1PH crée une sensibilité aux radiations UV. De plus, la délétion de multiples segments de Rad2 et Rad4, dont les segments d’interaction à Tfb1PH, est nécessaire pour voir une sensibilité aux rayons UV. Ainsi, de multiples interactions sont impliquées dans la liaison de Rad2 et Rad4 à TFIIH. Finalement, les structures des complexes Rad2-Tfb1PH et Rad4-Tfb1PH ont été résolues par RMN. Ces structures sont identiques entre elles et impliquent des résidus hydrophobes interagissant avec des cavités peu profondes de Tfb1PH. Ces structures sont très semblables à la structure de TFIIEα-p62PH. Ces découvertes fournissent ainsi un lien important entre la transcription et la réparation de l’ADN. De plus, elles permettent d’émettre un modèle du mécanisme de déplacement de XPC/Rad4 par XPG/Rad2 au site de dommage à l’ADN. Ces connaissances aident à mieux comprendre les mécanismes de maintient de la stabilité génomique et peuvent ainsi mener à développer de nouvelles thérapies contre le cancer.
Resumo:
Introduction: Une éducation nutritionnelle offerte à des personnes âgées contribuerait à améliorer leurs connaissances et leurs habitudes alimentaires. La présente étude s’insère dans le cadre du projet ‘Nutrition-Action’ (NA) ayant pour but de promouvoir les bases d’une alimentation saine et la pratique d’activité physique chez des sujets âgés vivant à domicile et à mobilité réduite. Objectifs : 1) Développer et présenter deux ateliers éducatifs portant sur des notions nutritionnelles précises; 2) Élaborer des outils de collecte de données; 3) Enseigner les notions nutritionnelles sous forme d’un échange continu entre la candidate à la maîtrise et les participants; 4) Évaluer l’impact des ateliers à thématique nutritionnelle sur les habitudes alimentaires des sujets. Sujets : Trente-neuf personnes âgées (PA) participants au projet NA ont été ciblées. Méthodologie : Les participants ont assisté à sept sessions éducatives sur la nutrition. Lors de ces dernières, des solutions nutritionnelles ont été proposées pour pallier à certains problèmes de santé. Une collation et une recette, appuyant le thème de la rencontre, ont été offertes aux participants après la session éducative. Un questionnaire recueillant les caractéristiques sociodémographiques, de santé et alimentaires a été administré aux participants avant le début de l’intervention. Ce même questionnaire, rehaussé en cours de route par des questions additionnelles, a été administré une deuxième fois à la fin de l’intervention. Résultats : La moyenne d’âge des participants était de 80,0 ± 7,7 ans avec une majorité de femmes (84,6%). Un changement significatif des habitudes alimentaires des participants au niveau de l’ajout de sel à table et de la monotonie de la diète a été observé. Conclusion : Les résultats de la présente étude permettent d’établir les facteurs aidant au développement d’interventions éducatives nutritionnelles ciblant des PA. Une meilleure compréhension de ces facteurs contribuerait au changement des comportements alimentaires des aînés.