148 resultados para crédibilité de la preuve
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Le contexte socio-économique marqué par la division du travail favorise les fermetures de marché. La professionnalisation représente un type de fermetures par lequel un groupe occupationnel cherche à obtenir et à maintenir le contrôle de l'environnement interne et externe de son activité économique afin d'éviter que ce contrôle s'exerce exclusivement de l'extérieur. En maintenant le contrôle sur un champ de compétence ou sur une fermeture de marché, un groupe assure la maîtrise de sa survie professionnelle et socio-économique. La recherche de fermeture de marché est une explication possible des considérations sousjacentes à l'intérêt d'un groupe occupationnel pour la professionnalisation. Cette considération ne compromet pas nécessairement la mission de protection du public qui doit guider les ordres professionnels dans l'exercice de leurs pouvoirs de contrôle. En effet, le processus de légitimation favorise au contraire le respect de cette mission. Par ce processus, un groupe occupationnel maintient non seulement la reconnaissance sociale de sa compétence et de son utilité mais également l'exercice des pouvoirs de contrôle qui lui sont octroyés. La légitimité ainsi acquise permet de maintenir le degré de crédibilité nécessaire à la survie du groupe. Cette explication de l'intérêt pour la professionnalisation a été élaborée à partir des critères de trois approches sociologiques qui sont le fonctionnalisme, l'interactionnisme et le conflictualisme. Ces approches ont servi à examiner en premier lieu le Code des professions et en second lieu les stratégies et les arguments de deux acteurs sociaux qui ont un point de vue opposé sur ce phénomène social de l'intérêt pour la professionnalisation.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LL.M. en droit option droit des affaires"
Resumo:
Dans Suresh c. Canada (Ministre de la Citoyenneté et de l'Immigration) (2002), la Cour suprême du Canada en vient à la conclusion que les principes de justice fondamentale prévus à l'm1icle 7 de la Charte canadienne des droits et libertés autorisent, dans des circonstances exceptionnelles, l'expulsion d'une personne vers la torture. La Cour nous indique que l'identification des principes de justice fondamentale doit se fonder sur une démarche contextuelle et sur un consensus dans la société canadienne. Le fondement factuel dans le raisonnement de la Cour est pourtant inexistant. Elle ne traite ni du contexte en matière d'immigration, ni du contexte en matière de sécurité nationale entourant cette décision. La Cour prescrit un haut degré de retenue pour le contrôle judiciaire de la décision du Ministre de la Citoyenneté et de l'Immigration d'expulser une personne vers la torture. Cette retenue explique en partie le traitement déficient des faits. La Cour conclut qu'il y aurait un consensus dans la société canadienne sur le principe de justice fondamentale qui autorise l'expulsion d'une personne vers la torture sans fournir la preuve de ce fait social. L'absence de traitement des faits et de la preuve affecte la légitimité – la force persuasive - de la décision de la Cour suprême dans Suresh.
Resumo:
La théologie catholique affirme que Jésus, médiateur par excellence, est la Révélation plénière de Dieu à son peuple. Cependant, il y a eu au fil des siècles des révélations dites «privées», dont certaines ont été reconnues par l’autorité de l’Église. Le cas des révélations privées non reconnues a toujours été générateur de malentendus et de conflits froids et parfois ouverts entre l’autorité de l’Église et certains fidèles. En contexte africain, où le christianisme se greffe sur la culture traditionnelle, cette question de révélations privées est importante car elle imprègne la religion ancestrale. Dans notre contexte où le Christianisme semble avoir le vent en poupe, on se demande quelque rapport y a-t-il entre foi et expérience individuelle de révélation privée; la révélation privée est-elle un couronnement d’une vie de foi bien menée sous le regard du Seigneur et des hommes? Comment Dieu se manifeste-t-il aux hommes et comment en rendre compte sans faire face à l’adversité? Avec l’étude de l’expérience de Paul en 2Co 12, 1-10, il y a lieu de revenir sur la théologie catholique au sujet de la Révélation en rapport avec les révélations pour voir comment elle s’est articulée, à partir de la Bible, au fil des temps, en fonction des cultures et des réalités sans cesse nouvelles. À la base de cette théologie, on peut trouver en bonne position l’influence herméneutique de l’expérience mystique de Paul. Une révélation privée comme celle qu’il vit, fait toujours face à des doutes ou des attitudes sceptiques parfois tenaces pour se préciser après coup et fonder en raison son apport par rapport au Christ et à la vie ecclésiale. Si le jugement de l’Église est important pour son insertion dans la vie des communautés, toutefois, il faut dire qu’il n’est pas déterminant. Tout se joue entre Dieu et la personne certes, mais la qualité des fruits de ce jeu spirituel étant garante de la crédibilité de la révélation. Dieu, qui sait toujours communiquer avec son peuple sous des formes variées, en est capable en tout temps et selon le mode qu’il se donne. Pour mieux parler de l’expérience de Paul en 2Co 12,1-10, les démarches historico-critique et narrative ont été d’une utilité complémentaire en vue d’authentifier dans la péricope ce qu’il convient d’appeler : la mystique de Paul. Le témoignage spirituel de Paul peut servir de paradigme pour les personnes et d’éclairage pour l’Église dans le discernement des phénomènes de révélation privée aujourd’hui. Paul vit une relation forte avec le Dieu de Jésus Christ, il la fait vivre à ses communautés; quoiqu’il advienne, il n’hésite pas à en rendre compte et à la communauté, et à Pierre et aux autres. Sa vie intensément mystique, ne le soustrait pas de la démarche ecclésiale pour défendre ses révélations.
Resumo:
Cette thèse porte sur l’introduction des politiques de transfert de revenu au Brésil. L’objectif central de la recherche est de comprendre comment ces politiques se sont imposées dans le cadre des réformes de la protection sociale brésilienne pendant les années 1990, notamment à partir de 1995 et comment elles ont engendré un changement paradigmatique de troisième ordre de la politique nationale d’assistance sociale. Nous posons deux hypothèses de recherche : la première est que l’introduction de telles politiques au Brésil fut le résultat du rôle historique des intellectuels engagés dans la défense du revenu minimum en tant qu’alternative au modèle de protection sociale brésilien. Cette défense du revenu minimum fut soutenue par des intellectuels, des communautés épistémiques et par des politiciens qui ont inscrit le débat sur le revenu minimum à l’agenda politique brésilien. La deuxième hypothèse suggère que la convergence d’idées, d’institutions et d’intérêts a favorisé l’adoption de ces politiques. Cette convergence d’idées, d’institutions et d’intérêts repose sur le rôle de plusieurs acteurs tels les intellectuels, le président Cardoso et d’autres politiciens qui se sont mis à la défense du social au Brésil depuis 1999, des institutions parlementaires brésiliennes et des organisations internationales, notamment le FMI, la Banque mondiale et la Banque interaméricaine de développement – BID. Nous proposons l’approche des trois i pour rendre compte de ce changement. L’apprentissage social, les processus de diffusion et de lesson-drawing sont les facteurs à l’origine de la formation de la convergence autour des programmes de transfert de revenu. Nous montrerons que l’expérience brésilienne de programmes de transfert de revenu a non seulement engendré un processus d’apprentissage social renversé auprès de la Banque Mondiale mais qu'elle a aussi eu un effet aussi sur les actions de la BID. Nous suggérons que le changement paradigmatique de la protection sociale brésilienne a été amorcé par le gouvernement Cardoso dans un processus d’essais et d’erreurs. Ce processus, qui est à l’origine des réaménagements du programme « Comunidade Solidária », a permis la création du « Projeto Alvorada » et du « Réseau de protection sociale » en 2001. Les programmes de transfert de revenu reliés à l’éducation et aux soins de santé ont été les plus influents dans la construction du consensus qui s’est établi autour des programmes de transfert de revenu comme alternative à l’ancien modèle de protection sociale puisqu’ils procurent le renforcement du capital social en même temps qu’ils fonctionnent comme facteur structurant de la protection sociale. Ce legs du gouvernement Cardoso a permis au gouvernement de Luis Inácio Lula da Silva de consolider le nouveau paradigme avec la création du programme national Bolsa-Família. Le gouvernement Lula a donc bénéficié de l’héritage historique des deux mandats de Cardoso et, ironiquement, a récolté les fruits de l’apprentissage social. Le phénomène du « lulismo » en est la preuve. Par ailleurs, cette thèse met en question la paternité du programme Bolsa-Família puisqu’elle montre la création de ce programme d'abord comme la consolidation du processus d’apprentissage et puis comme conséquence de la création d’un nouveau paradigme pour la politique d’assistance sociale au Brésil qui a eu lieu pendant les deux mandats de Cardoso.
Resumo:
Comparativement au génome contenu dans le noyau de la cellule de plante, nos connaissances des génomes des deux organelles de cette cellule, soit le plastide et la mitochondrie, sont encore très limitées. En effet, un nombre très restreint de facteurs impliqués dans la réplication et la réparation de l’ADN de ces compartiments ont été identifiés à ce jour. Au cours de notre étude, nous avons démontré l’implication de la famille de protéines Whirly dans le maintien de la stabilité des génomes des organelles. Des plantes mutantes pour des gènes Whirly chez Arabidopsis thaliana et Zea mays montrent en effet une augmentation du nombre de molécules d’ADN réarrangées dans les plastides. Ces nouvelles molécules sont le résultat d’une forme de recombinaison illégitime nommée microhomology-mediated break-induced replication qui, en temps normal, se produit rarement dans le plastide. Chez un mutant d’Arabidopsis ne possédant plus de protéines Whirly dans les plastides, ces molécules d’ADN peuvent même être amplifiées jusqu’à cinquante fois par rapport au niveau de l’ADN sauvage et causer un phénotype de variégation. L’étude des mutants des gènes Whirly a mené à la mise au point d’un test de sensibilité à un antibiotique, la ciprofloxacine, qui cause des bris double brin spécifiquement au niveau de l’ADN des organelles. Le mutant d’Arabidopsis ne contenant plus de protéines Whirly dans les plastides est plus sensible à ce stress que la plante sauvage. L’agent chimique induit en effet une augmentation du nombre de réarrangements dans le génome du plastide. Bien qu’un autre mutant ne possédant plus de protéines Whirly dans les mitochondries ne soit pas plus sensible à la ciprofloxacine, on retrouve néanmoins plus de réarrangements dans son ADN mitochondrial que dans celui de la plante sauvage. Ces résultats suggèrent donc une implication pour les protéines Whirly dans la réparation des bris double brin de l’ADN des organelles de plantes. Notre étude de la stabilité des génomes des organelles a ensuite conduit à la famille des protéines homologues des polymérases de l’ADN de type I bactérienne. Plusieurs groupes ont en effet suggéré que ces enzymes étaient responsables de la synthèse de l’ADN dans les plastides et les mitochondries. Nous avons apporté la preuve génétique de ce lien grâce à des mutants des deux gènes PolI d’Arabidopsis, qui encodent des protéines hautement similaires. La mutation simultanée des deux gènes est létale et les simples mutants possèdent moins d’ADN dans les organelles des plantes en bas âge, confirmant leur implication dans la réplication de l’ADN. De plus, les mutants du gène PolIB, mais non ceux de PolIA, sont hypersensibles à la ciprofloxacine, suggérant une fonction dans la réparation des bris de l’ADN. En accord avec ce résultat, la mutation combinée du gène PolIB et des gènes des protéines Whirly du plastide produit des plantes avec un phénotype très sévère. En définitive, l’identification de deux nouveaux facteurs impliqués dans le métabolisme de l’ADN des organelles nous permet de proposer un modèle simple pour le maintien de ces deux génomes.
Resumo:
Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
La porte d’entrée méthodologique de cette recherche repose sur l’observation participante d’une patiente atteinte de «douleur chronique» adressée pour accompagnement thérapeutique par le Qi Gong. L’énoncé fréquent de situations de conflit avec la famille, avec l’employeur ou avec les médecins, m’a amenée à y considérer la similitude entre les symptômes énoncés, les usages du corps et les attitudes mentales en lien avec une représentation mécaniste et duelle du corps. Marcel Mauss a été le premier à désigner ce rapport entre les usages du corps et les paradigmes sociétaux et culturels, à l’œuvre. Dans une ère fortement marquée par la robotisation des entreprises et des services, la dématérialisation des documents et la tyrannie des nouvelles technologies, la «douleur chronique» vient donc questionner les usages du corps contemporain dans un monde du travail axé sur la performance et la productivité. Cette recherche a pour but d’interroger en quoi la «douleur chronique» serait un symptôme des apories contemporaines, dépassant ainsi largement le champ de la médecine et en quoi elle serait comme l’arme du faible, the weapon of the weak, en contexte d’oppression (Scott, 1985). Ultimement, elle questionne l’affirmation de Michel Foucault selon laquelle «nous avons tous du pouvoir dans le corps» (1987: 27). Le recueil de récits de vie auprès de professionnels de la danse, pressentis pour leur habileté à décrire leur ressenti, y déjoue une tendance à reléguer dans le domaine de la psyché ce qui ne fait pas la preuve de son évidence. La forte crédibilité de leur parole permet en outre de mieux documenter un phénomène complexe, entâché de beaucoup d’à priori et de révéler les dynamiques de pouvoir à l’œuvre au sein d’une profession confrontée aux limites corporelles, plus que tout autre, dans l’exercice de son art. Une approche généalogique de ces histoires de douleur et leur mise côte à côte permet d’identifier les «plis» que sont l’endurance et le rejet de toute médication face à la douleur et comment ils infléchissent son évolution. Une analyse plus approfondie des six d’entre elles qui s’en sont sorties y démontre que si le pouvoir s’exerce sur un corps perçu comme docile, il peut aussi s’inverser pour contribuer à la guérison, au prix d’une insurrection de savoirs enfouis, universels, mais «assujettis», et d’un changement de paradigme. Ainsi, une meilleure compréhension de la «douleur chronique» laisse entrevoir une possible réversibilité du phénomène et une réinsertion sociale, avec ou sans réorientation de carrière, à condition de repenser nos modes de représentation, de production, de relation au travail et aux usages du corps, le rapport à l’Autre et à soi.
Resumo:
Nous sommes quotidiennement envahis pour d’innombrables messages électroniques non sollicités, qu’il s’agisse d’annonces publicitaires, de virus ou encore de ce qu’on appelle désormais les métavirus. Ces derniers sont des canulars transmis aux internautes leur suggérant de poser tel ou tel geste, lequel causera des dommages plus ou moins importants au système de l’utilisateur. L’auteur se penche sur la problématique que suscitent ces métavirus au niveau de la responsabilité civile de leurs émetteurs. Il en vient à la conclusion que ce régime, bien qu’applicable en théorie, demeure mal adapté au problème notamment au niveau de la preuve des éléments de la responsabilité civile. Il faut d’abord établir la capacité de discernement (ou l’incapacité) de l’émetteur, la connaissance ou non de cet état par le destinataire et la preuve d’un comportement fautif de la part de l’émetteur voire même des deux parties. Reste à savoir quelle aurait été l’attitude raisonnable dans la situation. À noter que la victime pourrait être trouvée partiellement responsable pour ses propres dommages. Reste alors à prouver le lien de causalité entre l’acte et le dommage ce qui, compte tenu de la situation factuelle, peut s’avérer une tâche ardue. L’auteur conclut que l’opportunité d’un tel recours est très discutable puisque les coûts sont disproportionnés aux dommages et car les chances pour qu’un juge retienne la responsabilité de celui qui a envoyé le métavirus sont assez faibles. La meilleure solution, ajoute-t-il, reste la prudence.
Resumo:
L’allaitement maternel est reconnu comme la façon optimale de nourrir les nourrissons et les jeunes enfants. Néanmoins, le Québec présente des taux d’allaitement parmi les plus faibles au Canada. Dans un tel contexte, le gouvernement provincial plaça l’allaitement comme l’une de ses priorités de santé publique et il publia, en 2001, la politique L’allaitement maternel au Québec : Lignes directrices (LD). Cette étude a pour but de comprendre les processus d’émergence, d’élaboration et de mise en œuvre des LD. Il s’agit d’une étude de cas unique qualitative. Les données ont été recueillies par des entrevues et un groupe de discussion auprès de personnes engagées dans ce domaine et par la recension documentaire. Une analyse thématique déductive-inductive a été réalisée en utilisant la théorie institutionnelle. Les LD ont émergé à partir d’un mouvement professionnel qui a collaboré avec le ministère de la Santé et des Services sociaux pendant la phase d’élaboration et le début de la phase d’implantation de la politique. Au fil du temps, la prise de décisions a été centralisée, les mécanismes de concertation sont devenus désuets et les relations entre les acteurs concernés sont devenues moins coopératives. L’inconfort et le mécontentement avec cette nouvelle façon de gérer le dossier allaitement ont favorisé l’émergence d’un nouveau mouvement professionnel. L’étude conclut cependant que les acteurs concernés par l’allaitement au Québec visent l’atteinte du même but et que la collaboration est possible même dans un domaine très institutionnalisé comme celui de la santé, la preuve étant la formulation consensuelle des LD.
Resumo:
En lien avec l’augmentation constante de l’obésité, de plus en plus de personnes sont atteintes de résistance à l’insuline ou de diabète de type 2. Ce projet doctoral s’est surtout intéressé à l’une des conséquences majeures des pathologies cardiométaboliques, soit la dyslipidémie diabétique. À cet égard, les gens présentant une résistance à l’insuline ou un diabète de type 2 sont plus à risque de développer des perturbations lipidiques caractérisées essentiellement par des taux élevés de triglycérides et de LDL-cholestérol ainsi que de concentrations restreintes en HDL-cholestérol dans la circulation. Les risques de maladies cardiovasculaires sont ainsi plus élevés chez ces patients. Classiquement, trois organes sont connus pour développer l’insulino-résistance : le muscle, le tissu adipeux et le foie. Néanmoins, certaines évidences scientifiques commencent également à pointer du doigt l’intestin, un organe critique dans la régulation du métabolisme des lipides postprandiaux, et qui pourrait, conséquemment, avoir un impact important dans l’apparition de la dyslipidémie diabétique. De façon très intéressante, des peptides produits par l’intestin, notamment le GLP-1 (glucagon-like peptide-1), ont déjà démontré leur potentiel thérapeutique quant à l’amélioration du statut diabétique et leur rôle dans le métabolisme intestinal lipoprotéinique. Une autre évidence est apportée par la chirurgie bariatrique qui a un effet positif, durable et radical sur la perte pondérale, le contrôle métabolique et la réduction des comorbidités du diabète de type 2, suite à la dérivation bilio-intestinale. Les objectifs centraux du présent programme scientifique consistent donc à déterminer le rôle de l’intestin dans (i) l’homéostasie lipidique/lipoprotéinique en réponse à des concentrations élevées de glucose (à l’instar du diabète) et à des peptides gastro-intestinaux tels que le PYY (peptide YY); (ii) la coordination du métabolisme en disposant de l’AMPK (AMP-activated protein kinase) comme senseur incontournable permettant l’ajustement précis des besoins et disponibilités énergétiques cellulaires; et (iii) l’ajustement de sa capacité d’absorption des graisses alimentaires en fonction du gain ou de la perte de sa sensibilité à l’insuline démontrée dans les spécimens intestinaux humains prélevés durant la chirurgie bariatrique. Dans le but de confirmer le rôle de l’intestin dans la dyslipidémie diabétique, nous avons tout d’abord utilisé le modèle cellulaire intestinal Caco-2/15. Ces cellules ont permis de démontrer qu’en présence de hautes concentrations de glucose en basolatéral, telle qu’en condition diabétique, l’intestin absorbe davantage de cholestérol provenant de la lumière intestinale par l’intermédiaire du transporteur NPC1L1 (Niemann Pick C1-like 1). L’utilisation de l’ezetimibe, un inhibiteur du NPC1L1, a permis de contrecarrer cette augmentation de l’expression de NPC1L1 tout comme l’élévation de l’absorption du cholestérol, prouvant ainsi que le NPC1L1 est bel et bien responsable de cet effet. D’autre part, des travaux antérieurs avaient identifié certains indices quant à un rôle potentiel du peptide intestinal PYY au niveau du métabolisme des lipides intestinaux. Toutefois, aucune étude n’avait encore traité cet aspect systématiquement. Pour établir définitivement l’aptitude du PYY à moduler le transport et le métabolisme lipidique dans l’intestin, nous avons utilisé les cellules Caco-2/15. Notre étude a permis de constater que le PYY incubé du côté apical est capable de réduire significativement l’absorption du cholestérol et le transporteur NPC1L1. Puisque le rôle de l'AMPK dans l'intestin demeure inexploré, il est important non seulement de définir sa structure moléculaire, sa régulation et sa fonction dans le métabolisme des lipides, mais aussi d'examiner l'impact de l’insulino-résistance et du diabète de type 2 (DT2) sur son statut et son mode d’action gastro-intestinal. En employant les cellules Caco-2/15, nous avons été capables de montrer (i) la présence de toutes les sous-unités AMPK (α1/α2/β1/β2/γ1/γ2/γ3) avec une différence marquée dans leur abondance et une prédominance de l’AMPKα1 et la prévalence de l’hétérotrimère α1/β2/γ1; (ii) l’activation de l’AMPK par la metformine et l’AICAR, résultant ainsi en une phosphorylation accrue de l’enzyme acétylCoA carboxylase (ACC) et sans influence sur l'HMG-CoA réductase; (iii) la modulation négative de l’AMPK par le composé C et des concentrations de glucose élevées avec des répercussions sur la phosphorylation de l’ACC. D’autre part, l’administration de metformine au Psammomys obesus, un modèle animal de diabète et de syndrome métabolique, a conduit à (i) une régulation positive de l’AMPK intestinale (phosphorylation de l’AMPKα-Thr172); (ii) la réduction de l'activité ACC; (iii) l’augmentation de l’expression génique et protéique de CPT1, supportant une stimulation de la β-oxydation; (iv) une tendance à la hausse de la sensibilité à l'insuline représentée par l’induction de la phosphorylation d'Akt et l’inactivation de la phosphorylation de p38; et (v) l’abaissement de la formation des chylomicrons ce qui conduit à la diminution de la dyslipidémie diabétique. Ces données suggèrent que l'AMPK remplit des fonctions clés dans les processus métaboliques de l'intestin grêle. La preuve flagrante de l’implication de l’intestin dans les événements cardiométaboliques a été obtenue par l’examen des spécimens intestinaux obtenus de sujets obèses, suite à une chirurgie bariatrique. L’exploration intestinale nous a permis de constater chez ceux avec un indice HOMA élevé (marqueur d’insulinorésistance) (i) des défauts de signalisation de l'insuline comme en témoigne la phosphorylation réduite d'Akt et la phosphorylation élevée de p38 MAPK; (ii) la présence du stress oxydatif et de marqueurs de l'inflammation; (iii) la stimulation de la lipogenèse et de la production des lipoprotéines riches en triglycérides avec l’implication des protéines clés FABP, MTP et apo B-48. En conclusion, l'intestin grêle peut être classé comme un tissu insulino-sensible et répondant à plusieurs stimuli nutritionnels et hormonaux. Son dérèglement peut être déclenché par le stress oxydatif et l'inflammation, ce qui conduit à l'amplification de la lipogenèse et la synthèse des lipoprotéines, contribuant ainsi à la dyslipidémie athérogène chez les patients atteints du syndrome métabolique et de diabète de type 2.
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.