395 resultados para Voie visuelle ventrale
Resumo:
L’ubiquitin-fold modifier (UFM1) fait partie de la classe 1 de la famille de protéine ubiquitin-like (Ubl). UFM1 et Ub ont très peu d’homologie de séquence, mais partagent des similarités remarquables au niveau de leur structure tertiaire. Tout comme l’Ub et la majorité des autres Ubls, UFM1 se lie de façon covalente à ses substrats par l’intermédiaire d’une cascade enzymatique. Il est de plus en plus fréquemment rapporté que les protéines Ubls sont impliquées dans des maladies humaines. Le gène Ufm1 est surexprimé chez des souris de type MCP développant une ischémie myocardique et dans les îlots de Langerhans de patients atteints du diabète de type 2. UFM1 et ses enzymes spécifiques, UBA5, UFL1 et UFC1, sont conservés chez les métazoaires et les plantes suggérant un rôle important pour les organismes multicellulaires. Le Caenorhabditis elegans est le modèle animal le plus simple utilisé en biologie. Sa morphologie, ses phénotypes visibles et ses lignées cellulaires ont été décrits de façon détaillée. De plus, son cycle de vie court permet de rapidement observer les effets de certains gènes sur la longévité. Ce modèle nous permet de facilement manipuler l’expression du gène Ufm1 et de mieux connaître ses fonctions. En diminuant l’expression du gène ufm-1 chez le C.elegans, par la technique de l’ARN interférence par alimentation, nous n’avons observé aucun problème morphologique grave. Les vers ressemblaient aux vers sauvages et possédaient un nombre de progéniture normal. Cependant, les vers sauvage exposés à l’ARNi d’ufm-1 vivent significativement moins longtemps que les contrôles et ce, de façon indépendante de la voie de signalisation de l’insuline/IGF. Chez le C. elegans la longévité et la résistance au stress cellulaire sont intimement liées. Nous n’avons remarqué aucun effet d’ufm-1 sur le stress thermal, osmotique ou oxydatif, mais il est requis pour la protection contre le stress protéotoxique. Il est également nécessaire au maintien de l’intégrité neuronale au cours du vieillissement des animaux. L’ensemble de nos données nous renseigne sur les fonctions putatives du gène Ufm1.
Resumo:
Les nouvelles technologies jouent un rôle croissant dans notre société. Le droit s’est interrogé sur la façon de rendre possible l’utilisation du support électronique dans un monde où seule l’utilisation du support papier était possible jusqu’à peu. L’objectif était d’éviter que la loi par son attachement au support papier n’entrave l’utilisation des nouvelles technologies et plus largement le développement des échanges en ligne. Dans ce contexte, la Commission des Nations Unies pour le Développement du Commerce International (CNUDCI) a développé les principes de neutralité technologique et d’équivalence fonctionnelle aux termes desquels les écrits électroniques sont considérés comme équivalents à ceux papiers s’ils sont en mesure d’endosser les mêmes fonctions que ces derniers. Le législateur français, s’inspirant des travaux de la CNUDCI, a modifié sa législation pour permettre la reconnaissance de la valeur juridique des actes passés par voie électronique. La reconnaissance de la valeur juridique des actes conclus par voie électronique laisse cependant subsister certaines questions relatives la protection du consentement de celui qui contracte en ligne. Le législateur français a ainsi élaboré des règles formalistes et dérogatoires au droit commun concernant la conclusion des contrats électroniques pour protéger le consommateur en ligne.
Resumo:
L’hépatite autoimmune (HAI) est une maladie grave affectant le foie et présentant un haut taux de mortalité lorsque non traitée. Les traitements disponibles sont efficaces, mais de graves effets secondaires leur sont associés. Ces effets secondaires sont généralement le résultat d'une forte immunosuppression et d’autres sont spécifiques à chaque médicament. Aucune immunothérapie spécifique n’est présentement disponible pour le traitement de l’HAI. Récemment, un modèle murin d’HAI a été développé dans notre laboratoire par xénoimmunisation des souris C57BL/6 avec les antigènes humains de l'HAI de type 2. Ce modèle présente la plupart des caractéristiques biochimiques et cliniques retrouvées chez les patients atteints d'HAI de type 2. Dans cette étude, nous avons évaluée l’efficacité de deux types de traitement pour l’HAI de type 2 à l’aide de notre modèle murin. Dans un premier temps, l’anticorps anti-CD3ε a été étudié en prophylaxie et en traitement. Nous avons montré qu’une posologie de 5µg d’anti-CD3 i.v. par jour pendant 5 jours consécutifs induit une rémission chez les souris avec HAI de type 2 établie (traitement). Cette rémission est caractérisée par une normalisation des niveaux d’alanine aminotransférase et une diminution significative de l’inflammation hépatique. Cette rémission semble être associée à une déplétion partielle et transitoire des lymphocytes T CD3+ dans la périphérie et une augmentation des lymphocytes T régulateurs CD4+, CD25+ et Foxp3+ dans le foie. La même posologie lorsqu’elle est appliquée en prophylaxie n’a pas réussi à prévenir l’apparition de l’HAI de type 2. La deuxième voie de traitement consiste en l’administration par voie intranasale d’un forte dose de formiminotransférase cyclodésaminase murin (mFTCD), un autoantigène reconnu dans l’HAI de type 2. Une administration en prophylaxie par voie intranasale de 100µg de mFTCD par jour durant 3 jours consécutifs arrive à prévenir l’HAI de type 2 en diminuant l’inflammation hépatique au bout de deux semaines post-traitement.
Resumo:
La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe. Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes). Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme. Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées. Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter. Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales. En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population.
Resumo:
La découverte du système des peptides natriurétiques (NP), au début des années 80, fut une découverte majeure qui révéla le rôle endocrinien du cœur. Les connaissances sur la relaxation vasculaire, la diurèse et la natriurèse provoquées par ce système ont évolué vers un niveau de complexité insoupçonné à cette époque. Nous savons à présent que les NP sont impliqués dans plusieurs autres mécanismes dont la prolifération cellulaire, l’apoptose, l’inhibition du système rénine-angiotensine-aldostérone (RAAS) et le métabolisme des adipocytes. Le métabolisme des lipides est maintenant devenu une cible de choix dans la lutte contre l’obésité. Cette condition aux proportions pandémiques est un facteur de risque majeur dans l’apparition de l’hypertension et du syndrome métabolique (MetS). La compréhension des mécanismes et des défauts de la voie des NP pourrait avoir un impact positif sur le contrôle du MetS et de l’hypertension. L’expression du récepteur des peptides natriuretiques de type 1 (NPR1/GCA) est contrôlée par plusieurs agents incluant son propre ligand, le peptide natriurétique de l’oreillette (ANP). La découverte d’une boucle de retro-inhibition, dans les années 90, a été un événement majeur dans le domaine des NP. En effet, suite à une stimulation à l’ANP, le NPR1/GCA peut inhiber l’activité transcriptionnelle de son propre gène par un mécanisme dépendant du cGMP. Notre groupe a identifié un élément cis-régulateur responsable de cette sensibilité au cGMP et mon projet consistait à identifier la ou les protéine(s) liant cet élément de réponse au cGMP (cGMP-RE). Nous avons identifié un clone liant le cGMP-RE en utilisant la technique du simple hybride chez la levure et une banque d’ADN complémentaire (ADNc) de rein humain. Ce clone provient d’un ADNc de 1083-bp dont le gène est localisé sur le chromosome 1 humain (1p33.36) et codant pour une protéine dont la fonction était inconnue jusqu’ici. Nous avons nommé cette nouvelle protéine GREBP en raison de sa fonction de cGMP Response Element Binding Protein. Des essais de liaison à l’ADN ont montré que cette protéine possède une affinité 18 fois plus élevée pour le cGMP-RE que le contrôle, tandis que des expériences de retard sur gel (EMSA) ont confirmé la spécificité des interactions protéine-ADN. De plus, l’immuno-précipitation de la chromatine (ChIP) a prouvé que GREBP lie le cGMP-RE dans des conditions physiologiques. La liaison de GREBP au cGMP-RE inhibe l’expression du gène rapporteur luciférase sous contrôle du promoteur de npr1/gca. L’inhibition de GREBP à l’aide d’ARN interférant active le promoteur de npr1/gca. Dans les cellules NCI-H295R, l’ANP stimule l’expression de grebp de 60% après seulement 3 heures et inhibe l’expression de npr1/gca de 30%. GREBP est une protéine nucléaire surtout exprimée dans le cœur et ayant le facteur eIF3F comme partenaire. Les variations nucléotidiques du gène sont plus fréquentes chez les patients hypertendus que chez des patients normotendus ou hypertendus souffrant de MetS. Nous rapportons ici l’existence d’un gène spécifique à l’humain qui agit comme répresseur transcriptionnel de npr1/gca et potentiellement impliqué dans le développement de l’hypertension.
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire à été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
Le législateur a introduit, à la fin des années 1980, une institution permettant à tout individu majeur et apte de confier, advenant son inaptitude, son bien-être, la gestion de ses biens et, de façon générale, sa protection à une personne en qui il a confiance. Cette institution s’appelle le mandat donné en prévision de l’inaptitude du mandant. Toutefois, les besoins du mandant ne peuvent être déterminés avec précision avant la survenance de son inaptitude. Cette situation a amené une certaine doctrine, en vue d’assurer la sauvegarde de l’autonomie résiduelle du mandant, à invoquer en matière de mandat de protection les principes gouvernant les régimes de protection. Malheureusement, en l’absence de disposition expresse à cet effet, il semble que cette voie ne puisse être adoptée. En conséquence, le présent mémoire tente de démontrer que les principes énoncés à la Charte des droits et libertés de la personne et les fondements du régime contractuel prévu au Code civil du Québec permettent d’assurer la protection du mandant dans le respect de ses intérêts et de ses attentes légitimes. Cette approche concilie également le respect de l’autonomie résiduelle du mandant, de ses volontés et de son besoin de protection et assure l’efficacité de l’institution.
Resumo:
Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.
Resumo:
L’immunosuppression a permis d’améliorer l’incidence du rejet aigu sans toutefois améliorer significativement le rejet chronique. Celui-ci est caractérisé par une vasculopathie du greffon (VG) similaire à une forme accélérée d’athérosclérose native accompagnée de fibrose. La pathophysiologie de la VG découle de l’hypothèse de réponse à l’insulte proposée par Russell Ross en 1977. Selon son postulat, l’endothélium stressé par des facteurs immunologiques et non immunologiques initie l’apoptose endothéliale suivi d’une réponse de réparation vasculaire via un épaississement myo-intimal aux sites d’insultes. Toutefois, lorsque les stress endothéliaux initiaux demeurent soutenus, l’apoptose endothéliale et la réponse de réparation perpétuent. Compte tenu que l’inhibition de l’apoptose endothéliale bloque le développement de la VG in vivo, notre hypothèse de travail reposait sur les répercussions paracrines de l’apoptose endothéliale sur les types cellulaires participant au remodelage vasculaire. Nous avons généré un système expérimental in vitro afin d’induire l’apoptose endothéliale en absence significative de nécrose cellulaire. À l’aide d’une approche protéomique multidimensionnelle et comparative, nous avons démontré que les cellules endothéliales apoptotiques exportent spécifiquement 27 signaux post mortem (SPM). Nous avons démontré que certains de ces SPM ont des propriétés anti-apoptotiques (TCTP et EGF), d’autre fibrogénique (CTGF), récapitulant ainsi certains phénotypes cellulaires associés au développement de la VG. Parmi les médiateurs identifiés, 16 n’avaient pas de signal de sécrétion, incluant TCTP, suggérant que des mécanismes de sécrétion non conventionnels soient favorisés durant l’apoptose. Nous avons démontré que la caspase-3 effectrice régule la voie de sécrétion non classique exosomiale associée à l’export extracellulaire de nanovésicules TCTP+VE, anti-apoptotiques et biochimiquement distinctes des corps apoptotiques. Finalement, l’ensemble des données protéomiques ont permis d’émettre l’hypothèse qu’en réponse à un stress apoptotique, la cellule exporte différents médiateurs (solubles et vésiculaires) de manière non conventionnelle nécessitant la fusion d’organelles de la voie endocytaire et autophagique avec la membrane plasmique. Ce mécanisme serait régulé durant la phase effectrice de l’apoptose permettant ainsi d’initier une réponse de réparation extracellulaire seulement lorsque le destin cellulaire a atteint un point de non retour. Ainsi, le testament protéique et nanovésiculaire légué durant l’apoptose endothéliale pourrait servir simultanément de biomarqueur de la VG et de cible thérapeutique afin de diminuer le remodelage vasculaire pathologique.
Resumo:
Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.
Resumo:
L’objectif principal de cette thèse était de quantifier et comparer l’effort requis pour reconnaître la parole dans le bruit chez les jeunes adultes et les personnes aînées ayant une audition normale et une acuité visuelle normale (avec ou sans lentille de correction de la vue). L’effort associé à la perception de la parole est lié aux ressources attentionnelles et cognitives requises pour comprendre la parole. La première étude (Expérience 1) avait pour but d’évaluer l’effort associé à la reconnaissance auditive de la parole (entendre un locuteur), tandis que la deuxième étude (Expérience 2) avait comme but d’évaluer l’effort associé à la reconnaissance auditivo-visuelle de la parole (entendre et voir le visage d’un locuteur). L’effort fut mesuré de deux façons différentes. D’abord par une approche comportementale faisant appel à un paradigme expérimental nommé double tâche. Il s’agissait d’une tâche de reconnaissance de mot jumelée à une tâche de reconnaissance de patrons vibro-tactiles. De plus, l’effort fut quantifié à l’aide d’un questionnaire demandant aux participants de coter l’effort associé aux tâches comportementales. Les deux mesures d’effort furent utilisées dans deux conditions expérimentales différentes : 1) niveau équivalent – c'est-à-dire lorsque le niveau du bruit masquant la parole était le même pour tous les participants et, 2) performance équivalente – c'est-à-dire lorsque le niveau du bruit fut ajusté afin que les performances à la tâche de reconnaissance de mots soient identiques pour les deux groupes de participant. Les niveaux de performance obtenus pour la tâche vibro-tactile ont révélé que les personnes aînées fournissent plus d’effort que les jeunes adultes pour les deux conditions expérimentales, et ce, quelle que soit la modalité perceptuelle dans laquelle les stimuli de la parole sont présentés (c.-à.-d., auditive seulement ou auditivo-visuelle). Globalement, le ‘coût’ associé aux performances de la tâche vibro-tactile était au plus élevé pour les personnes aînées lorsque la parole était présentée en modalité auditivo-visuelle. Alors que les indices visuels peuvent améliorer la reconnaissance auditivo-visuelle de la parole, nos résultats suggèrent qu’ils peuvent aussi créer une charge additionnelle sur les ressources utilisées pour traiter l’information. Cette charge additionnelle a des conséquences néfastes sur les performances aux tâches de reconnaissance de mots et de patrons vibro-tactiles lorsque celles-ci sont effectuées sous des conditions de double tâche. Conformément aux études antérieures, les coefficients de corrélations effectuées à partir des données de l’Expérience 1 et de l’Expérience 2 soutiennent la notion que les mesures comportementales de double tâche et les réponses aux questionnaires évaluent différentes dimensions de l’effort associé à la reconnaissance de la parole. Comme l’effort associé à la perception de la parole repose sur des facteurs auditifs et cognitifs, une troisième étude fut complétée afin d’explorer si la mémoire auditive de travail contribue à expliquer la variance dans les données portant sur l’effort associé à la perception de la parole. De plus, ces analyses ont permis de comparer les patrons de réponses obtenues pour ces deux facteurs après des jeunes adultes et des personnes aînées. Pour les jeunes adultes, les résultats d’une analyse de régression séquentielle ont démontré qu’une mesure de la capacité auditive (taille de l’empan) était reliée à l’effort, tandis qu’une mesure du traitement auditif (rappel alphabétique) était reliée à la précision avec laquelle les mots étaient reconnus lorsqu’ils étaient présentés sous les conditions de double tâche. Cependant, ces mêmes relations n’étaient pas présentes dans les données obtenues pour le groupe de personnes aînées ni dans les données obtenues lorsque les tâches de reconnaissance de la parole étaient effectuées en modalité auditivo-visuelle. D’autres études sont nécessaires pour identifier les facteurs cognitifs qui sous-tendent l’effort associé à la perception de la parole, et ce, particulièrement chez les personnes aînées.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
L’école ne semble plus en mesure de répondre par elle-même aux besoins multidimensionnels des élèves en difficulté qui sont maintenant intégrés dans la classe ordinaire. (Cooper, 1999; Deslandes & Bertrand, 2001; Dryfoos, 1994; Greenberg, 2004; Ministère de l'Éducation du Loisir et du Sport, 2005; Paavola, 1995; Riddle & Tett, 2001; The Learning Partnership, 2004). Les équipes de soutien à l’enseignant semblent un moyen efficace d’appuyer l’enseignant et l’élève, mais cette approche est très peu utilisée dans les milieux éducatifs au Canada. Certains élèves présentant des problèmes complexes ne reçoivent pas l’appui nécessaire faute d’un manque de spécialiste à l’intérieur du cadre scolaire. Dans cette perspective, les services intégrés pourraient être une voie propice pour le travail de partenariat mais plusieurs obstacles semblent empêcher la collaboration et la coopération entre les intervenants scolaires et les partenaires de la communauté. La présente recherche a identifié un modèle qui permet d’appuyer l’enseignant dans sa pratique afin d’aider l’élève en difficulté et de le maintenir dans la classe ordinaire. Le modèle d’équipe de soutien à l’enseignant mis en œuvre dans les écoles d’un conseil francophone scolaire de l’Ontario est un modèle dérivé de Chalfant, Pysh et Moultrie (1979). Vers les années 1970, ces équipes ont été formées en vue d’offrir un appui à l’enseignant de classe ordinaire pour éviter les placements d'élèves en éducation spéciale l’intention est encore la même en 2010. Par ce modèle, nous favorisons l’entrée des services intégrés à l’intérieur du cadre scolaire et les partenaires travaillent en équipe afin de favoriser le succès scolaire des élèves. Un coordonnateur du milieu scolaire est le lien qui assure la coordination et les suivis des différentes recommandations proposées par l’équipe. Le travail de collaboration et de coopération est essentiel pour assurer le succès scolaire de l’élève. Les résultats de cette mise en œuvre nous ont permis de constater que le modèle est efficace dans l’atteinte de ses buts. D’une façon générale, les intervenants scolaires affirment se sentir effectivement appuyés par les équipes de soutien tant dans la formation, les échanges et les discussions que dans les ressources matérielles. Ce qui ressort le plus souvent de leurs propos est qu’ils apprécient la réelle collaboration et la concertation qui existent entre tous les intervenants qui assurent les suivis. Quatre-vingt-treize pour cent des répondants qui ont participé aux équipes de soutien affirment qu’il y a eu des changements positifs chez les élèves. Différents défis ont aussi été relevés. Mentionnons entre autre, la lourdeur du rôle du coordonnateur, la grandeur du territoire du Conseil (perte de temps sur la route), des cas de conflits existants entre les parents et l’école. Indépendamment de ces défis, l’application du modèle d’équipe de soutien à l’enseignant répond à l’objectif d’inclusion scolaire des élèves en difficulté tout en permettant aux enseignants de ne pas se sentir seuls ni d’être effectivement seuls à assumer ce mandat.