12 resultados para Restricted Range

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

CD4+ T lymphocytes play an important role in CD8+ T cell-mediated responses against tumors. Considering that about 20% of melanomas express major histocompatibility complex (MHC) class II, it is plausible that concomitant antigenic presentation by MHC class I and class II complexes shapes positive (helper T cells) or negative (regulatory T cells) anti-tumor responses. Interestingly, gp100, a melanoma antigen, can be presented by both MHC class I and class II when expressed endogenously, suggesting that it can reach endosomal/MHC class II compartments (MIIC). Here, we demonstrated that the gp100 putative amino-terminal signal sequence and the last 70 residues in carboxy-terminus, are essential for MIIC localization and MHC class II presentation. Confocal microscopy analyses confirmed that gp100 was localized in LAMP-1+ endosomal/MIIC. Gp100-targeting sequences were characterized by deleting different sections in the carboxy-terminus (residues 590 to 661). Transfection in 293T cells, expressing MHC class I and class II molecules, revealed that specific deletions in carboxy-terminus resulted in decreased MHC class II presentation, without effects on MHC class I presentation, suggesting a role in MIIC trafficking for these deleted sections. Then, we used these gp100-targeting sequences to mobilize the green fluorescent protein (GFP) to endosomal compartments, and to allow MHC class II and class I presentation of minimal endogenous epitopes. Thus, we concluded that these specific sequences are MIIC targeting motifs. Consequently, these sequences could be included in expression cassettes for endogenously expressed tumor or viral antigens to promote MHC class II and class I presentation and optimize in vivo T cell responses, or as an in vitro tool for characterization of new MHC class II epitopes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dominant firm holding import quota engages in inter-temporal price discrimination when facing a competitive fringe engaged in seasonal production. This causes a welfare loss that comes in addition the loss attributable to limitation of imports below the free trade level.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe. Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes). Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme. Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées. Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter. Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales. En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les maladies inflammatoires de l'intestin (MII) sont caractérisées par des réponses immunitaires incontrôlées dans l'intestin. Des études génétiques ont associé un polymorphisme dans le gène de l'IL23R à la résistance aux MII. IL23R code pour la protéine de l’IL-23r, une sous-unité du récepteur à l’IL-23 (IL-23R). Ce récepteur appartient à la famille de l’IL-12R, contenant plusieurs récepteurs hétérodimériques. D’ailleurs, IL-12R et IL-23R partagent la sous-unité IL12Rb1. Néanmoins, ces deux récepteurs favorisent des réponses immunitaires distinctes (Th1 vs Th17). Ce mémoire caractérise les dynamiques d’expression cellulaires de l’IL-23R et l’IL-12R, afin d’élucider leurs rôles dans l’inflammation. Nous avons établi qu’IL-23R et IL-12R ne sont jamais co-exprimés, malgré qu’ils partagent la sous-unité IL-12Rβ1. Parmi les cellules de rates de souris, la protéine IL-23r est trouvée dans certaines cellules T TCRγδ ou T CD4+, quelques cellules B et des cellules Lti-like. La protéine IL-12Rβ2 est exprimée par quelques cellules B. L’analyse de l’expression de l’IL-23R et l’IL-12R dans différents organes révéla que la plus grande proportion de cellules exprimant l’IL-23R se retrouve dans la lamina propria de l'intestin grêle, alors que les cellules exprimant l’IL-12Rβ2 ont été retrouvées en proportion équivalente dans tous les organes lymphoïdes. Ces observations appuient les études génétiques suggérant un rôle prédominant de l’IL23R dans les intestins. Finalement, des cultures in vitro suggèrent que l’IL-23R ou l’IL-12R avaient des réactions croisées à l’IL-12 ou l’IL-23. L’étude de l’IL-23R dans les MII devrait donc être complémentée par l’étude de l’IL-12R, car les deux récepteurs pourraient avoir des rôles complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Induction of cyclooxygenase-2 (COX-2) has been described in a wide range of neurological diseases including animal models of epilepsy. The present study was undertaken to assess COX-2 expression in hippocampal biopsies from patients with therapy-refractive temporal lobe epilepsy (TLE). For this purpose, hippocampal CA1 subfield was dissected from epileptic patients with (n=5) or without (n=2) hippocampal sclerosis (HS). COX-2 expression was investigated using immunohistochemistry and semi-quantitative RT-PCR. COX-2 immunoreactivity in TLE patient material in the absence of HS was restricted to a few neurons of the hippocampus. In the presence of HS, on the other hand, a significant induction of astrocytic COX-2 immunoreactivity associated with a concomitant increase in the steady-state level of COX-2 mRNA was observed in the CA1 subfield. These findings suggest that induction of astrocytic COX-2 is implicated in the pathogenesis of HS in TLE and is consistent with the previous findings of increased concentrations of prostaglandins in the cerebrospinal fluid of these patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La perception est de plus en plus reconnue comme fondamentale à la compréhension du phénotype autistique. La première description de l’autisme, par Kanner en 1947, fait état d’un profil cognitif hétérogène caractérisé par des habiletés exceptionnelles à l’intérieur de domaines spécifiques de la perception (ex., la musique). L’accumulation des observations cliniques sur la présence de particularités perceptives a mené à l’élaboration d’études empiriques permettant d’objectiver des surfonctionnements dans le traitement élémentaire de l’information perceptive dans l’autisme. Parallèlement, des études cognitives suggèrent la présence d’une « intelligence différente » chez les personnes autistes. Celle-ci serait caractérisée par une dissociation entre des performances à différents tests d’intelligence fortement corrélés ensemble chez les personnes typiques. Le potentiel intellectuel des personnes autistes serait sous-estimé lorsque mesuré par l’échelle de Wechsler, plutôt que des mesures d’intelligence fluide comme les Matrices Progressives de Raven. Avec l’appui d’études en imagerie cérébrale, ces résultats suggèrent une relation unique entre la perception et l’intelligence chez cette population clinique. Étant donné l’accumulation de preuves sur 1) la présence d’atypies perceptuelles, 2) le rôle différent de la perception dans l’intelligence et 3) l’importance des comportements répétitifs et intérêts restreints dans le phénotype autistique (DSM-5), le premier volet de cette thèse s’est intéressé à la relation entre les performances perceptives des personnes autistes et celle des personnes ayant un développement typique, au-delà de ce qui est expliqué par l’intelligence. À l’aide de modèles de régression linéaire, les résultats démontrent un profil de covariation spécifique à l’autisme pour les habiletés plurimodales. Contrairement aux personnes ayant un développement typique, ces associations persistent au-delà de ce qui est expliqué par l’intelligence générale ou par l’efficacité générale des systèmes perceptifs. Ce profil de covariation résiduelle propre aux personnes autistes suggère la présence d’un facteur plurimodal spécifique à ce groupe clinique : le facteur « p ». Le deuxième volet de cette thèse s’est intéressé à la prévalence des habiletés exceptionnelles au niveau individuel, la relation les forces perceptives et les talents, ainsi qu’aux facteurs de prédisposition en lien avec le développement d’habiletés exceptionnelles. Les forces perceptives des personnes autistes furent évaluées à l’aide de tâches expérimentales sensibles à la détection de surfonctionnements perceptifs, soit une tâche de discrimination de hauteurs sonores et une version modifiée du sous-test « Blocs » de l’échelle d’intelligence de Wechsler. Les talents furent évalués de manière clinique à l’aide de l’ADI-R (« Autism Diagnostic Interview-Revised »). Les données indiquent que 88.4 % des personnes autistes avec une intelligence dans la normale présentent au moins une habileté exceptionnelle (force perceptive ou talent). Les talents sont rapportés chez 62.5 % des cas et les forces perceptives se retrouvent chez 58 % des cas. La cooccurrence des forces perceptives entre les modalités perceptives est relativement peu fréquente (24 % à 27 %) et la présence d’un talent dans une modalité n’augmente pas les chances de présenter une force perceptive dans une même modalité. Une plus grande intelligence augmente les chances de présenter au moins un talent. En revanche, une intelligence plus faible, mais se situant tout de même dans les limites de la normale, est associée à un profil cognitif plus hétérogène avec des forces perceptives plus fréquentes. En somme, l’intelligence autistique serait caractérisée par un rôle plus important de la perception, indépendamment des surfonctionnements perceptifs. Cette particularité cognitive se manifesterait par la présence d’un facteur plurimodal, « p », spécifique à l’autisme. Théoriquement, le facteur « p » reflèterait des modifications innées (ou « hardwired ») dans l’organisation corticale des microcircuits responsables de l'encodage des dimensions perceptives élémentaires. En revanche, une faible association intermodale entre les forces perceptives suggère que des modifications corticales sont essentielles, mais non suffisantes pour le développement d’habiletés exceptionnelles. Par des processus de plasticité, des modifications corticales auraient des répercussions sur le phénotype autistique en offrant une base plus « fertile » pour le développement d’habiletés exceptionnelles, voire savantes, lorsque la personne autiste serait exposée à des expériences de vie avantageuses. Par ailleurs, les résultats de cette thèse, combinés à la littérature existante sur l’intelligence et l’apprentissage des personnes autistes, nous amènent à réfléchir sur les approches d’évaluation et d’intervention les mieux adaptées au fonctionnement spécifique de cette population clinique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ Suite à une centaine de publications sur la réduction de la PIO post-exercice, il est connu que parmi un grand nombre de programme d'exercices de différentes durées et intensités, les effets hypotenseurs de l'exercice sur la PIO sont atténués chez les sujets en bonne condition physique. Le mécanisme proposé est l'augmentation potentielle de l'efficacité du système parasympathique avec l'activité physique. Le principal objectif de cette thèse est d'identifier les facteurs contribuants à la réduction de la PIO post-exercice et d'élucider les différents mécanismes possibles. L'étude 1, une méta-analyse, a été menée afin de quantifier les contributions relatives de l'intensité et de la durée de l'effet de l'exercice sur la PIO et la mesure dans laquelle ces variables affectent les sujets sédentaires et normalement actifs. La tendance ressortant des résultats est que la diminution de la PIO suite à de l'exercice aérobie est plus élevée chez les sujets sédentaires que les sujets en bonne condition physique. (ES = -4.198 mm Hg et -2.340 mm Hg, respectivement). L'absence d'un contrôle des liquides ingérés avant l'activité physique est à souligné dans cette étude. L'hyperosmolarité (un effet secondaire de la déshydratation) est l'un des mécanismes proposés influant l'effet hypotenseur de l'exercice. L'étude 2 comparait la réduction de la PIO dans deux conditions, soit hypohydraté et hyperhydraté, avant, pendant et après un effort de 90 minutes sur un ergocycle. Après une diminution initiale pour les deux conditions, la PIO revient aux valeurs de départ pour la condition hypohydratée malgré une perte de poids significative et elle augmente pour la condition hyperhydratée (résultat du protocole d'hydratation). Étant donné le niveau élevé de participants en bonne condition physique dans l'étude 2, la troisième étude a été conçue afin de etude la relation entre la PIO et la condition physique. À l'aide d'analyses corrélationnelles il a été possible d'observer la relation entre le test de vo2max et la moyenne des mesures de PIO prises sur un intervalle de huit semaines. Une relation significative n'existait que pour les participants se situant dans la portion supérieure du continuum de la condition physique. Conclusion: Les résultats de la présente étude suggèrent que l'effet hypotenseur de l'exercice sur la PIO est probablement une réponse homéostatique à la dérégulation de l'humeur aqueuse causée par l'initiation de l'exercice et le protocole d'ingestion de fluides pré-exercice.