921 resultados para Dent Texture


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce[te] mémoire [thèse] est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien connu des professionnels de la vision que l’ajustement des verres progressifs sur un patient presbyte peut induire de l’inconfort et des difficultés posturales (Timmis, Johnson, Elliott, & Buckley, 2010). Ces plaintes sont directement associées à l’information visuelle perçue à travers les verres progressifs. Le principal objectif de cette thèse est d’identifier quels sont les paramètres d’un stimulus visuel (p.ex. fréquence temporelle ou vélocité) à l’origine de la perturbation posturale et de l’inconfort. Les distorsions dynamiques perçues à travers des verres progressifs s’apparentent aux mouvements d’un bateau qui roule de droite à gauche ou qui tangue d’avant en arrière. Ce type de stimulation visuelle a été reproduit dans une voute d’immersion en réalité virtuelle avec un sol à texture de damier noir et blanc qui oscillait périodiquement de droite à gauche et d’avant en arrière à différentes fréquences et amplitudes. Les études qui portent sur ce sujet montrent que la réponse posturale induite visuellement augmente avec la vélocité de stimulation et diminue lorsque la fréquence augmente. Cette information peut paraitre contradictoire, car ces deux variables sont liées entre elles par l’amplitude et covarient dans le même sens. Le premier objectif de cette thèse était de déterminer les causes possibles de cette contradiction. En faisant varier la fréquence temporelle de stimulation visuelle, on retrouve deux domaines de réponse posturale. Le premier domaine correspond aux fréquences inférieures à 0,12 Hz. Dans ce domaine, la réponse posturale est visuodépendante et augmente avec la vélocité du stimulus. Le second domaine postural correspond aux fréquences supérieures à 0,25 Hz. Dans ce domaine, la réponse posturale sature et diminue avec l’augmentation de la fréquence. Cette saturation de la réponse posturale semble causée par des limitations biomécaniques et fréquentielles du système postural. D’autres études ont envisagé d’étudier l’inconfort subjectif induit par des stimuli visuels périodiques. Au sein de la communauté scientifique, deux théories principales se confrontent. La théorie sensorielle repose sur les conflits sensoriels induit par le stimulus visuel tandis que la théorie posturale suggère que l’inconfort est la conséquence de l’instabilité posturale. Nos résultats révèlent que l’inconfort subjectif induit par une stimulation visuelle dynamique dépend de la vélocité du stimulus plutôt que de sa fréquence. L’inconfort peut être prédit par l’instabilité naturelle des individus en l’absence de stimulus visuel comme le suggère la théorie posturale. Par contre, l’instabilité posturale induite par un stimulus visuel dynamique ne semble pas être une condition nécessaire et suffisante pour entrainer de l’inconfort. Ni la théorie sensorielle ni la théorie posturale ne permettent à elles seules d’expliquer tous les mécanismes à l’origine de l’inconfort subjectif. Ces deux théories sont complémentaires, l’une expliquant que l’instabilité intrinsèque est un élément prédictif de l’inconfort et l’autre que l’inconfort induit par un stimulus visuel dynamique résulte d’un conflit entre les entrées sensorielles et les représentations acquises par l’individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transglutaminase microbienne (Microbial transglutaminase : MTG) est fortement exploitée dans l’industrie textile et alimentaire afin de modifier l’apparence et la texture de divers produits. Elle catalyse la formation de liaisons iso-peptidiques entre des protéines par l’entremise d’une réaction de transfert d’acyle entre le groupement γ-carboxamide d’une glutamine provenant d’un substrat donneur d’acyle, et le groupement ε-amino d’une lysine provenant d’un substrat accepteur d’acyle. La MTG est tolérante à un large éventail de conditions réactionnelles, ce qui rend propice le développement de cette enzyme en tant que biocatalyseur. Ayant pour but le développement de la MTG en tant qu’alternative plus soutenable à la synthèse d’amides, nous avons étudié la réactivité d’une gamme de substrats donneurs et accepteurs non-naturels. Des composés chimiquement diversifiés, de faible masse moléculaire, ont été testés en tant que substrats accepteurs alternatifs. Il fut démontré que la MTG accepte une large gamme de composés à cet effet. Nous avons démontré, pour la première fois, que des acides aminés non-ramifiés et courts, tels la glycine, peuvent servir de substrat accepteur. Les α-acides aminés estérifiés Thr, Ser, Cys et Trp, mais pas Ile, sont également réactifs. En étendant la recherche à des composés non-naturels, il fut observé qu’un cycle aromatique est bénéfique pour la réactivité, bien que les substituants réduisent l’activité. Fait notable, des amines de faible masse moléculaire, portant les groupements de forte densité électronique azidure ou alcyne, sont très réactives. La MTG catalyse donc efficacement la modification de peptides qui pourront ensuite être modifiés ou marqués par la chimie ‘click’. Ainsi, la MTG accepte une variété de substrats accepteurs naturels et non-naturels, élargissant la portée de modification des peptides contenant la glutamine. Afin de sonder le potentiel biocatalytique de la MTG par rapport aux substrats donneurs, des analogues plus petits du peptide modèle Z-Gln-Gly furent testés; aucun n’a réagi. Nous avons toutefois démontré, pour la première fois, la faible réactivité d’esters en tant que substrats donneurs de la MTG. L’éventuelle amélioration de cette réactivité permettrait de faire de la MTG un biocatalyseur plus général pour la synthèse d’amides. Mots clés: Lien amide, biocatalyse, biotransformation, transglutaminase, arrimage moléculaire, criblage de substrats, ingénierie de substrats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On s’accorde aujourd’hui sur la nécessité de la dimension textuelle dans l’enseignement de la langue écrite. L’objectif de notre recherche est de mettre à l’essai une démarche pédagogique visant à enseigner la compréhension/expression écrite en prenant appui sur la typologie textuelle et en adoptant une approche stratégique. Compte tenu que les Coréens apprennent le français comme deuxième langue étrangère après l’apprentissage de l’anglais, nous menons notre recherche dans un contexte d’apprentissage multilingue (le coréen, le français et l’anglais). Nous effectuons notre recherche à Montréal. Nous sélectionnons vingt- et-un apprenants coréens âgés de 14 à 15 ans en passant des entrevues sur les caractéristiques de leurs expériences scolaires et leurs apprentissages des langues. Ils possèdent tous un bagage éducatif solide en anglais mais leurs niveaux de français sont variés (i.e. sept sujets débutants, sept intermédiaires et sept avancés). Notre recherche se base sur trois expérimentations. Dans la première, nous nous intéressons notamment au rôle de la typologie textuelle auprès des débutants, dont les caractéristiques sont représentatives des apprenants coréens qui sont grammaticalement et lexicalement faibles en français. Nous mobilisons les connaissances textuelles par le biais des textes en anglais puis nous mesurons si les participants peuvent les utiliser dans les textes en français. Nous vérifions cette utilisation en comparant les résultats de la perception du fonctionnement de l’écrit en français avant et après la mobilisation des connaissances textuelles. Les donnés empiriques révèlent que les apprenants coréens qui n’ont pas encore maîtrisé les compétences de base réussissent à percevoir le fonctionnement de l’écrit en français grâce à leurs connaissances textuelles préalablement mobilisées en anglais.Dans notre deuxième expérimentation, nous examinons l’effet de l’enseignement de la typologie textuelle sur la lecture stratégique dans l’apprentissage multilingue. Nous offrons le cours de lecture stratégique avec un texte en français et examinons l’effet de cette pratique. En comparant les résultats de la compréhension avant et après le cours, nous vérifions que le cours de lecture stratégique est efficace non seulement sur la perception du fonctionnement de l’écrit, mais également sur l’apprentissage de la grammaire et du vocabulaire. Nous vérifions également l’influence translinguistique du français vers l’anglais. Dans la troisième expérimentation, nous examinons l’effet de l’enseignement de la typologie textuelle sur le processus de production écrite en français. Nous recueillons les productions des participants avant et après le cours de l’écriture. Nous les analysons avec les mêmes grilles de codage concernant la forme typologique et le sens culturel. Nous observons que les scripteurs qui ont l’occasion de mobiliser explicitement leurs connaissances textuelles peuvent obtenir des performances plus élevées concernant la forme typologique ainsi que le sens culturel après le processus de production. Nous en concluons que la didactique effectuée à partir de la typologie textuelle a toute sa pertinence dans l’apprentissage multilingue et que l’approche stratégique peut stimuler la mise en place de la typologie textuelle pour appréhender la langue écrite au niveau textuel tant en lecture qu’en écriture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les personnes ayant un trouble du spectre autistique (TSA) manifestent des particularités perceptives. En vision, des travaux influents chez les adultes ont mené à l’élaboration d’un modèle explicatif du fonctionnement perceptif autistique qui suggère que l’efficacité du traitement visuel varie en fonction de la complexité des réseaux neuronaux impliqués (Hypothèse spécifique à la complexité). Ainsi, lorsque plusieurs aires corticales sont recrutées pour traiter un stimulus complexe (e.g., modulations de texture; attributs de deuxième ordre), les adultes autistes démontrent une sensibilité diminuée. À l’inverse, lorsque le traitement repose principalement sur le cortex visuel primaire V1 (e.g., modulations locales de luminance; attributs de premier ordre), leur sensibilité est augmentée (matériel statique) ou intacte (matériel dynamique). Cette dissociation de performance est spécifique aux TSA et peut s’expliquer, entre autre, par une connectivité atypique au sein de leur cortex visuel. Les mécanismes neuronaux précis demeurent néanmoins méconnus. De plus, on ignore si cette signature perceptuelle est présente à l’enfance, information cruciale pour les théories perceptives de l’autisme. Le premier volet de cette thèse cherche à vérifier, à l’aide de la psychophysique et l’électrophysiologie, si la double dissociation de performance entre les attributs statiques de premier et deuxième ordre se retrouve également chez les enfants autistes d’âge scolaire. Le second volet vise à évaluer chez les enfants autistes l’intégrité des connexions visuelles descendantes impliquées dans le traitement des textures. À cet effet, une composante électrophysiologique reflétant principalement des processus de rétroaction corticale a été obtenue lors d’une tâche de ségrégation des textures. Les résultats comportementaux obtenus à l’étude 1 révèlent des seuils sensoriels similaires entre les enfants typiques et autistes à l’égard des stimuli définis par des variations de luminance et de texture. Quant aux données électrophysiologiques, il n’y a pas de différence de groupe en ce qui concerne le traitement cérébral associé aux stimuli définis par des variations de luminance. Cependant, contrairement aux enfants typiques, les enfants autistes ne démontrent pas une augmentation systématique d’activité cérébrale en réponse aux stimuli définis par des variations de texture pendant les fenêtres temporelles préférentiellement associées au traitement de deuxième ordre. Ces différences d’activation émergent après 200 ms et engagent les aires visuelles extrastriées des régions occipito-temporales et pariétales. Concernant la connectivité cérébrale, l’étude 2 indique que les connexions visuelles descendantes sont fortement asymétriques chez les enfants autistes, en défaveur de la région occipito-temporale droite. Ceci diffère des enfants typiques pour qui le signal électrophysiologique reflétant l’intégration visuo-corticale est similaire entre l’hémisphère gauche et droit du cerveau. En somme, en accord avec l’hypothèse spécifique à la complexité, la représentation corticale du traitement de deuxième ordre (texture) est atypiquement diminuée chez les enfants autistes, et un des mécanismes cérébraux impliqués est une altération des processus de rétroaction visuelle entre les aires visuelles de haut et bas niveau. En revanche, contrairement aux résultats obtenus chez les adultes, il n’y a aucun indice qui laisse suggérer la présence de mécanismes supérieurs pour le traitement de premier ordre (luminance) chez les enfants autistes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est de vérifier l'apport de la stéréoscopie dans le phénomène de la constance de forme. La méthode utilisée consiste à mesurer la performance de différents participants (temps de réponse et de taux d'erreurs) à une tâche de prospection visuelle. Quatre groupes de participants ont effectué la tâche. Le premier groupe a été exposé à une présentation stéréoscopique des stimuli, le deuxième groupe à une présentation des stimuli en stéréoscopie inversée (la disparité binoculaire était inversée), le troisième groupe à des stimuli comprenant une information de texture, mais sans stéréoscopie et le quatrième groupe à des stimuli bi-dimensionnels, sans texture. Une interaction entre les effets de rotation (points de vue familiers vs. points de vue non familiers) et le type d'information de profondeur disponible (stéréoscopie, stéréoscopie inversée, texture ou ombrage) a été mise en évidence, le coût de rotation étant plus faible au sein du groupe exposé à une présentation en stéréoscopie inversée. Ces résultats appuient l'implication de représentations tridimensionnelles dans le traitement de l'information visuelle.