88 resultados para Theories of urbanism


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La religion est un phénomène culturel universel et un sujet d'étude central en anthropologie. Pourtant, on constate un manque flagrant de consensus sur sa définition et son origine dans les manuels d'introduction et les dictionnaires d'anthropologie. Des hypothèses et des modèles explorant cette question sont toutefois disponibles depuis une vingtaine d'années du côté de la psychobiologie. Le présent projet cherche à déterminer si la définition et les explications de la religion que propose l'anthropologie sont compatibles, en tout ou en partie, avec les données et modèles de la psychobiologie. Une synthèse des hypothèses psychobiologiques est d'abord présentée; elle sert de point de comparaison analytique avec les théories anthropologiques de la religion. Deux de ces théories, celles de Edward Burnett Tylor ([1874] 1889) et Clifford Geertz ([1966] 2010), sont résumées et ensuite analysées en rapport avec leur définition de la religion, leurs éléments universels (explicites et implicites) et leurs principes théoriques. Ces deux auteurs sont reconnus pour leur influence majeure dans ce domaine et ils s'appuient sur des fondements théoriques opposés. L'analyse démontre que seule la théorie de Tylor confirme l'hypothèse de ce mémoire, à l'effet que certaines conceptions et explications anthropologiques de la religion sont compatibles avec les explications psychobiologiques. Malgré tout, une conciliation de l'ensemble des sources analysées et l'esquisse d'un modèle sur la nature et l'origine évolutive de la religion semblent se dessiner.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université catholique de Louvain

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

VERSION ANGLAISE DISPONIBLE AU DÉPARTEMENT; THÈSE RÉALISÉE CONJOINTEMENT AVEC L'ÉCOLE DES SCIENCES DE LA COMMUNICATION DE L'UNIVERSITÉ MCGILL (DRS. K. STEINHAUER ET J.E. DRURY).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Il est une question centrale que la science politique au Canada a quelque peu délaissée : qui gouverne? Ainsi, les nombreux analystes du pouvoir judiciaire, dont plusieurs n’ont pas manqué depuis 1982 de critiquer l’accroissement de son influence dans la gouverne démocratique du pays, n’ont pas vraiment cherché à enquêter sur l’emprise des juristes sur la politique au-delà des juges. La présente étude tente de combler cette lacune en livrant, d’une part, les résultats d’une enquête empirique sur la présence des juristes au sein des assemblées élues fédérale et québécoise, ainsi que dans leurs exécutifs respectifs, de 1984 à 2006 ; et d’autre part, en fournissant un jeu d’hypothèses et d’interprétations en vue de comprendre les facteurs à l’origine de la surreprésentation structurelle et persistante des juristes dans la classe politique canadienne et québécoise. Plusieurs auteurs, dont John Porter, Guy Bouthillier, Jean-Charles Falardeau et Yoland Sénécal, avaient déjà étudié le phénomène et avancé des éléments d’explication de cette surreprésentation, historiquement plus marquée parmi les parlementaires et les ministres québécois des deux capitales. La présente étude montre que la baisse tendancielle de la surreprésentation des juristes dans les assemblées élues, observée à partir des années 1960, s’est poursuivie au-delà de 1984 ­ dans le cas de la Chambre des communes ­, alors qu’elle s’est arrêtée à l’Assemblée nationale et que les juristes ont continué à être surreprésentés au sein de l’exécutif, dans une proportion plus forte encore que dans la chambre élue. La surreprésentation des juristes est plus prononcée chez certains partis (les partis libéraux fédéral et québécois) et tout indique que les candidats juristes aux élections fédérales connaissent un taux d’élection élevé, en particulier chez les deux grands partis gouvernementaux. En comparaison avec les États-Unis, le cas canadien présente des particularismes dont on ne peut rendre compte en se référant aux seules théories générales de Tocqueville et de Weber sur la « prédisposition » à gouverner des juristes en démocratie. Certains facteurs plus spécifiques semblent aussi jouer, tels que le régime fédéral et le système de partis canadien, les avantages « concurrentiels » dont jouissent les avocats par rapport à d’autres professions, la culture politique au Québec et le rôle anthropologique des juristes, dont la parole au Québec vaudrait celle d’un clerc laïque."

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le développement d’Internet et des nouvelles technologies de l’information permet l’avènement de relations nouvelles. Ce nouveau potentiel, décuplé par ces technologies en constante évolution, actualise la discussion de notions fondamentales. Le développement de ces relations se fonde sur une notion de confiance qu’il est primordial de comprendre afin de mieux saisir les enjeux liés à ces nouvelles technologies. La notion de confiance est intrinsèquement liée aux développements de nos économies. Elle influence du même coup le commerce électronique et certaines notions du droit.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur l’efficacité des campagnes sociales sur Internet afin d’encourager les jeunes adultes à voter. La constatation du déclin de la participation électorale des jeunes adultes nous a poussés à vouloir comprendre quels sont les enjeux qui touchent à cette problématique et comment les campagnes sociales incitatives au vote peuvent répondre à un certain besoin. La campagne électorale des élections générales canadiennes du 2 mai 2011, durant laquelle plusieurs outils Internet ont été développés pour inciter la population à voter, le plus connu étant la Boussole électorale, a constitué un contexte clé pour nous permettre d’explorer le sujet. À l’aide des théories sur l’influence des médias et de celles de la persuasion, nous allons mieux comprendre les possibilités qu’offre le Web pour la mobilisation sociale. Deux cueillettes de données ont été faites, soit une première quantitative par questionnaire pour voir le niveau de pénétration de ces outils Internet ainsi que leur appréciation, soit une deuxième qualitative par groupe de discussion afin d’approfondir la problématique de la désaffection politique et d’analyser la pertinence des campagnes sociales incitatives au vote. La mise en commun des résultats nous a permis de comprendre, entre autres, que les campagnes sociales sur Internet peuvent constituer un outil de conscientisation politique dans certaines circonstances et qu’elles peuvent bénéficier des réseaux sociaux comme Facebook et Twitter. Toutefois, le besoin d’éducation civique demeure une solution récurrente lorsqu’on parle d’encourager les jeunes adultes à voter.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper deals with a prevailing assumption that basic goods are accessory to claims of justice. Against such an assumption, the paper advances the idea that basic goods (the core of what I wish to call the sufficiency threshold) are fundamental as a matter of justice. The paper then addresses the question as to what is the elemental justifiability of a social minimum and how that relates to theories of justice, particularly to emerging theories of global justice. The arguments against the aforementioned assumption call upon the strengths of a general theory of justice already in place, namely, John Rawls’s theory of justice and the enriching response and criticism thereof—particularly David Miller’s theory of justice.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse jette un œil sceptique sur plusieurs théories courantes de l’état d’urgence. La plupart de ces théories de l’état d’urgence présupposent que la notion d'une « urgence » est claire, conceptuellement et pratiquement. J'argue que ceci n'est pas le cas et que cette certitude mal placée produit des problèmes pratiques et conceptuels avec ses théories. De plus, cette thèse démontre que cette certitude mal placée dans la clarté du concept de l'urgence mène les autorités gouvernementales à agir arbitrairement plutôt que selon des principes libéraux et démocratiques pendant des états d’urgence. Contre cette certitude mal placée et contre plusieurs théories contemporaines influentes des états d'urgence, j'offre une théorie rigoureuse et analytique du concept de l’« urgence. » Une fois que le concept de l'urgence est défini, et que cette conception est défendue, la thèse démontre les diverses manières dont les malentendus du concept, mènent aux utilisations arbitraires (de la puissance monopole de l'état) en situation d’urgence. En considérant les états d’urgences, comme événements rares, la thèse évite la tentation de les considérer comme événements exceptionnels capable de fragmenter l'ordre politique établi (comme d’autres théories le font). La thèse argue que les mesures prises par le gouvernent pendant l’état d’urgence devraient être compatibles plus généralement avec les valeurs démocratiques et libérales. En rejetant l'idée que les états d'urgence sont des événements exceptionnels, la thèse crée un espace conceptuel dans lequel des propositions plus constructives concernant la gestion des états d'urgence peuvent être entendues. De plus, en analysant les diverses manières dont les autorités gouvernementales utilisent leur forces de façon arbitraire pendant les états d’urgence, la thèse argue clairement pour la supervision institutionnelle accrue en ce qui concerne les procédures d’urgence et leur déploiement pendant des états d'urgence. En conclusion, la thèse argue que les démocraties libérales n'ont pas besoin de craindre les états d’urgences tandis que les démocraties libérales ont déjà les ressources requise pour administrer les états d’urgence. Contrairement à ce que d’autres théories l’état d'urgence recommandent, les démocraties libérales ont déjà les ressources institutionnelles et conceptuelles pour administrer les états d’urgences.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche s’inscrit dans la continuité de celles entreprises en vue d’éclaircir la question du processus de design, et plus spécialement le design architectural de la maison. Elle cherche aussi à développer la réflexivité du designer sur les actes qu’il pose en lui offrant un point de vue depuis l’angle de la psychanalyse. Elle vient rallonger les initiatives amenées par la troisième génération des recherches sur les méthodologies du design en s’intéressant à un volet, jusque-là, peu exploré : le processus inconscient du design architectural. Elle pose comme problématique la question des origines inconscientes du travail créatif chez le concepteur en architecture. La création étant un des sujets importants de la psychanalyse, plusieurs concepts psychanalytiques, comme la sublimation freudienne, l’abordent et tentent de l’expliquer. Le design étant une discipline de création, la psychanalyse peut nous renseigner sur le processus du design, et nous offrir la possibilité de l’observer et de l’approcher. La métaphore architecturale, utilisée pour rendre la théorie freudienne, est aussi le champ d’application de plusieurs théories et concepts psychanalytiques. L’architecture en général, et celle de la maison en particulier, en ce que cette dernière comporte comme investissement émotionnel personnel de la part de son concepteur, constructeur ou utilisateur, offrent un terrain où plusieurs des concepts psychanalytiques peuvent être observés et appliqués. Cette recherche va approcher l’exemple architectural selon les concepts développés par les trois théories psychanalytiques les plus importantes : freudienne, lacanienne et jungienne. L’application de ces concepts se fait par une "autoanalyse" qui met le designer en double posture : celle du sujet de la recherche et celle du chercheur, ce qui favorise hautement la réflexivité voulue. La libre association, une des méthodes de la psychanalyse, sera la première étape qui enclenchera le processus d’autoanalyse et l’accompagnera dans son développement. S’appliquant sur le discours et la forme de la maison, la libre association va chercher à distinguer plusieurs mécanismes psychiques susceptibles d’éclairer notre investigation. Les résultats de l’application des concepts freudiens viendront servir de base pour l’application, par la suite, des concepts de la théorie lacanienne et jungienne. Au terme de cette analyse, nous serions en mesure de présenter une modélisation du processus inconscient du design qui aurait conduit à la création de la maison prise en exemple. Nous découvrirons par cela la nature du processus inconscient qui précède et accompagne le travail créatif du designer. Nous verrons aussi comment ce processus se nourrit des expériences du designer qui remontent jusqu’aux premières années de son enfance. Ceci permettrait de rendre compte de la possibilité d’appliquer les concepts psychanalytiques sur le design architectural et, par ce fait, permettre de déterminer les éventuels façons de concevoir l’apport de la psychanalyse à la pratique de cette discipline qu’est le design ainsi que son enseignement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il existe plusieurs théories du contrôle moteur, chacune présumant qu’une différente variable du mouvement est réglée par le cortex moteur. On trouve parmi elles la théorie du modèle interne qui a émis l’hypothèse que le cortex moteur programme la trajectoire du mouvement et l’activité électromyographique (EMG) d’une action motrice. Une autre, appelée l’hypothèse du point d’équilibre, suggère que le cortex moteur établisse et rétablisse des seuils spatiaux; les positions des segments du corps auxquelles les muscles et les réflexes commencent à s’activer. Selon ce dernier, les paramètres du mouvement sont dérivés sans pré-programmation, en fonction de la différence entre la position actuelle et la position seuil des segments du corps. Pour examiner de plus près ces deux théories, nous avons examiné l’effet d’un changement volontaire de l’angle du coude sur les influences cortico-spinales chez des sujets sains en employant la stimulation magnétique transcrânienne (TMS) par-dessus le site du cortex moteur projetant aux motoneurones des muscles du coude. L’état de cette aire du cerveau a été évalué à un angle de flexion du coude activement établi par les sujets, ainsi qu’à un angle d’extension, représentant un déplacement dans le plan horizontal de 100°. L’EMG de deux fléchisseurs du coude (le biceps et le muscle brachio-radial) et de deux extenseurs (les chefs médial et latéral du triceps) a été enregistrée. L’état d’excitabilité des motoneurones peut influer sur les amplitudes des potentiels évoqués moteurs (MEPs) élicitées par la TMS. Deux techniques ont été entreprises dans le but de réduire l’effet de cette variable. La première était une perturbation mécanique qui raccourcissait les muscles à l'étude, produisant ainsi une période de silence EMG. La TMS a été envoyée avec un retard après la perturbation qui entraînait la production du MEP pendant la période de silence. La deuxième technique avait également le but d’équilibrer l’EMG des muscles aux deux angles du coude. Des forces assistantes ont été appliquées au bras par un moteur externe afin de compenser les forces produites par les muscles lorsqu’ils étaient actifs comme agonistes d’un mouvement. Les résultats des deux séries étaient analogues. Un muscle était facilité quand il prenait le rôle d’agoniste d’un mouvement, de manière à ce que les MEPs observés dans le biceps fussent de plus grandes amplitudes quand le coude était à la position de flexion, et ceux obtenus des deux extenseurs étaient plus grands à l’angle d’extension. Les MEPs examinés dans le muscle brachio-radial n'étaient pas significativement différents aux deux emplacements de l’articulation. Ces résultats démontrent que les influences cortico-spinales et l’activité EMG peuvent être dissociées, ce qui permet de conclure que la voie cortico-spinale ne programme pas l’EMG à être générée par les muscles. Ils suggèrent aussi que le système cortico-spinal établit les seuils spatiaux d’activation des muscles lorsqu’un segment se déplace d’une position à une autre. Cette idée suggère que des déficiences dans le contrôle des seuils spatiaux soient à la base de certains troubles moteurs d’origines neurologiques tels que l’hypotonie et la spasticité.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les personnes ayant un trouble du spectre autistique (TSA) manifestent des particularités perceptives. En vision, des travaux influents chez les adultes ont mené à l’élaboration d’un modèle explicatif du fonctionnement perceptif autistique qui suggère que l’efficacité du traitement visuel varie en fonction de la complexité des réseaux neuronaux impliqués (Hypothèse spécifique à la complexité). Ainsi, lorsque plusieurs aires corticales sont recrutées pour traiter un stimulus complexe (e.g., modulations de texture; attributs de deuxième ordre), les adultes autistes démontrent une sensibilité diminuée. À l’inverse, lorsque le traitement repose principalement sur le cortex visuel primaire V1 (e.g., modulations locales de luminance; attributs de premier ordre), leur sensibilité est augmentée (matériel statique) ou intacte (matériel dynamique). Cette dissociation de performance est spécifique aux TSA et peut s’expliquer, entre autre, par une connectivité atypique au sein de leur cortex visuel. Les mécanismes neuronaux précis demeurent néanmoins méconnus. De plus, on ignore si cette signature perceptuelle est présente à l’enfance, information cruciale pour les théories perceptives de l’autisme. Le premier volet de cette thèse cherche à vérifier, à l’aide de la psychophysique et l’électrophysiologie, si la double dissociation de performance entre les attributs statiques de premier et deuxième ordre se retrouve également chez les enfants autistes d’âge scolaire. Le second volet vise à évaluer chez les enfants autistes l’intégrité des connexions visuelles descendantes impliquées dans le traitement des textures. À cet effet, une composante électrophysiologique reflétant principalement des processus de rétroaction corticale a été obtenue lors d’une tâche de ségrégation des textures. Les résultats comportementaux obtenus à l’étude 1 révèlent des seuils sensoriels similaires entre les enfants typiques et autistes à l’égard des stimuli définis par des variations de luminance et de texture. Quant aux données électrophysiologiques, il n’y a pas de différence de groupe en ce qui concerne le traitement cérébral associé aux stimuli définis par des variations de luminance. Cependant, contrairement aux enfants typiques, les enfants autistes ne démontrent pas une augmentation systématique d’activité cérébrale en réponse aux stimuli définis par des variations de texture pendant les fenêtres temporelles préférentiellement associées au traitement de deuxième ordre. Ces différences d’activation émergent après 200 ms et engagent les aires visuelles extrastriées des régions occipito-temporales et pariétales. Concernant la connectivité cérébrale, l’étude 2 indique que les connexions visuelles descendantes sont fortement asymétriques chez les enfants autistes, en défaveur de la région occipito-temporale droite. Ceci diffère des enfants typiques pour qui le signal électrophysiologique reflétant l’intégration visuo-corticale est similaire entre l’hémisphère gauche et droit du cerveau. En somme, en accord avec l’hypothèse spécifique à la complexité, la représentation corticale du traitement de deuxième ordre (texture) est atypiquement diminuée chez les enfants autistes, et un des mécanismes cérébraux impliqués est une altération des processus de rétroaction visuelle entre les aires visuelles de haut et bas niveau. En revanche, contrairement aux résultats obtenus chez les adultes, il n’y a aucun indice qui laisse suggérer la présence de mécanismes supérieurs pour le traitement de premier ordre (luminance) chez les enfants autistes.