10 resultados para Object Permanence

em Université de Montréal, Canada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire en recherche création est divisé en deux principales sections : un recueil de poésie et un essai. Le recueil, intitulé Le Cœur est une permanence, explore différentes interprétations du phénomène d’empathie dans la création littéraire. Afin que l’empathie devienne l’objet du discours, ce dernier est centré sur la relation à l’autre. L’empathie prend vie à travers deux entités, un « je » et un « tu ». Alors que le « je » entre en contact avec ses propres zones d’ombres, il s’ouvre tranquillement aux souffrances du « tu ». Au fil des poèmes, le « je » et le « tu » apaisent leur douleur en la partageant, faisant de l’empathie une voie d’accès à l’intimité. Ce déploiement de l’intime prend forme en trois temps : les sections replis de voix, point archimédien et ensembles vides. Le recueil accorde une importance particulière à la figure du corps comme véhicule de la souffrance. Il propose une réflexion sur l’amour, balançant entre naufrage et terre promise, et fait de l’enfance une pierre de touche pour interroger la douleur. La deuxième partie de ce mémoire est un essai intitulé Empathie et souffrance dans Tête première / Dos / Contre dos de Martine Audet. Divisé en trois chapitres, cet essai étudie l’empathie à l’œuvre dans le recueil de Audet, selon une approche bioculturelle. Il allie interprétation littéraire, sciences cognitives de deuxième génération et philosophie de l’esprit. Dans le premier chapitre, le concept de « simulation incarné », développé par Vittorio Gallese, permet d’interpréter la figure du corps et de suggérer qu’elle véhicule la douleur tout en étant la manifestation d’un effacement identitaire. Le deuxième chapitre se penche sur l’intersubjectivité en lien avec l’empathie. Il intègre certaines notions clés de la phénoménologie husserlienne afin d’analyser les manifestations du lien empathique unissant les deux présences parcourant le recueil de Audet. Le dernier chapitre explique comment les représentations de l’environnement dans lequel évoluent ces présences peuvent refléter leur souffrance. Pour ce faire, certains concepts liés à l’environnement, particulièrement importants pour l’écocritique actuelle, sont analysés dans Tête première / Dos / Contre dos, comme ceux de place et de nature. Ces derniers, étant construits par les perceptions propres à la cognition humaine, sont envisagés d’un point de vue bioculturel. En interprétant ces trois principaux aspects du texte (figure du corps, intersubjectivité et environnement), l’hypothèse selon laquelle la perception de la souffrance dans Tête première / Dos / Contre dos repose essentiellement sur l’empathie comme effet et objet du discours s’en voit validée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec le web, les moteurs de recherche, les blogues et les wikis, la relation à l’information s’est transformée au point où les repères habituels s’émoussent et doivent être redéfinis de fond en comble. Du coup, le travail des archivistes et des bibliothécaires doit l’être tout autant. Riches d’une solide tradition et conscientes des défis posés par la modernité la plus radicale, les sciences de l’information se sont élargies. Mais il ne s’agit plus seulement de conserver et de diffuser le savoir, il s’agit d’en repenser le traitement et l’accès. Conçu par l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal, cet ouvrage se situe au carrefour de deux grandes traditions, américaine et française, et a pour ambition de fournir les clés du monde des sciences de l’information en se fondant sur des savoirs pratiques et concrets. Les auteurs présentent ici un savoir à la fine pointe des sciences de l’information pour répondre à la complexité des enjeux actuels et futurs. Introduction, bibliographie, index et table des matières de l’ouvrage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On note de nos jours une intensification, aux États-Unis, de l’usage de la race en santé publique, une idée qui est parfois rejetée dans la mesure où elle est associée à des pratiques controversées. Les races sont vues, dans ce contexte, comme le produit du racisme, une technologie du pouvoir de l’État moderne qui a consisté à fragmenter l’humanité pour permettre les colonisations. C'est ainsi que la race a été prise en charge par le discours pour marquer la différence, discours qui est constitué d'un ensemble hétérogène de dispositifs, des institutions, des énoncés scientifiques, des normes et des règles. Le racisme s’est développé en parallèle avec l'affirmation d'un pouvoir sur la vie visant à assurer la gestion des corps et des populations, notamment par le biais des pratiques de santé publique. Cette thèse s'appuie sur une étude ethnographique réalisée sur un corpus de documents de la santé publique parus aux États-Unis et issus de bureaux fédéraux et d’une importante revue spécialisée dans le domaine sanitaire, et qui ont été publiés entre 2001 et 2009. Cette étude a analysé la manière dont la race est représentée, produite comme objet de connaissance, et régulée par les pratiques discursives dans ces documents. Les résultats confirment que le discours sur la race varie au cours du temps. Toutefois, les résultats indiquent la relative permanence en santé publique d'un régime racialisé de représentation qui consiste à identifier, à situer et à opposer les sujets et les groupes à partir de labels standardisés. Ce régime est composé d'un ensemble de pratiques représentationnelles qui, couplées aux techniques disciplinaires et à l’idée de culture, aboutissent à la caractérisation et à la formation d’objets racialisés et à des stéréotypes. De plus, cet ensemble d’opérations qui fabrique la racialisation, a tendance, avec la sanitarisation et la culturalisation, à naturaliser la différence, à reproduire l’ordre symbolique et à constituer les identités raciales. Par ailleurs, la racialisation apparaît tiraillée entre un pouvoir sur la vie et un pouvoir sur la mort. Enfin, cette étude propose une alternative postraciale qui envisage la constitution des groupes humains de manière fluide et déterritorialisée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ces prolégomènes étudient l’évolution conceptuelle et politique de l’intégration scolaire comme introduction à l’analyse de la construction de la légitimité de la politique de l’adaptation scolaire. Ils s’intéressent d’abord au mouvement des courants de scolarisation des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage (EHDAA) et à leurs mutations au regard de leurs fondements. Puis, ils les explorent dans le contexte du Québec, à partir de l’étude de l’évolution de la Politique de l’adaptation scolaire de 1978 à 1999 et des changements intervenus dans l’orientation, l’organisation des services et l’identification des catégories d’élèves concernés par cette politique. Ces changements sont également mis en perspective avec la question de la mise en œuvre de la politique par les acteurs scolaires, considérée comme un espace de redéfinition des problèmes et de légitimation de la politique. Il montre que l’évolution de la Politique de l’adaptation scolaire se situe entre la permanence et le changement dans la conception de scolarisation des élèves HDAA sous-tendus par une difficile mise en œuvre et légitimation de la politique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.