1000 resultados para Alignement tâche-technologie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nucleoside (S)-cEt-LNA a été synthétisé par trois voies différentes à partir de la 5- méthyluridine qui est commercialement disponible. Le chemin le plus court comprend une méthylation diastéréosélective d'un aldéhyde, et une cyclisation 5-exo-tet d'un éther par déplacement SN2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes. Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image. Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le progrès scientifique et technologique n'est pas sans faille – les conséquences imprévues de son application peuvent causer de nouveaux problèmes. Tel est le constat machiavélien sur lequel est fondé le projet En imparfaite santé : la médicalisation de l'architecture du Centre Canadien d'Architecture (2011-2012), présenté sous forme d'exposition et de catalogue. Ce mémoire étudie comment les deux plateformes, la première étant expérientielle et la seconde théorique, formulent une critique du processus de la médicalisation actuelle, lequel est entré dans le champ de l'architecture contemporaine. L’exposition est approchée comme discours et comme installation d’objets pour un public; une attention particulière est alors portée à la scénographie et au parcours du visiteur. D’autres réflexions ont pour objet le graphisme, un outil soutenant le leitmotiv de confrontation. Dans l’étude du catalogue, l’accent est mis sur l’essai d’introduction, qui est implicitement traversé par le concept fondamentalement ambivalent de pharmakon. Le péritexte, l’encadrement physique du contenu principal de l’ouvrage, est aussi examiné. Ensuite, l’analyse comparative propose que chaque plateforme véhicule un propos différent, une stratégie rendue possible par l’ambivalence de la notion de corps, entendue littéralement et métaphoriquement. La conclusion finale du mémoire esquisse une courte proposition de contextualisation, autant de cette dualité que de la remise en question de l’autorité du discours techno-scientifique. Bien qu’En imparfaite santé dirige sa critique envers la persistance de la vision moderniste de l'architecture, nous avançons que le projet concerne tout autant, sinon plus, l'omniprésence actuelle du numérique. Ce dernier, à l’instar de l’architecture moderne, ne modifie pas seulement la conception du corps humain et architectural, il renforce également une croyance positiviste dans la technologie qui n'est pas toujours contrebalancée par la pensée critique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche traite des conflits d’aménagement pouvant être décelés dans les cuisines domiciliaires modernes. L’ajout d’objets mécanisés au rituel alimentaire quotidien a su changer la dynamique du lieu. En effet, l’architecture des cuisines modernes en Occident présente de grandes contradictions. Basées sur des standards architecturaux, les cuisines modulaires ne reflètent pas la variété et l’unicité des aliments auxquels les cuisines sont dédiées. Les cuisines devraient être le miroir de la vivacité naturelle des aliments et des échanges humains que la nourriture génère à travers le plaisir et le partage. Dans l’espoir de proposer des outils afin de rééquilibrer la dynamique de cette pièce, un cadre théorique basé sur les théories architecturales de l’architecte et mathématicien anglais Christopher Alexander a été établi. Supportant la présente recherche, ces théories architecturales s’inspirent de la structure et de la composition des choses de la nature et des monuments anciens afin d’établir des balises d’aménagement simples et équilibrées (qualité de vie, patterns, configuration des événements, configurations de l’espace, ...). Ces théories ont aidé à concevoir une formule d’ateliers participatifs qui visent à outiller les occupants, qui sont très souvent des non-professionnels du domaine de l’architecture et du design. Ces ateliers proposent un cheminement bien encadré qui permet aux participants de retravailler leur espace de cuisine respectif selon leurs goûts et leurs besoins. En fournissant un plan de l’étage où se situe la cuisine, quelques crayons, règles et autres matériel de dessin, les participants ont pour tâche de réaménager leur cuisine en un espace de cuisine idéal. La deuxième étape, qui elle se réalise en équipe avec tous les occupants participants de la demeure, consiste à réduire l’ampleur des changements afin d’arriver à un résultat réaliste. L’enthousiasme noté tout au long de ce processus a ainsi permis de confirmer que les non-professionnels du domaine de l’architecture et du design peuvent développer un intérêt marqué pour l’amélioration de leurs interactions quotidiennes, avec l’espace et entre les occupants, lorsque bien accompagnés dans cette tâche. Grâce aux propos et aux plans recueillis durant les séances d’ateliers participatifs ainsi qu’à l’analyse de ces données, une série d’interprétations ont émergé. Les données ont notamment démontrées l’influence positive de l’utilisation des patterns d’Alexander. L’analyse permet, en outre, de noter les tendances d’aménagement ayant émergé de l’utilisation des patterns dans les espaces de cuisine : définitivement, les cuisines se sont transformées en espace de vie partagé et polyvalent. Finalement, la présente recherche se conclut grâce à une série de recommandations qui traitent de la structure des cuisines, des ateliers participatifs et des patterns. Tout d’abord, l’impact de ces notions sur les espaces retravaillés par les participants est impressionnant. Les espaces sont bien organisés, vastes et, surtout, reflètent les occupants qui y vivent au quotidien. De plus, ayant démontré la facilité d’utilisation et la polyvalence des patterns, il a été jugé que certains aspects devraient être améliorés tels que l’actualisation de certains patterns, le prolongement du processus d’ateliers, le perfectionnement de la méthode et la diffusion des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse effectuée en cotutelle (Université de Poitiers, France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work describes a methodology for converting a specialized dictionary into a learner’s dictionary. The dictionary to which we apply our conversion method is the DiCoInfo, Dictionnaire fondamental de l’informatique et de l’Internet. We focus on changes affecting the presentation of data categories. What is meant by specialized dictionary for learners, in our case, is a dictionary covering the field of computer science and Internet meeting our users’ needs in communicative and cognitive situations. Our dictionary is aimed at learners’ of the computing language. We start by presenting a detailed description of four dictionaries for learners. We explain how the observations made on these resources have helped us in developing our methodology.In order to develop our methodology, first, based on Bergenholtz and Tarp’s works (Bergenholtz 2003; Tarp 2008; Fuertes Olivera and Tarp 2011), we defined the type of users who may use our dictionary. Translators are our first intended users. Other users working in the fields related to translation are also targeted: proofreaders, technical writers, interpreters. We also determined the use situations of our dictionary. It aims to assist the learners in solving text reception and text production problems (communicative situations) and in studying the terminology of computing (cognitive situations). Thus, we could establish its lexicographical functions: communicative and cognitive functions. Then, we extracted 50 articles from the DiCoInfo to which we applied a number of changes in different aspects: the layout, the presentation of data, the navigation and the use of multimedia. The changes were made according to two fundamental parameters: 1) simplification of the presentation; 2) lexicographic functions (which include the intended users and user’s situations). In this way, we exploited the widgets offered by the technology to update the interface and layout. Strategies have been developed to organize a large number of lexical links in a simpler way. We associated these links with examples showing their use in specific contexts. Multimedia as audio pronunciation and illustrations has been used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À mesure que la population des personnes agées dans les pays industrialisés augmente au fil de années, les ressources nécessaires au maintien du niveau de vie de ces personnes augmentent aussi. Des statistiques montrent que les chutes sont l’une des principales causes d’hospitalisation chez les personnes agées, et, de plus, il a été démontré que le risque de chute d’une personne agée a une correlation avec sa capacité de maintien de l’équilibre en étant debout. Il est donc d’intérêt de développer un système automatisé pour analyser l’équilibre chez une personne, comme moyen d’évaluation objective. Dans cette étude, nous avons proposé l’implémentation d’un tel système. En se basant sur une installation simple contenant une seule caméra sur un trépied, on a développé un algorithme utilisant une implémentation de la méthode de détection d’objet de Viola-Jones, ainsi qu’un appariement de gabarit, pour suivre autant le mouvement latéral que celui antérieur-postérieur d’un sujet. On a obtenu des bons résultats avec les deux types de suivi, cependant l’algorithme est sensible aux conditions d’éclairage, ainsi qu’à toute source de bruit présent dans les images. Il y aurait de l’intérêt, comme développement futur, d’intégrer les deux types de suivi, pour ainsi obtenir un seul ensemble de données facile à interpréter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cortices sensoriels sont des régions cérébrales essentielles pour la perception. En particulier, le cortex visuel traite l’information visuelle en provenance de la rétine qui transite par le thalamus. Les neurones sont les unités fonctionnelles qui transforment l'information sensorielle en signaux électriques, la transfèrent vers le cortex et l'intègrent. Les neurones du cortex visuel sont spécialisés et analysent différents aspects des stimuli visuels. La force des connections entre les neurones peut être modulée par la persistance de l'activité pré-synaptique et induit une augmentation ou une diminution du signal post-synaptique à long terme. Ces modifications de la connectivité synaptique peuvent induire la réorganisation de la carte corticale, c’est à dire la représentation de ce stimulus et la puissance de son traitement cortical. Cette réorganisation est connue sous le nom de plasticité corticale. Elle est particulièrement active durant la période de développement, mais elle s’observe aussi chez l’adulte, par exemple durant l’apprentissage. Le neurotransmetteur acétylcholine (ACh) est impliqué dans de nombreuses fonctions cognitives telles que l’apprentissage ou l’attention et il est important pour la plasticité corticale. En particulier, les récepteurs nicotiniques et muscariniques du sous-type M1 et M2 sont les récepteurs cholinergiques impliqués dans l’induction de la plasticité corticale. L’objectif principal de la présente thèse est de déterminer les mécanismes de plasticité corticale induits par la stimulation du système cholinergique au niveau du télencéphale basal et de définir les effets sur l’amélioration de la perception sensorielle. Afin d’induire la plasticité corticale, j’ai jumelé des stimulations visuelles à des injections intracorticales d’agoniste cholinergique (carbachol) ou à une stimulation du télencéphale basal (neurones cholinergiques qui innervent le cortex visuel primaire). J'ai analysé les potentiels évoqués visuels (PEVs) dans le cortex visuel primaire des rats pendant 4 à 8 heures après le couplage. Afin de préciser l’action de l’ACh sur l’activité des PEVs dans V1, j’ai injecté individuellement l’antagoniste des récepteurs muscariniques, nicotiniques, α7 ou NMDA avant l’infusion de carbachol. La stimulation du système cholinergique jumelée avec une stimulation visuelle augmente l’amplitude des PEVs durant plus de 8h. Le blocage des récepteurs muscarinique, nicotinique et NMDA abolit complètement cette amélioration, tandis que l’inhibition des récepteurs α7 a induit une augmentation instantanée des PEVs. Ces résultats suggèrent que l'ACh facilite à long terme la réponse aux stimuli visuels et que cette facilitation implique les récepteurs nicotiniques, muscariniques et une interaction avec les récepteur NMDA dans le cortex visuel. Ces mécanismes sont semblables à la potentiation à long-terme, évènement physiologique lié à l’apprentissage. L’étape suivante était d’évaluer si l’effet de l’amplification cholinergique de l’entrée de l’information visuelle résultait non seulement en une modification de l’activité corticale mais aussi de la perception visuelle. J’ai donc mesuré l’amélioration de l’acuité visuelle de rats adultes éveillés exposés durant 10 minutes par jour pendant deux semaines à un stimulus visuel de type «réseau sinusoïdal» couplé à une stimulation électrique du télencéphale basal. L’acuité visuelle a été mesurée avant et après le couplage des stimulations visuelle et cholinergique à l’aide d’une tâche de discrimination visuelle. L’acuité visuelle du rat pour le stimulus d’entrainement a été augmentée après la période d’entrainement. L’augmentation de l’acuité visuelle n’a pas été observée lorsque la stimulation visuelle seule ou celle du télencéphale basal seul, ni lorsque les fibres cholinergiques ont été lésées avant la stimulation visuelle. Une augmentation à long terme de la réactivité corticale du cortex visuel primaire des neurones pyramidaux et des interneurones GABAergiques a été montrée par l’immunoréactivité au c-Fos. Ainsi, lorsque couplé à un entrainement visuel, le système cholinergique améliore les performances visuelles pour l’orientation et ce probablement par l’optimisation du processus d’attention et de plasticité corticale dans l’aire V1. Afin d’étudier les mécanismes pharmacologiques impliqués dans l’amélioration de la perception visuelle, j’ai comparé les PEVs avant et après le couplage de la stimulation visuelle/cholinergique en présence d’agonistes/antagonistes sélectifs. Les injections intracorticales des différents agents pharmacologiques pendant le couplage ont montré que les récepteurs nicotiniques et M1 muscariniques amplifient la réponse corticale tandis que les récepteurs M2 muscariniques inhibent les neurones GABAergiques induisant un effet excitateur. L’infusion d’antagoniste du GABA corrobore l’hypothèse que le système inhibiteur est essentiel pour induire la plasticité corticale. Ces résultats démontrent que l’entrainement visuel jumelé avec la stimulation cholinergique améliore la plasticité corticale et qu’elle est contrôlée par les récepteurs nicotinique et muscariniques M1 et M2. Mes résultats suggèrent que le système cholinergique est un système neuromodulateur qui peut améliorer la perception sensorielle lors d’un apprentissage perceptuel. Les mécanismes d’amélioration perceptuelle induits par l’acétylcholine sont liés aux processus d’attention, de potentialisation à long-terme et de modulation de la balance d’influx excitateur/inhibiteur. En particulier, le couplage de l’activité cholinergique avec une stimulation visuelle augmente le ratio de signal / bruit et ainsi la détection de cibles. L’augmentation de la concentration cholinergique corticale potentialise l’afférence thalamocorticale, ce qui facilite le traitement d’un nouveau stimulus et diminue la signalisation cortico-corticale minimisant ainsi la modulation latérale. Ceci est contrôlé par différents sous-types de récepteurs cholinergiques situés sur les neurones GABAergiques ou glutamatergiques des différentes couches corticales. La présente thèse montre qu’une stimulation électrique dans le télencéphale basal a un effet similaire à l’infusion d’agoniste cholinergique et qu’un couplage de stimulations visuelle et cholinergique induit la plasticité corticale. Ce jumelage répété de stimulations visuelle/cholinergique augmente la capacité de discrimination visuelle et améliore la perception. Cette amélioration est corrélée à une amplification de l’activité neuronale démontrée par immunocytochimie du c-Fos. L’immunocytochimie montre aussi une différence entre l’activité des neurones glutamatergiques et GABAergiques dans les différentes couches corticales. L’injection pharmacologique pendant la stimulation visuelle/cholinergique suggère que les récepteurs nicotiniques, muscariniques M1 peuvent amplifier la réponse excitatrice tandis que les récepteurs M2 contrôlent l’activation GABAergique. Ainsi, le système cholinergique activé au cours du processus visuel induit des mécanismes de plasticité corticale et peut ainsi améliorer la capacité perceptive. De meilleures connaissances sur ces actions ouvrent la possibilité d’accélérer la restauration des fonctions visuelles lors d’un déficit ou d’amplifier la fonction cognitive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cotutelle de thèse réalisée en littérature comparée (option épistémologie) avec l'Université de Montréal sous la direction de Terry Cochran et en philosophie avec Paris X (Nanterre) sous la direction d'Alain Milon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les buts des recherches présentées dans cette thèse étaient d’évaluer le rôle de la stéréoscopie dans la reconnaissance de forme, dans la perception du relief et dans la constance de forme. La première étude a examiné le rôle de la stéréoscopie dans la perception des formes visuelles en utilisant une tâche de reconnaissance de formes. Les stimuli pouvaient être présentés en 2D, avec disparité normale (3D) ou avec disparité inversée. La performance de reconnaissance était meilleure avec les modes de présentation 2D et 3D qu’avec la 3D inversée. Cela indique que la stéréoscopie contribue à la reconnaissance de forme. La deuxième étude s’est intéressée à la contribution conjointe de l’ombrage et de la stéréoscopie dans la perception du relief des formes. Les stimuli étaient des images d’une forme 3D convexe synthétique présentée sous un point de vue menant à une ambigüité quant à sa convexité. L’illumination pouvait provenir du haut ou du bas et de la gauche ou de la droite, et les stimuli étaient présentés dichoptiquement avec soit de la disparité binoculaire normale, de la disparité inversée ou sans disparité entre les vues. Les participants ont répondu que les formes étaient convexes plus souvent lorsque la lumière provenait du haut que du bas, plus souvent avec la disparité normale qu’en 2D, et plus souvent avec absence de disparité qu’avec disparité inversée. Les effets de direction d’illumination et du mode de présentation étaient additifs, c’est-à-dire qu’ils n’interagissaient pas. Cela indique que l’ombrage et la stéréoscopie contribuent indépendamment à la perception du relief des formes. La troisième étude a évalué la contribution de la stéréoscopie à la constance de forme, et son interaction avec l’expertise perceptuelle. Elle a utilisé trois tâches de discrimination séquentielle de trombones tordus ayant subi des rotations en profondeur. Les stimuli pouvaient être présentés sans stéréoscopie, avec stéréoscopie normale ou avec stéréoscopie inversée. Dans la première moitié de l’Exp. 1, dans laquelle les variations du mode de présentation étaient intra-sujets, les performances étaient meilleures en 3D qu’en 2D et qu’en 3D inversée. Ces effets ont été renversés dans la seconde moitié de l’expérience, et les coûts de rotation sont devenus plus faibles pour la 2D et la 3D inversée que pour la 3D. Dans les Exps. 2 (variations intra-sujets du mode de présentation, avec un changement de stimuli au milieu de l’expérience) et 3 (variations inter-sujets du mode de présentation), les effets de rotation étaient en tout temps plus faibles avec stéréoscopie qu’avec stéréoscopie inversée et qu’en 2D, et plus faibles avec stéréoscopie inversée que sans stéréoscopie. Ces résultats indiquent que la stéréoscopie contribue à la constance de forme. Toutefois, cela demande qu’elle soit valide avec un niveau minimal de consistance, sinon elle devient stratégiquement ignorée. En bref, les trois études présentées dans cette thèse ont permis de montrer que la stéréoscopie contribue à la reconnaissance de forme, à la perception du relief et à la constance de forme. De plus, l’ombrage et la stéréoscopie sont intégrés linéairement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compte-rendu / Review

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La personnalisation et l'adaptation d'environnement multimédia pédagogique a pour but de favoriser l'intégration d'application web de formation en fonction de la personnalité de l'apprenant, de sa progression, de ses préférences et de son contexte d'application. Le contrôle de certaines de ces options doit être donné à l'enseignant afin de pouvoir suivre la progression de ses étudiants, de prescrire des activités complémentaires en ce qui est fait en classe et de gérer ses groupes. Nous avons participé au développement et à l'évaluation d'une application pour appuyer le suivi des activités et donner du soutien aux apprenants dans un environnement pédagogique disponible gratuitement en ligne pour l'apprentissage des sciences nommé ScienceEnJeu. ScienceEnJeu est un environnement où l'apprenant peut explorer différents mondes d'apprendre le contenu, comme les mathématiques, l'écologie, la physique, la génomique, etc. Notre système utilise une base de données qui se construit en fonction de conditions comme les activités des utilisateurs dans le jeu et offre la possibilité de lier les activités du jeu à des structures de concepts issues du programme du Ministère de l'éducation de loisirs et du sport (MELS). Une interface permet aux parents ou à l'enseignant de visualiser la progression dans l'environnement d'un étudiant et / ou d'un groupe, voir le modèle de l'élève de superposition sur la structure des activités et des structures de concepts. L'enseignant peut chercher une activité liée à des concepts particuliers et la définir comme une tâche pour son groupe d'étudiants selon un calendrier. Un système de soutien personnalisé fondé sur des règles y est aussi intégré. Ces règles sont des stratégies de soutien construites en fonction de différents paramètres du contexte de l'activité, des préférences de style d'apprentissage de l'élève et de l'aide précédente. De par ces règles, différents avatars animés peuvent être affichés avec des messages qui sont écrits pour soutenir la motivation des élèves selon leur personnalité d'apprenant.