27 resultados para Concepteurs
Resumo:
À l’ère du web 2.0, l’usage des sites web se multiplie et génère de nouveaux enjeux. La satisfaction en rapport à l’interactivité, facteur d’efficacité des sites, détermine la popularité, et donc la visibilité de ceux-ci sur la Toile. Par conséquent, dans cette étude, nous considérons que les utilisateurs ont un rôle à jouer lors du processus de conception de ces derniers. Certes, autant en théorie que dans la pratique, les concepteurs semblent bel et bien tenir compte des utilisateurs; toutefois, ils ne les intègrent pas comme participants actifs dans leurs démarches. Cette étude vise au moyen d’une recherche documentaire et d’observations sur le terrain à comprendre les principales catégories et morphologies des sites web ainsi que les usages qui en découlent. Une analyse des diverses démarches de conception et des perceptions et attentes des internautes est réalisée sur la base de ces résultats. Pour répondre à ces objectifs, cette analyse cible deux catégories de sites réalisés par des professionnels et par des amateurs. Celle-ci nous permet de démontrer que les résultats de chacune de ces démarches, exprimés à travers les interfaces graphiques des sites, diffèrent au niveau de la qualité perceptible. Cette étude souligne également l’importance d’un traitement efficace de la communication graphique des éléments des sites web, afin de structurer la lecture et transmettre au final un message clair et compréhensible aux internautes. Dans le but consolider nos propositions, nous faisons référence à deux théories de communication graphique, la Gestalt et la sémiotique, l’une s’intéressant à la perception visuelle, l’autre à l’interprétation des signes. Celles-ci se sont révélées pertinentes pour analyser la qualité et l’efficacité des éléments de contenus. Notre étude révèle que les participants ne sont pas satisfaits des deux sites testés car l’utilisabilité du site conçu par des professionnels est trop complexe et l’interface du site conçu par un amateur manque de professionnalisme et de cohérence. Ces résultats soulignent la pertinence d’une approche centrée sur l’utilisateur pour la conception de sites web, car elle permet d’identifier et de résoudre des erreurs de conception. Nos résultats permettent également de souligner que les professionnels ayant un savoir technique et théorique se démarquent des amateurs au niveau des intervenants, des outils et des limites. Des pistes de solution, via des critères de design centré sur l’utilisateur, sont proposées à la fin de cette étude dans le but d’optimiser la qualité et l’efficacité des interfaces graphiques web.
Resumo:
L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.
Resumo:
Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.
Resumo:
La gestion des villes d’Afrique de l’Ouest pose problème à la période contemporaine : extension urbaine non maitrisée, services de base insuffisants, insécurité foncière. À travers l’aide internationale, d’importantes réformes visant à améliorer son efficacité ont pourtant été mises en place, mais elles semblent avoir été inefficaces. Dépassant ce constat d’échec, la thèse vise à comprendre comment se déroule l’acte de gérer la ville dans les circonstances particulières des villes d’Afrique de l’Ouest. La mise en œuvre du Registre foncier urbain (RFU), système d’information foncière municipal multi-fonctions introduit au Bénin à travers des programmes de développement au début des années 1990, constitue le prisme à travers lequel la gestion urbaine est analysée. Celle-ci est ainsi approchée par les actes plutôt que par les discours. S’appuyant sur une démarche socio-anthropologique, la mise en œuvre de l’instrument est analysée depuis le point de vue des acteurs locaux et selon une double grille de lecture : d’une part, il s’agit de saisir les logiques de l’appropriation locale dont le RFU a fait l’objet au sein des administrations; d’autre part, il s’agit de comprendre son interaction avec le territoire, notamment avec les dynamiques complexes d’accès au sol et de sécurisation foncière. Une étude de cas multiple a été menée dans trois communes : Cotonou, Porto-Novo et Bohicon. Deux ensembles de conclusions en découlent. Tout d’abord, le RFU s’est imposé comme l’instrument pivot de la fiscalité locale, mais est mis en œuvre de manière minimale. Ce fonctionnement particulier est une adaptation optimale à un contexte fait de rivalités professionnelles au sein d’administrations cloisonnées, d’enjeux politico-financiers liés aux différentes sources de revenus communaux et de tensions politico-institutionnelles liées à une décentralisation tardive. Les impacts du RFU en termes de développement des compétences professionnelles nationales sont insuffisants pour réformer la gestion urbaine depuis l’intérieur de l’administration municipale. Ensuite, alors qu’il vise à centraliser l’information sur les propriétaires présumés de la terre, le RFU se heurte à la marchandisation de cette information et à la territorialisation de la régulation foncière. La mise en œuvre du RFU s’en trouve affectée de deux manières : d’une part, elle s’insère dans ces circuits marchands de l’information foncière, avec cependant peu de succès ; d’autre part, elle a un impact différencié selon les territoires de la régulation foncière. En définitive, l’acte de gérer la ville au Bénin n’est pas devenu automatique avec l’introduction d’instruments comme le RFU. La municipalité se repose plutôt sur les piliers classiques de l’action publique, l’administration et le politique, pour gérer la ville plurielle de manière différenciée. À l’endroit des concepteurs d’action publique, cette thèse plaide pour une prise en compte des modes de régulation existant dans les sociétés africaines, fussent-ils pluriels, reconnaissant les voies originales que prend la construction des institutions en Afrique.
Resumo:
De plus en plus, le jeu vidéo se présente et se vit en termes de récit, ce qui n’est pas sans causer de nombreux maux de tête aux concepteurs de jeux comme aux théoriciens. Cet article s’intéresse au rôle central joué par le personnage dans la réconciliation de la narrativité et de l’interactivité à travers une étude théorique et critique de quelques stratégies employées par les concepteurs pour réaliser une fusion identitaire du joueur avec le personnage. Il y est question de deux postures d’immersion fictionnelle identifiées par Jean-Marie Schaeffer : l’identification allosubjective et la virtualisation identitaire. Ces postures sont liées à des processus de design de personnage : l’approche avatorielle, centrée sur le concept d’avatar et qui tente d’aplanir les différences intersubjectives, et l’approche actorielle, qui au contraire vise à les accroître en faisant du personnage un acteur autonome plutôt qu’un avatar. Ces deux pratiques ne sont pas mutuellement exclusives; au contraire, il est démontré que pour réaliser l’immersion fictionnelle, la plupart des jeux tentent de conserver une trace du joueur dans l’avatar, et une trace du personnage dans l’acteur. Des marqueurs d’allosubjectivité et de subjectivisation sont identifiés par l’analyse des jeux Metroid Prime, Duke Nukem 3D, Gears of War et Shadowrun. Enfin, l’article étudie également les rapports entre le ludique et le narratif selon le rôle actantiel du joueur et du personnage, écorchant au passage la convention du « héros muet » (silent protagonist) souvent rencontrée dans le jeu vidéo mais ultimement improductive.
Resumo:
La rareté des miniatures consacrées à l'histoire amoureuse de Merlin et Viviane, dont le développement est à la fois épisodique et structuré par le recours au procédé de l'entrelacement, souligne son caractère marginal au sein de la narration. Les artistes et concepteurs de ces ouvrages manifestent une certaine réticence à l'égard d'aventures qui peuvent affecter l'autorité morale de Merlin, même si elles sont étroitement liées à la disparition du personnage et à la clôture du récit.
Dynamique des ambiances lumineuses - approche basée sur la photométrie vidéo d’espaces de transition
Resumo:
Les variations de la lumière naturelle lors du passage d’un espace à un autre caractérisent de manière complexe, mais importante le design d’un bâtiment. Cette adaptation visuelle s’inscrit dans un processus spatiotemporel et influe sur le confort et le bien-être de ses occupants. La littérature fait état du peu de connaissances de la relation lumière espace-temps. Cette recherche propose donc d’étudier cette relation spatio-temporelle existant entre la lumière et l’espace, afin de qualifier un parcours architectural au moyen d’une expérimentation in situ et de segments filmiques. La recherche combine l’utilisation d’un luminance-mètre, d’une caméra vidéo et d’une méthode d’analyse d’images numériques afin de permettre l’évaluation des qualités spatio-temporelles de la lumière. Le parcours architectural est analysé selon la diversité et l’intensité des ambiances lumineuses en fonction du temps permettant de décrire les perceptions visuelles d’espaces transitions. Cette méthode dynamique offre un potentiel d’analyse et de création aux concepteurs désireux d’enrichir le design de séquences spatiales en favorisant la diversité lumineuse dans l’expérience architecturale. Mots clefs: adaptation visuelle, analyse d’images, ambiance lumineuse, contraste, éclairage naturel, espaces transitions, lumière perception visuelle, vidéo, spatio-temporel.
Resumo:
Les charpentes en bois doivent inévitablement inclure des assemblages pouvant transférer les charges entre les éléments de façon adéquate pour assurer l’intégrité de la structure. Les assemblages sont une partie critique des structures en bois puisque dans la plupart des cas, ce sont ceux-ci qui permettent de dissiper l’énergie et d’obtenir un mode de rupture ductile sous les charges sismiques. Ce mode de rupture est préférable, puisqu’il donne lieu à une grande déformation avant effondrement, permettant ainsi une évacuation des occupants en toute sécurité lors de tremblement de terre. Les assemblages à petits diamètres tels que les clous, les rivets et les vis sont fréquemment utilisés dans les constructions en bois et on suppose qu’ils amènent une rupture ductile bien qu’il soit impossible pour les concepteurs de prédire exactement le mode de rupture à l’aide de la méthode de calcul actuelle. De plus, les rivets ont une application très limitée dû au fait que la méthode de calcul utilisée actuellement s’applique à des configurations, essences et types de produits de bois très spécifiques. L’objectif de ce projet est d’évaluer une nouvelle méthode de calcul proposée par des chercheurs de Nouvelle-Zélande, Zarnani et Quenneville, pour les assemblages à rivets, mais adaptable pour les assemblages de bois à attaches de petits diamètres. Elle permet au concepteur de déterminer avec précision le mode de rupture des assemblages de différentes configurations avec différents produits de bois. Plus de 70 essais sur les assemblages à rivets et à clous résistants à des charges variant de 40kN à 800kN ont été effectués dans le cadre de ce projet de recherche afin de valider l’utilisation de cette méthode avec le produit du bois lamellé-collé canadien Nordic Lam et la comparer avec celle présentement utilisée au Canada. Les modes de rupture ductile, fragile et mixte ont été prévus avec l’emphase sur le mode fragile puisque c’est celui-ci qui est le plus variable et le moins étudié. Les assemblages en bois lamellé-collé Nordic Lam étaient cloués ou rivetés selon différentes configurations variant de 18 à 128 clous ou rivets. Les résultats démontrent une bonne prédiction de la résistance et des modes de rupture des assemblages à clous et à rivets. Pour quelques configurations des assemblages à rivets, les prédictions de la nouvelle méthode sont plus élevées qu’avec la méthode actuelle. Les assemblages à clous ont démontré des ruptures de la tige de clous au niveau du plan de cisaillement lors de tous les essais effectués, ce qui ne correspond pas à un mode ductile ou fragile prévue par la méthode de calcul.
Resumo:
À travers leurs premiers écrits des années 50 et 60, Frei Otto, architecte et ingénieur allemand (1925-2015), et René Sarger (1917-1988), architecte français, n’expriment pas seulement une passion partagée des toitures suspendues. Partant du même souci d’une forme structurale « juste », leurs convictions radicales révèlent aussi les premiers questionnements des nouveaux rôles de l’ingénieur et de l’architecte de l’époque, mais aussi des idéaux opposés concernant leur position comme concepteurs et auteurs du monde bâti, ainsi que l’importance sociétale de leurs disciplines.
Resumo:
Notre projet de recherche de maîtrise s’inscrit dans le contexte « Early Algebra », une perspective visant le développement de la pensée algébrique sans l’utilisation du langage littéral de l’algèbre dès le primaire. Plusieurs pays, comme les États-Unis et l'Australie, ont intégré cette visée dans les programmes de formation. Bien que le programme de formation de l’école québécois ne s’inscrive pas dans cette tendance, le développement de la pensée algébrique n’est pas absent pour autant dans le programme du primaire, selon les concepteurs du Programme de formation de l’école québécoise (PFÉQ). L’introduction à l’algèbre se fait dès le premier cycle du secondaire de deux façons : la généralisation et la résolution de problèmes. Des initiatives locales se développent afin d’implanter, dans le milieu scolaire, des pratiques d’enseignement favorisant le développement de la pensée algébrique au primaire et au secondaire. Un groupe formé de didacticiens des mathématiques, de conseillers pédagogiques et d'enseignants travaille depuis quelques années en ce sens. Les questions de la circulation des connaissances professionnelles liées à une ressource ainsi que l’intégration de celle-ci dans la pratique des enseignants sont au cœur de cette problématique exige la construction de schèmes d’usage (Vergnaud, 1996). L’objectif de notre recherche de maîtrise est de documenter les transformations que subit une ressource en lien avec le développement de la pensée algébrique lors de la résolution de problèmes, utilisée par un groupe d’enseignants. Cette ressource se compose d'un problème mathématique «Arsène Ponton» et de principes didactiques proposés par les formateurs concernant la pensée algébrique et son développement chez les élèves.
Resumo:
2015
Resumo:
2015