16 resultados para Understanding by Design
em Université de Montréal, Canada
Resumo:
Aujourd’hui, nous savons qu’environ 75 à 80% des impacts environnementaux des produits sont déterminés lors de la conception. Le rôle du designer industriel est donc crucial pour arriver à une forme de développement plus viable. Cette recherche tente de cibler les champs de connaissances qui devraient faire partie de la formation des professionnels du développement de produits pour y intégrer les aspects environnementaux. Après une recension de la littérature en design industriel, en pédagogie et en environnement, l’étude de terrain a été conduite en deux temps. Selon des critères prédéfinis, des programmes universitaires « spécialisés » en environnement/développement durable, au Québec, ainsi que des formations en éco-conception, offerts en France, ont été analysés. L’étude de terrain a été complétée par un entretien en profondeur semi-dirigé avec un consultant, qui aide des entreprises québécoises à intégrer l’environnement en développement de produits. L’analyse des informations recueillies met en évidence la nécessité de transformer rapidement les formations universitaires en conception de produits. Le nouveau cursus de design industriel devrait; 1. Intégrer les connaissances relatives aux impacts environnementaux; 2. Encourager le travail en équipes multidisciplinaires pour enrichir la collecte d’informations relative aux projets de développement; 3. Établir une collaboration étroite entre les établissements d’enseignement et les industries, ce qui est essentiel à la compréhension des enjeux de développement de produits et services (culture de l’entreprise, coût, délais, logistique, réglementation, etc.).
Resumo:
L'objectif de cette étude est d'apprendre à créer de nouveaux matériaux moléculaires par design. À l'heure actuelle, il n'existe aucune méthode générale pour la prédiction des structures et des propriétés, mais des progrès importants ont été accomplis, en particulier dans la fabrication de matériaux moléculaires ordonnés tels que des cristaux. En ces matériaux, l'organisation peut être contrôlée efficacement par la stratégie de la tectonique moléculaire. Cette approche utilise des molécules appelées “tectons”, qui peuvent s’associer de manière dirigée par des interactions non covalentes prévisibles. De cette façon, la position de chaque molécule par rapport à ses voisins peut être programmée avec un degré élevé de fiabilité pour créer des cristaux et d'autres matériaux organisés avec des caractéristiques et des propriétés structurelles souhaitables. Le travail que nous allons décrire est axé sur l'utilisation de l'association des cations bis(aminidinium) avec des carboxylates, sulfonates, phosphonates et phosphates, afin de créer des réseaux moléculaires prévisibles. Ces réseaux promettent d'être particulièrement robuste, car ils sont maintenus ensemble par de multiples liaisons hydrogène assistées par des interactions électrostatiques.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
La découverte dans le cerveau du singe macaque de cellules visuo-motrices qui répondent de façon identique à la production et la perception d’actes moteurs soutient l’idée que ces cellules, connues sous le nom de neurones-miroirs, encoderaient la représentation d’actes moteurs. Ces neurones, et le système qu’ils forment, constitueraient un système de compréhension moteur; par delà la simple représentation motrice, il est également possible que ce système participe à des processus de haut niveau en lien avec la cognition sociale. Chez l’humain adulte, des études d’imagerie récentes montrent d’importants chevauchements entre les patrons d’activité liés à l’exécution d’actes moteurs et ceux associés à la perception d’actions. Cependant, malgré le nombre important d’études sur ce système de résonance motrice, étonnamment peu se sont penchées sur les aspects développementaux de ce mécanisme, de même que sa relation avec certaines habiletés sociales dans la population neurotypique. De plus, malgré l’utilisation répandue de certaines techniques neurophysiologiques pour quantifier l’activité de ce système, notamment l’électroencéphalographie et la stimulation magnétique transcrânienne, on ignore en grande partie la spécificité et la convergence de ces mesures dans l’étude des processus de résonance motrice. Les études rassemblées ici visent à combler ces lacunes, c'est-à-dire (1) définir l’existence et les propriétés fonctionnelles du système de résonance motrice chez l’enfant humain, (2) établir le lien entre ce système et certaines habiletés sociales spécifiques et (3) déterminer la validité des outils d’investigation couramment utilisés pour mesurer son activité. Dans l’article 1, l’électroencéphalographie quantitative est utilisée afin de mesurer l’activité des régions sensorimotrices chez un groupe d’enfants d’âge scolaire durant la perception d’actions de la main. On y démontre une modulation de l’activité du rythme mu aux sites centraux non seulement lors de l’exécution de tâches motrices, mais également lors de l’observation passive d’actions. Ces résultats soutiennent l’hypothèse de l’existence d’un système de résonance motrice sensible aux représentations visuelles d’actes moteurs dans le cerveau immature. L’article 2 constitue une étude de cas réalisée chez une jeune fille de 12 ans opérée pour épilepsie réfractaire aux médicaments. L’électroencéphalographie intracrânienne est utilisée afin d’évaluer le recrutement du cortex moteur lors de la perception de sons d’actions. On y montre une modulation de l’activité du cortex moteur, visible dans deux périodes distinctes, qui se reflètent par une diminution de la puissance spectrale des fréquences beta et alpha. Ces résultats soutiennent l’hypothèse de l’existence d’un système de résonance motrice sensible aux représentations auditives d’actions chez l’enfant. L’article 3 constitue une recension des écrits portant sur les données comportementales et neurophysiologiques qui suggèrent la présence d’un système de compréhension d’action fonctionnel dès la naissance. On y propose un modèle théorique où les comportements d’imitation néonataux sont vus comme la résultante de mécanismes d’appariement moteurs non inhibés. Afin de mesurer adéquatement la présence de traits empathiques et autistique dans le but de les mettre en relation avec l’activité du système de résonance motrice, l’article 4 consiste en une validation de versions françaises des échelles Empathy Quotient (Baron-Cohen & Wheelwright, 2004) et Autism Spectrum Quotient (Baron-Cohen et al., 2001) qui seront utilisées dans l’article 5. Les versions traduites de ces échelles ont été administrées à 100 individus sains et 23 personnes avec un trouble du spectre autistique. Les résultats répliquent fidèlement ceux obtenus avec les questionnaires en version anglaise, ce qui suggère la validité des versions françaises. Dans l’article 5, on utilise la stimulation magnétique transcrânienne afin d’investiguer le décours temporel de l’activité du cortex moteur durant la perception d’action et le lien de cette activité avec la présence de traits autistiques et empathiques chez des individus normaux. On y montre que le cortex moteur est rapidement activé suivant la perception d’un mouvement moteur, et que cette activité est corrélée avec les mesures sociocognitives utilisées. Ces résultats suggèrent l’existence d’un système d’appariement moteur rapide dans le cerveau humain dont l’activité est associée aux aptitudes sociales. L’article 6 porte sur la spécificité des outils d’investigation neurophysiologique utilisés dans les études précédentes : la stimulation magnétique transcrânienne et l’électroencéphalographie quantitative. En utilisant ces deux techniques simultanément lors d’observation, d’imagination et d’exécution d’actions, on montre qu’elles évaluent possiblement des processus distincts au sein du système de résonance motrice. En résumé, cette thèse vise à documenter l’existence d’un système de résonance motrice chez l’enfant, d’établir le lien entre son fonctionnement et certaines aptitudes sociales et d’évaluer la validité et la spécificité des outils utilisés pour mesurer l’activité au sein de ce système. Bien que des recherches subséquentes s’avèrent nécessaires afin de compléter le travail entamé ici, les études présentées constituent une avancée significative dans la compréhension du développement et du fonctionnement du système de résonance motrice, et pourraient éventuellement contribuer à l’élaboration d’outils diagnostiques et/ou de thérapeutiques chez des populations où des anomalies de ce système ont été répertoriées.
Resumo:
Codirection: Dr. Gonzalo Lizarralde
Resumo:
Depuis la dernière décennie, le biomimétisme est une discipline en plein essor dans le monde du design durable. De plus en plus, cette stratégie prend place dans plusieurs facettes du design, que ce soit dans le design industriel, dans l’architecture ou encore dans le design urbain. Le livre de Janine Benyus intitulé Biomimétisme: Quand la Nature Inspire des Innovations Durables (1997) est largement reconnu comme étant le catalyseur de la stratégie et comme l’indique le titre du livre, le biomimétisme est très souvent associé à l’innovation. Le but principal de cette recherche est de mieux comprendre le lien entre le biomimétisme et l’innovation. Cette recherche sur le biomimétisme comprend un objectif mineur et deux objectifs majeurs. Le premier objectif cherche à comprendre le véritable lien entre le biomimétisme et l’écodesign. Le second objectif vise non seulement à valider la théorie selon laquelle le biomimétisme est une stratégie menant à des solutions de design innovantes, mais également à établir quels types d’innovations ont été générés par cette stratégie. Finalement, le troisième objectif est d’identifier les aspects du biomimétisme qui mènent à des solutions de design innovantes. Pour accomplir ces objectifs, cette recherche utilisera une approche qualitative supportée par des études de cas et une revue de littérature. Afin de contextualiser les deux derniers objectifs, cette étude établit que le biomimétisme et l’écodesign sont des stratégies complémentaires plutôt qu’en compétition. Les conclusions de cette recherche démontrent que la théorie proposant que le biomimétisme soit une stratégie d’innovation est valide et que la discipline est surtout apte à générer l’innovation radicale. Finalement, la recherche indique que l’analogie de distance et la transdisciplinarité sont les deux aspects du biomimétisme aidant à produire des solutions de design innovantes. Le biomimétisme est mieux connu dans le contexte du design durable et cette recherche permet de mieux comprendre le biomimétisme dans le contexte de l’innovation. Considérant que le biomimétisme est une discipline qui suscite beaucoup d’intérêt des milieux académiques et privés, cette recherche participe à l’expansion de la connaissance sur le sujet et propose de nouvelles pistes de recherche sur le biomimétisme et l’innovation.
Resumo:
La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire, ce qui en fait une cible de choix pour le traitement de différents cancers. À cet effet, plusieurs inhibiteurs spécifiques de la DHFRh, les antifolates, ont été mis au point : le méthotrexate (MTX) et le pemetrexed (PMTX) en sont de bons exemples. Malgré l’efficacité clinique certaine de ces antifolates, le développement de nouveaux traitements s’avère nécessaire afin de réduire les effets secondaires liés à leur utilisation. Enfin, dans l’optique d’orienter la synthèse de nouveaux composés inhibiteurs des DHFRh, une meilleure connaissance des interactions entre les antifolates et leur enzyme cible est primordiale. À l’aide de l’évolution dirigée, il a été possible d’identifier des mutants de la DHFRh pour lesquels l’affinité envers des antifolates cliniquement actifs se voyait modifiée. La mutagenèse dite ¬¬de saturation a été utilisée afin de générer des banques de mutants présentant une diversité génétique au niveau des résidus du site actif de l’enzyme d’intérêt. De plus, une nouvelle méthode de criblage a été mise au point, laquelle s’est avérée efficace pour départager les mutations ayant entrainé une résistance aux antifolates et/ou un maintient de l’activité enzymatique envers son substrat natif, soient les phénotypes d’activité. La méthode de criblage consiste dans un premier temps en une sélection bactérienne à haut débit, puis dans un second temps en un criblage sur plaques permettant d’identifier les meilleurs candidats. Plusieurs mutants actifs de la DHFRh, résistants aux antifolates, ont ainsi pu être identifiés et caractérisés lors d’études de cinétique enzymatique (kcat et IC50). Sur la base de ces résultats cinétiques, de la modélisation moléculaire et des données structurales de la littérature, une étude structure-activité a été effectuée. En regardant quelles mutations ont les effets les plus significatif sur la liaison, nous avons commencé à construire un carte moléculaire des contacts impliqués dans la liaison des ligands. Enfin, des connaissances supplémentaires sur les propriétés spécifiques de liaison ont put être acquises en variant l’inhibiteur testé, permettant ainsi une meilleure compréhension du phénomène de discrimination du ligand.
Resumo:
Streptococcus suis de type 2 est un microorganisme pathogène d’importance chez le porc. Il est la cause de différentes pathologies ayant comme caractéristique commune la méningite. C’est également un agent émergeant de zoonose : des cas cliniques humains ont récemment été rapportés en Asie. Cependant, la pathogénèse de S. suis n’est pas encore complètement élucidée. Jusqu’à présent, la réponse pro-inflammatoire initiée par S. suis n’a été étudiée qu’in vitro. L’étude du choc septique et de la méningite requiert toujours des modèles expérimentaux appropriés. Au cours de cette étude, nous avons développé un modèle in vivo d’infection chez la souris qui utilise la voie d’inoculation intra-péritonéale. Ce modèle a servi à l’étude de la réponse pro-inflammatoire associée à ce pathogène, tant au niveau systémique qu’au niveau du système nerveux central (SNC). Il nous a également permis de déterminer si la sensibilité aux infections à S. suis pouvait être influencée par des prédispositions génétiques de l’hôte. Le modèle d’infection par S. suis a été mis au point sur des souris de lignée CD1. Les résultats ont démontré une bactériémie élevée pendant les trois jours suivant l’infection. Celle-ci était accompagnée d’une libération rapide et importante de différentes cytokines pro-inflammatoires (TNF-α, IL-6, IL-12p40/p70, IFN-ɣ) et de chémokines (KC, MCP-1 and RANTES), qui ont entraîné un choc septique et la mort de 20 % des animaux. Ensuite, pour confirmer le rôle de l’inflammation sur la mortalité et pour déterminer si les caractéristiques génétiques de l’hôte pouvaient influencer la réponse inflammatoire et l’issue de la maladie, le modèle d’infection a été étendu à deux lignées murines consanguines différentes considérées comme résistante : la lignée C57BL/6 (B6), et sensible : la lignée A/J. Les résultats ont démontré une importante différence de sensibilité entre les souris A/J et les souris B6, avec un taux de mortalité atteignant 100 % à 20 h post-infection (p.i.) pour la première lignée et de seulement 16 % à 36 h p.i. pour la seconde. La quantité de bactéries dans le sang et dans les organes internes était similaire pour les deux lignées. Donc, tout comme dans la lignée CD1, la bactériémie ne semblait pas être liée à la mort des souris. La différence entre les taux de mortalité a été attribuée à un choc septique non contrôlé chez les souris A/J infectées par S. suis. Les souris A/J présentaient des taux exceptionnellement élevés de TNF-α, IL-12p40/p70, IL-1β and IFN- γ, significativement supérieurs à ceux retrouvés dans la lignée B6. Par contre, les niveaux de chémokines étaient similaires entre les lignées, ce qui suggère que leur influence est limitée dans le développement du choc septique dû à S. suis. Les souris B6 avaient une production plus élevée d’IL-10, une cytokine anti-inflammatoire, ce qui suppose que la cascade cytokinaire pro-inflammatoire était mieux contrôlée, entraînant un meilleur taux de survie. Le rôle bénéfique potentiel de l’IL-10 chez les souris infectées par S. suis a été confirmé par deux approches : d’une part en bloquant chez les souris B6 le récepteur cellulaire à l’IL-10 (IL-10R) par un anticorps monoclonal anti-IL-10R de souris et d’autre part en complémentant les souris A/J avec de l’IL-10 de souris recombinante. Les souris B6 ayant reçu le anticorps monoclonal anti-IL-10R avant d’être infectées par S. suis ont développé des signes cliniques aigus similaires à ceux observés chez les souris A/J, avec une mortalité rapide et élevée et des taux de TNF-α plus élevés que les souris infectées non traitées. Chez les souris A/J infectées par S. suis, le traitement avec l’IL-10 de souris recombinante a significativement retardé l’apparition du choc septique. Ces résultats montrent que la survie au choc septique dû à S. suis implique un contrôle très précis des mécanismes pro- et anti-inflammatoires et que la réponse anti-inflammatoire doit être activée simultanément ou très rapidement après le début de la réponse pro-inflammatoire. Grâce à ces expériences, nous avons donc fait un premier pas dans l’identification de gènes associés à la résistance envers S. suis chez l’hôte. Une des réussites les plus importantes du modèle d’infection de la souris décrit dans ce projet est le fait que les souris CD1 ayant survécu à la septicémie présentaient dès 4 jours p.i. des signes cliniques neurologiques clairs et un syndrome vestibulaire relativement similaires à ceux observés lors de méningite à S. suis chez le porc et chez l’homme. L’analyse par hybridation in situ combinée à de l’immunohistochimie des cerveaux des souris CD1 infectées a montré que la réponse inflammatoire du SNC débutait avec une augmentation significative de la transcription du Toll-like receptor (TLR)2 et du CD14 dans les microvaisseaux cérébraux et dans les plexus choroïdes, ce qui suggère que S. suis pourrait se servir de ces structures comme portes d’entrée vers le cerveau. Aussi, le NF-κB (suivi par le système rapporteur de l’activation transcriptionnelle de IκBα), le TNF-α, l’IL-1β et le MCP-1 ont été activés, principalement dans des cellules identifiées comme de la microglie et dans une moindre mesure comme des astrocytes. Cette activation a également été observée dans différentes structures du cerveau, principalement le cortex cérébral, le corps calleux, l’hippocampe, les plexus choroïdes, le thalamus, l’hypothalamus et les méninges. Partout, cette réaction pro-inflammatoire était accompagnée de zones extensives d’inflammation et de nécrose, de démyélinisation sévère et de la présence d’antigènes de S. suis dans la microglie. Nous avons mené ensuite des études in vitro pour mieux comprendre l’interaction entre S. suis et la microglie. Pour cela, nous avons infecté des cellules microgliales de souris avec la souche sauvage virulente (WT) de S. suis, ainsi qu’avec deux mutants isogéniques, un pour la capsule (CPS) et un autre pour la production d’hémolysine (suilysine). Nos résultats ont montré que la capsule était un important mécanisme de résistance à la phagocytose pour S. suis et qu’elle modulait la réponse inflammatoire, en dissimulant les composants pro-inflammatoires de la paroi bactérienne. Par contre, l’absence d’hémolysine, qui est un facteur cytotoxique potentiel, n’a pas eu d’impact majeur sur l’interaction de S. suis avec la microglie. Ces études sur les cellules microgliales ont permis de confirmer les résultats obtenus précédemment in vivo. La souche WT a induit une régulation à la hausse du TLR2 ainsi que la production de plusieurs médiateurs pro-inflammatoires, dont le TNF-α et le MCP-1. S. suis a induit la translocation du NF-kB. Cet effet était plus rapide dans les cellules stimulées par le mutant déficient en CPS, ce qui suggère que les composants de la paroi cellulaire représentent de puissants inducteurs du NF-kB. De plus, la souche S. suis WT a stimulé l’expression de la phosphotyrosine, de la PKC et de différentes cascades liées à l’enzyme mitogen-activated protein kinase (MAPK). Cependant, les cellules microgliales infectées par le mutant déficient en CPS ont montré des profils de phosphorylation plus forts et plus soutenus que celles infectées par le WT. Finalement, la capsule a aussi modulé l’expression de l’oxyde nitrique synthétase inductible (iNOS) induite par S. suis et par la production subséquente d’oxyde nitrique par la microglie. Ceci pourrait être lié in vivo à la neurotoxicité et à la vasodilatation. Nous pensons que ces résultats contribueront à une meilleure compréhension des mécanismes sous-tendant l’induction de l’inflammation par S. suis, ce qui devrait permettre, d’établir éventuellement des stratégies plus efficaces de lutte contre la septicémie et la méningite. Enfin, nous pensons que ce modèle expérimental d’infection chez la souris pourra être utilisé dans l’étude de la pathogénèse d’autres bactéries ayant le SNC pour cible.
Resumo:
Les professionnels ont par définition un public bénéficiaire de leurs services : le patient pour le médecin, le psychologue ou l’infirmière ; le client pour l’avocat ; le consommateur pour le gestionnaire d’une entreprise commerciale ; etc. L’usager ou l’habitant du cadre bâti constitue un des destinataires des services professionnels du designer d’intérieur. De quelle manière peut-on apprendre aux étudiants/futurs professionnels du design d’intérieur à se mettre à la place de l’usager/habitant des espaces qu’ils conçoivent ? Le concept de l’empathie, communément décrit comme la capacité de se mettre à la place de l’autre, de le comprendre et de ressentir ses sentiments et ses émotions, est bien adapté pour explorer cette attitude. Cet article est composé de deux parties. La première présente une expérience pédagogique en design d’intérieur où des étudiants apprennent à se représenter les usagers de leur projet d’aménagement en utilisant un outil méthodologique appelé « boussole éthique ». Cette boussole est constituée essentiellement de trois pôles qui renvoient aux trois rapports fondamentaux de l’être humain tels qu’étudiés dans la tradition stoïcienne : rapport à soi-même, à autrui et à la nature. Dans la seconde partie, l’article met en relief plusieurs éléments théoriques qui permettent de comprendre, de consolider et, éventuellement, de faire évoluer les bases conceptuelles qui sous-tendent cette démarche. Il s’agira notamment des théories éthiques et de certaines approches spécifiques au concept de l’empathie.
Resumo:
Le tire-lait est un appareil conçu pour aider les mères durant l’allaitement. Selon la recherche préliminaire effectuée, c’est un thème très peu exploré dans les études; il est donc difficile d’affirmer si le produit répond correctement aux besoins reliés à son usage et à son utilité ou comment il s’intègre dans l’allaitement. Les fondements de l’étude exploratoire ont été bâtis sur ces enjeux dans le but de comprendre l’expérience d’usage du tire-lait. Inspirée de l’approche phénoménologique centrée sur l’usager, l’étude a permis d’amasser des données qualitatives à travers des entrevues semi-dirigées auprès de sept participantes. L’analyse de ces données a permis d’identifier les thèmes importants qui ont mené à des constats, rédigés dans une optique de design. L’étude a trouvé que c’est souvent quand la réalité de l’allaitement au sein rattrape les mères qu’elles vont vouloir se procurer un tire-lait, en s’inspirant des marques utilisées dans les hôpitaux par manque de temps. Le tire-lait devient alors principalement utile pour se désengorger et pour la liberté qu’il procure, s’intégrant dans une routine. Le tire-lait est par contre peu ergonomique; il semble y avoir un décalage entre le concept proposé et les manipulations réelles, notamment au niveau de la mise en marche, des bouteilles et des embouts. Ces résultats de l’étude pourraient être intégrés dans le tire-lait pour mieux représenter la réalité du contexte, de la pratique et de l’usage du produit. Ils pourraient ainsi nourrir le processus de conception dans un projet futur afin d’améliorer le design du tire-lait.
Resumo:
La pratique du design industriel dans la province canadienne de l’Alberta est en pleine croissance. Ses activités sont principalement concentrées à Edmonton et à Calgary, qui sont les plus grandes villes de la province. On y trouve des studios de design de renom, des communautés de design complexes et des programmes universitaires de design bien établis. Cependant, la pratique du design industriel albertaine est sous-développée en comparaison avec celle du reste du Canada et il y a peu de recherches et de documentation sur le design industriel en Alberta. Dans ce projet de mémoire, la pratique du design industriel en Alberta a été explorée depuis une approche historique. Pour pallier le manque de documentation, la collecte de données a été faite par une recherche qualitative, des entretiens narratifs et une recherche quantitative statistique. Une base d’information historique sur le design industriel albertain a été établie puis située par rapport au développement de la pratique du design industriel ailleurs au Canada. Les facteurs, événements et tendances dans l’histoire de la pratique du design industriel en Alberta ont été identifiés. De plus, le développement de la pratique du design industriel de l’Alberta a été comparé à celui du Québec et de l’Ontario. Les retombées de cette étude indiquent que la pratique du design industriel en Alberta présente quatre domaines de spécialisations distincts se développant depuis les années 1980. La pratique du design industriel en Alberta est sous-développée en comparaison à celui du Québec et de l’Ontario, mais elle peut devenir plus compétitive, au niveau canadien, avec plus de soutien gouvernemental, de meilleures relations avec l’industrie manufacturière et les institutions académiques, une communauté de design plus unifiée et en portant une plus grande attention aux domaines les plus prometteurs de l’industrie. Ces informations supportent une meilleure compréhension de la pratique du design industriel en Alberta et pourront informer les praticiens, enseignants et administrateurs du domaine du design industriel dans la province. Finalement, le mémoire servira de base à d’autres projets de recherche sur les changements potentiels dans la pratique du design industriel en Alberta et l’étude du design canadien et des industries de design régionales.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Le système de santé d'aujourd'hui fait appel à de nombreuses technologies de l'information nommées TIS (Technologies de l’Information en Santé). Celles-ci ont donné naissance à de nouvelles formes d’interaction médecin-patient et ont complexifié l'approche thérapeutique dite « centrée sur le patient ». Les TIS promettent une plus grande efficacité et l’augmentation de la satisfaction des patients par le biais d’une meilleure compréhension de la maladie pour le patient. Or, elles peuvent également devenir des sources de conflit pour le professionnel de la santé, étant donné leur utilisation en dehors des rencontres cliniques ainsi que leur tendance à agir comme des barrières communicationnelles lors des consultations. Cette recherche vise a étudier les critères de design nécessaires à la conception d’un TIS pouvant améliorer la relation médecin-patient et donc, faciliter la communication et améliorer l’alliance thérapeutique. L’étude utilise une approche centrée sur l’utilisateur et vise donc à comprendre les besoins et les attentes des médecins et des patients. En étudiant les nouvelles approches en santé et les TIS, il a été possible de comprendre le contexte et les besoins des utilisateurs en terme de communication. Ces derniers sont primordiaux au processus dit centré sur l’utilisateur. Le faible taux de rétention du discours du médecin devient une barrière communicationnelle importante, tout comme le temps pressurisé. La recherche nous montre que l’ajout d’un outil virtuel de vulgarisation peut, à l’aide de média visuels (tel que des modélisations, des animations 3D et des dessins), grandement aider la relation médecin-patient.
Resumo:
Si les principes d’utilisabilité guident la conception de solutions de design interactif pour s’assurer que celles-ci soient « utilisables », quels principes guident la conception d’objets interactifs pour s’assurer que l’expérience subjective de l’usager (UX) soit adéquate et mémorable? Que manque-t-il au cadre de l‘UX pour expliquer, comprendre, et anticiper en tant que designer une expérience mémorable (‘an experience’; Dewey, 1934)? La question centrale est issue d’une double problématique : (1) le cadre théorique de l’UX est incomplet, et (2) les processus et capacités des designers ne sont pas considérés et utilisés à leur pleine capacité en conception UX. Pour répondre à cette question, nous proposons de compléter les modèles de l’UX avec la notion d’expérience autotélique qui appartient principalement à deux cadres théoriques ayant bien cerné l’expérience subjective, soit l’expérience optimale (ou Flow) de Csikszentmihalyi (1988) et l’expérience esthétique selon Schaeffer (2001). L’autotélie est une dimension interne du Flow alors qu’elle couvre toute l’expérience esthétique. L’autotélie est une expérience d’éveil au moment même de l’interaction. Cette prise de conscience est accompagnée d’une imperceptible tension de vouloir faire durer ce moment pour faire durer le plaisir qu’il génère. Trois études exploratoires ont été faites, s’appuyant sur une analyse faite à partir d’un cadre théorique en trois parties : le Flow, les signes d’activité non verbale (les gestes physiques) et verbale (le discours) ont été évalués pour voir comment ceux-ci s’associent. Nos résultats tendent à prouver que les processus spatiaux jouent un rôle de premier plan dans l’expérience autotélique et par conséquent dans une UX optimale. De plus, ils suggèrent que les expériences pragmatique et autotélique sont ancrées dans un seul et même contenu, et que leur différence tient au type d’attention que le participant porte sur l’interaction, l’attention ordinaire ou de type autotélique. Ces résultats nous ont menés à proposer un modèle pour la conception UX. L’élément nouveau, resté jusqu’alors inaperçu, consiste à s’assurer que l’interface (au sens large) appelle une attitude réceptive à l’inattendu, pour qu’une information puisse déclencher les processus spatiaux, offrant une opportunité de passer de l’attention ordinaire à l’attention autotélique. Le nouveau modèle ouvre la porte à une meilleure valorisation des habiletés et processus du designer au sein de l’équipe multidisciplinaire en conception UX.