17 resultados para Design for flexibility in use
Resumo:
La présente recherche a pour objectif d’étudier les effets que peuvent exercer la conception du travail sur le type de conflit qui émerge en milieu de travail. La notion de conception du travail se divise en trois dimensions, soit les caractéristiques reliées à la tâche, les caractéristiques reliées aux connaissances et les caractéristiques sociales. Ces dimensions sont mises en relation avec les deux types de conflit en milieu de travail, soit le conflit relié à la tâche et le conflit relié à la relation. Cette recherche vise également à vérifier l’effet modérateur des traits de personnalités sur les relations entre les dimensions de la conception du travail et celles du conflit en milieu de travail. Cette recherche est basée sur 473 participants qui occupent un emploi rémunéré et qui ont vécu une situation de conflit en milieu de travail allant jusqu’à 6 mois avant la période de sondage, allant du 14 au 18 janvier 2012. Les résultats indiquent qu’il n’y a pas de relations particulières entre la conception du travail et le type de conflit en milieu de travail. En ce qui a trait aux effets des traits de personnalité, les résultats indiquent que ces variables n’ont aucuns effets modérateurs sur la relation entre la conception du travail et le type de conflit en milieu de travail. Globalement, les résultats ne démontrent aucune relation entre la conception du travail et les types de conflit en milieu de travail, ou les effets modérateurs que les traits de personnalités peuvent avoir sur ces relations.
Resumo:
La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.
Resumo:
Affiliation: Augustin Zeba & Hélène Delisle : Département de nutrition, Faculté de médecine, Université de Montréal
Resumo:
La pratique du design industriel dans la province canadienne de l’Alberta est en pleine croissance. Ses activités sont principalement concentrées à Edmonton et à Calgary, qui sont les plus grandes villes de la province. On y trouve des studios de design de renom, des communautés de design complexes et des programmes universitaires de design bien établis. Cependant, la pratique du design industriel albertaine est sous-développée en comparaison avec celle du reste du Canada et il y a peu de recherches et de documentation sur le design industriel en Alberta. Dans ce projet de mémoire, la pratique du design industriel en Alberta a été explorée depuis une approche historique. Pour pallier le manque de documentation, la collecte de données a été faite par une recherche qualitative, des entretiens narratifs et une recherche quantitative statistique. Une base d’information historique sur le design industriel albertain a été établie puis située par rapport au développement de la pratique du design industriel ailleurs au Canada. Les facteurs, événements et tendances dans l’histoire de la pratique du design industriel en Alberta ont été identifiés. De plus, le développement de la pratique du design industriel de l’Alberta a été comparé à celui du Québec et de l’Ontario. Les retombées de cette étude indiquent que la pratique du design industriel en Alberta présente quatre domaines de spécialisations distincts se développant depuis les années 1980. La pratique du design industriel en Alberta est sous-développée en comparaison à celui du Québec et de l’Ontario, mais elle peut devenir plus compétitive, au niveau canadien, avec plus de soutien gouvernemental, de meilleures relations avec l’industrie manufacturière et les institutions académiques, une communauté de design plus unifiée et en portant une plus grande attention aux domaines les plus prometteurs de l’industrie. Ces informations supportent une meilleure compréhension de la pratique du design industriel en Alberta et pourront informer les praticiens, enseignants et administrateurs du domaine du design industriel dans la province. Finalement, le mémoire servira de base à d’autres projets de recherche sur les changements potentiels dans la pratique du design industriel en Alberta et l’étude du design canadien et des industries de design régionales.
Resumo:
L’industrie publicitaire est un travail quotidien de collaboration entre deux « hémisphères » distincts : l’un de nature commercial et l’autre de nature créatif. Des individus qui favorisent des aspects logiques et rationnels se doivent de collaborer avec des individus qui favorisent des aspects intuitifs et artistiques, ce qui suscite des tensions. Cette mise en relation s’opère au travers d’un processus, que nous nommerons processus de design visuel communicationnel car il permet de relier la communication au design, approche que nous adoptons dans ce mémoire. L’industrie publicitaire s’est dotée d’outils permettant de faciliter le processus de design visuel communicationnel, dont le brief créatif. Notre recherche propose d’observer la manière dont les « commerciaux » et les « créatifs » perçoivent leur travail quotidien en agence et comment le brief créatif est réquisitionné. Nous adoptons une posture interprétative pour tenir compte de la complexité du phénomène et nous mobilisons une série d’entrevues pour répondre à nos questions de recherche. Nos questions de recherche sont les suivantes : de quelle manière les « commerciaux » et les « créatifs » négocient-ils les tensions lors du processus de design visuel communicationnel? Quels rôles le brief créatif occupe-t-il au sein de ce processus? Les résultats nous renseignent sur les transformations et les innovations qui émergent des tensions entre les « commerciaux » et les « créatifs » et sur l’importance que revêtent les caractéristiques communicationnelles du brief créatif dans le cadre du processus de design visuel communicationnel.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Dans ce document, serons détaillées les résultats de mes travaux de recherche d’études doctorales. Tout d’abord, nous discuterons de la synthèse totale de la lépadine B, la plus courte à paraître dans la littérature à ce jour. Cette synthèse, en plus de valoriser la synthèse asymétrique de pipéridines poly-substituées développée par l’équipe du professeur Charette, mettra à profit une utilisation originale d’une séquence de fermeture-ouverture de cycle par la réaction de métathèse d’alcènes. De plus, nous détaillerons une brève étude mécanistique de cette dernière nous ayant permis la proposition d’un mécanisme peu commun de ce type de séquence réactionnel et dont les conséquences expérimentales sont impressionnantes. Au cours de cette synthèse, nous avons identifié un synthon d’une grande valeur synthétique. En effet, ne comportant pas moins que quatre centres chiraux, ce synthon pouvait être obtenu énantiopure en seulement trois étapes à partir de la pyridine. Ainsi, nous avons effectué une analyse structurale de ce synthon et avons envisagé une valorisation supplémentaire par une utilisation originale de la fragmentation de Grob. Dans ce contexte, nous avons développé une toute nouvelle synthèse de pipéridines 2,3,6-trisubstituées hautement régio- et diastéréosélective. Afin de pouvoir réaliser la précédente méthodologie, nous avons dû étudier la réduction d’une amide en présence de groupements fonctionnels sensibles dans les conditions usuelles. Heureusement, l’année précédente nous avions développée une réaction hautement chimiosélective d’amides tertaires. Cette nouvelle réaction, qui a été fondamentalement inspiré par une méthodologie du professeur Charette sur l’activation d’amides, a permis la réduction d’amides tertiaires en présence de fonctions telles les cétone, ester, nitrile, époxyde, insaturations, etc. Enfin, l’ensemble des connaissances acquises au cours de ces projets a permis l’élaboration d’une toute nouvelle stratégie de synthèse pour la préparation d’indolizidines et quinolizidines. Plus spécifiquement, nous avons développé la première séquence d’activation intramoléculaire et déaromatization asymétrique de la pyridine. Ceci permet d’avoir un accès aux squelettes indolizidine et quinolizidine avec des stéréosélectivités élevées, la nature insaturée de ces derniers laissant également place à une grande flexibilité synthétique. Dans ce contexte, nous allons détailler une très courte synthèse de trans-indolizidines.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Issu de la rencontre entre les disciplines de l’architecture intérieure et de la stratégie de marque et développé en réponse au raffinement de l’offre et des nouveaux modes de consommation, le design expérientiel présente un champ de pratique émergent qui tend vers la communication d’une expérience client marquante et immersive à travers l’environnement commercial. Bien que le sujet soit richement documenté par le domaine du marketing, il est apparu qu’il l’est moins par celui de l’aménagement. En effet, peu d’études démontrent concrètement la façon d’aménager l’espace marchand dans le contexte de la pratique du design expérientiel ou cherchent à mettre en lumière son empreinte physique sur l’environnement commercial. Cette recherche vise simultanément l’amélioration de la compréhension de la pratique émergente qu’est le design expérientiel ainsi que l’identification des caractéristiques environnementales propres aux espaces marchands qui en découlent. Dans la volonté de sonder le phénomène du design expérientiel tant dans la dimension conceptuelle de sa pratique que dans celle de son résultat bâti, la stratégie méthodologique de cette recherche repose sur la tenue d’entretiens semi-dirigés avec des professionnels basant leur pratique sur le design expérientiel et l’observation directe de trois projets commerciaux expérientiels reconnus. L’issue de cette recherche et les résultats extraits du terrain mèneront plutôt à relever l’existence d’un processus de conception caractéristique à la pratique ainsi que celle de concepts fondateurs qu’à identifier des éléments de l’aménagement intérieur propres aux environnements commerciaux en découlant. Nettement apparus au cours de l’étude, ce processus et la volonté de mettre sur pied une stratégie de communication solide semblent occuper une place plus importante dans la définition et la compréhension de la pratique du design expérientiel que les attributs de l’espace marchand comme tel.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Thesis written in co-mentorship with Robert Michaud.
Resumo:
Problématique : De par les fonctions qu’elles exercent à différentes étapes du continuum de soins, les infirmières jouent un rôle de premier plan dans l’offre des services de santé. La qualité des services repose en grande partie sur du personnel infirmier motivé, judicieusement déployé et travaillant dans des conditions qui permettent d’optimiser leur expérience de travail. Cependant, différentes études suggèrent que les modalités actuelles d’organisation du travail ne permettent pas toujours de créer des conditions et des environnements susceptibles d’optimiser le travail des infirmières et leur qualité de vie au travail (Institute of Medicine, 2001; Hickam & al., 2003; Shojania, Duncan, McDonald, & Wachter, 2001). Une meilleure compréhension des conceptions et préférences des infirmières est utile pour guider les actions dans les milieux de soins visant à améliorer l’organisation du travail infirmier. Objectifs : Cette recherche qualitative descriptive a pour but d’explorer les conceptions et préférences des infirmières par rapport aux modalités d’organisation de leur travail pouvant améliorer leur qualité de vie au travail, dans un contexte de centre hospitalier et plus spécifiquement, dans une unité de médecine. Méthodologie : Des entrevues semi-dirigées ont été effectuées auprès de huit infirmières. La technique d’analyse de contenu a été utilisée pour analyser les résultats de l’étude. Le modèle conceptuel de l’organisation du travail de Filion-Côté qui a été utilisé s’oriente autour des processus de soins, la dotation en personnel et l’environnement de travail. Résultats : Cette étude a établi que les conceptions de l’organisation du travail partagées par les infirmières touchent deux principales dimensions soit la définition des rôles et la répartition des tâches ainsi que l’organisation du travail en temps que modes de coordination du travail et d’interaction entre les membres de l’équipe de travail. Cette analyse a aussi démontré que les principales préférences des infirmières sont exprimées à propos des éléments ayant trait à la disponibilité adéquate du personnel nécessaire à l’exécution des différentes tâches, le soutien du supérieur immédiat, le soutien de l’administration au développement professionnel et de la pratique ainsi que l’aménagement des conditions matérielles de travail. On peut aussi constater que plusieurs préférences exprimées par les infirmières donnent écho à leurs conceptions de l’organisation du travail. Conclusion : Cette étude a permis de comprendre les conceptions et les préférences des infirmières par rapport à l’organisation de leur travail. Elle aura ainsi permis d’identifier plusieurs modalités sur lesquels les gestionnaires peuvent agir pour développer des projets d’organisation du travail, soit la dotation en personnels des milieux des soins, le soutien des équipes, la communication et l’aménagement de l’environnement physique des soins. De plus, les infirmières ont elles-mêmes un rôle à jouer pour modifier positivement leur milieu de travail et peuvent influencer plusieurs de ces modalités.