1000 resultados para Approche design


Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le réseau de distribution aérien, ou plus simplement le réseau de poteaux de bois et ses câbles, est encore aujourd’hui omniprésent dans la majorité des villes du Québec. Pour plusieurs, le réseau de poteaux d’utilité publique semble appartenir à une autre époque. Pourtant, les poteaux et câbles ne sont pas près de disparaître, au contraire, ils ne cessent de se transformer. Depuis peu, de plus en plus d’équipements s’ajoutent sur le réseau: boîtiers techniques, nombre de câbles, appareillages au sommet des poteaux, antennes de communication, etc. Bien que les équipements du réseau de distribution aérien soient des éléments produits industriellement, ceux-ci intègrent rarement les services du design industriel au moment de leur conception initiale. Cette recherche étudie le système de distribution aérien sous l’angle de la « pensée design ». L’intention de cette étude est d’analyser les impacts de la présence du réseau aérien en milieux urbains et a pour objectif d’orienter les pratiques de conception de ce type d’équipements. Pour ce faire, dans une optique transdisciplinaire, diverses approches ont été sollicitées dont: l’approche systémique, l’approche paysage et les approches des partenaires des réseaux. Au moyen d’une recherche documentaire et d’observations faites sur le terrain, la recherche vise à dresser un portrait général du réseau de distribution aérien et les défis qui y sont associés. La recherche expose, dans un état des lieux, les résultats issus des questions analytiques de recherche suivantes: de quoi est composé le réseau de distribution aérien, quels sont les intervenants sur le réseau, quelles sont leurs interactions, quels sont les points de vue des différentes catégories d’acteurs en relation avec le réseau, quels sont les impacts reliés à la présence du réseau en milieux urbains et quelle a été son évolution au fil des années. Dans la perspective de l’approche design, chercher à comprendre une problématique de façon plus large permet de s’assurer que l’on répond au bon problème, que l’on considère tous les facteurs en cause visant ainsi à réduire les répercussions négatives sur les contextes de vie actuels et futurs. Les principaux constats de cette recherche démontrent que la composition du réseau de distribution, avant même de considérer les nouveaux usages et l’ajout de nouveaux équipements, présente des lacunes importantes. La gestion entre les divers partenaires du réseau de distribution pose aussi problème. L’ajout de nouveaux équipements sur le réseau, combiné aux multiples équipements apparaissant sur les voies publiques laisse entrevoir l’atteinte d’un niveau de saturation des milieux urbains. Les façons de faire hermétiques et «cristallisées» des partenaires du réseau ne collent pas avec les initiatives et aspirations générales en matière d’aménagement. En étudiant la problématique du réseau de distribution par le biais de la pensée design, l’approche design cherche à déceler, de façon proactive, les opportunités de design qui permettront de mieux gérer l’apparition et l’intégration des nouveaux équipements sur les poteaux. Cette démarche permet d’envisager des solutions qui visent à limiter les répercussions collatérales une fois en contexte et qui, du même coup, adressent des problématiques connexes. Finalement, à la lumière de l’état des lieux, cette recherche propose des critères de conception de futurs réseaux de distribution, élaborés dans l’esprit de l’approche design.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

AIM OF THE STUDY: To analyse the course of upper limb edema in patients with an arteriovenous fistula used for dialysis and to analyse the available therapeutic options. STUDY DESIGN: Retrospective study of patients with this type of edema, who were treated in our institution from 1992 to 1996. PATIENTS AND METHODS: Seven consecutive patients with an arterioveinous fistula treated for edema of the upper extremity, were reviewed. The fistula was created at the elbow in 6 patients and at the forearm in 1. The edema appeared immediately after operation in 4 patients and after a delay in 3 patients. Stenosis (3 patients) or occlusion (2 patients) of the subclavian vein was documented in 5 patients who were investigated by angiography. RESULTS: The edema regressed spontaneously in 4 patients because collaterals developed in 3 patients, and the fistula thrombosed in 1 patient. Surgical intervention allowed regression of the edema in the other 3 patients: excessive output of the fistula was reduced in 2 patients and an axillojugular bypass was performed in 1 patient. The fistula remained effective in 6 patients. Another fistula was performed on the contralateral arm in 1 patient. CONCLUSION: Non-operative management is recommended in patients who develop edema immediately after creation of the fistula, because spontaneous regression is likely. Measures aimed at reducing the output of the fistula or enhancing the venous capacities of the arm are required when edema appears at a later stage. The fistula can be saved in the majority of cases.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce texte a pour ambition de revenir sur une procédure d'expérimentation destinée à tester l'impact du vote par approbation ainsi que du vote par note sur l'ampleur de ce qu'on a coutume d'appeler le vote utile. Les résultats de ces expériences, menées lors des élections présidentielles françaises de 2007 et de 2012, ont fait l'objet de deux articles publiés dans la Revue économique. Notre objectif est ici d'attirer l'attention du lecteur sur la conception implicite qui sous-tend ces expériences : le vote comme outil de dévoilement des préférences individuelles. Une telle orientation se fait au détriment d'une conception stratégique du vote, c'est-à-dire le vote comme processus de coordination. Or, il nous semble que le propre du vote utile est précisément de s'inscrire dans une dimension stratégique du vote, dimension que la procédure expérimentale mise en place tend à gommer en ne fournissant pas aux votants de repères informationnels relatifs aux choix des autres votants. On parlera à cet effet d'isolation informationnelle. This text has the ambition to return to an experimental procedure designed to test the impact of approval voting as well as evaluating voting on the scope of what is called in French vote utile (strategic voting). The results of these experiences, held during the 2007 and 2012 French presidential elections, have been the object of two papers published in the Revue économique. Our aim is to catch the attention of readers on the implicit conception inherent to these experiences: voting as a means to reveal individual preferences. Such a direction is taken at the cost of a strategic conception of voting, i.e. voting as a coordination process. Yet, it seems to us that the main characteristic of strategic voting is precisely to be strategic. The design of the experimental procedure tends to erase this dimension, by depriving the voters of information on other voter's choices. This is what we call informational isolation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'interaction soignant-soigné, dans ses aspects relationnel et communicationnel, a fait l'objet depuis les années 1970 de nombreuses études, inscrites dans une pluralité d'approches théoriques et méthodologiques. L'approche de la sociolinguistique de type médical, dans laquelle s'insère le présent travail de thèse, s'est développée dans le contexte même de ces études. Ce travail s'articule autour de trois sujets de recherche permettant d'illustrer, d'éclairer ainsi que de définir l'approche spécifique de la sociolinguistique médicale et traduisant, par ailleurs, certaines des questions relatives au développement de cette sociolinguistique, qui relève des sciences de la communication et des sciences humaines en médecine. Les deux premiers sujets de recherche se focalisent sur le processus d'échange d'information, central dans l'interaction médicale. Ils portent, pour l'un, sur un format de question spécifique utilisé par des étudiants en médecine dans le cadre d'entretiens avec patients simulés centrés sur l'annonce de mauvaises nouvelles et, pour l'autre, sur la(es) définition(s) d'une unité lexicale attestée dans le contexte communicationnel du VIH/sida. Le troisième sujet de recherche, en corrélation avec les deux autres, traite des défis qui se posent aux chercheurs-sociolinguistes relativement à l'étude et à la production de savoirs sur des questions liées à la santé et à la maladie. - Since the 1970's, many studies, following various theoretical and methodological approaches, have investigated - from a relational and communication point of view - the interaction between health care professionals and patients. The approach of the medical sociolinguistics, on which this PhD thesis is based, has been developed in the context of these studies. This PhD thesis is centred on three research topics illustrating and revealing the specific approach of the medical sociolinguistics and reflecting, as regards the third research topic, on particular issues related to the development of this discipline belonging to both communication sciences and medical humanities. The first two research topics focus on the information sharing process, a main phase and purpose of the medical interaction. They address (i) a particular question design used by medical students with simulated patients in breaking bad news interviews, and (ii) the meaning of a lexical unit used in the HIV/AIDS communication context. The third topic, related with the two other, focuses on the challenges faced by medical sociolinguists while producing knowledge and investigating health- and disease-related issues.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Stents have a long history in traditional valve surgery as both, porcine biological valves as well as pericardial valves are mounted on stents prior to implantation. Recently stent-mounted biological devices have been compressed up to the point, where they can be passed through a catheter. Various routes can be distinguished for implantation: open access, the trans-vascular route in antegrade or retrograde fashion, as well as direct trans-apical or trans-atrial access. Direct access has the potentialforvideo-endoscopic valve replacement. In theory, as well as in the experimental setting, valved stents have been implanted in tricuspid and caval position respectively, as well as in pulmonary, mitral and aortic locations. The largest clinical experience has been achieved in pulmonary position whereas current efforts target the aortic position.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Scientifiques, gouvernements, entreprises et consommateurs s’entendent aujourd’hui pour dire que le système naturel est déréglé, que l’activité industrielle en est la cause principale. L’éco-conception est une manière de concevoir des biens ou des services en diminuant leurs impacts sur l’environnement et la société. De plus en plus présente dans les grandes entreprises où, associée à une gestion intégrée de l’environnement, elle procure des bénéfices non négligeables et une image de marque, l’éco-conception a beaucoup de difficultés à s’implanter dans les petites et moyennes entreprises. Dans ce travail, nous avons cherché à comprendre les raisons de ces difficultés. Deux approches ont été utilisées, l’une basée sur une analyse documentaire des rapports de RSE de dix entreprises, grandes et petites, de différents secteurs d’activité, qui nous a permis de fixer le cadre et le formalisme de la démarche de recherche, l’autre sur le principe d’entretiens semi-dirigés à partir de questions ciblées. Après une présentation générale de ce qu’est l’éco-conception et quelle en est la problématique appliquée aux PME (chapitre 2), nous précisons le cadre méthodologique de la recherche (chapitre 3) et exposons ses résultats (chapitre 4). Nous montrons que les freins à l’adoption de l’éco-conception dans les PME sont multiples et complexes, tant la diversité de ces entreprises est grande et difficile à synthétiser. En soulignant les freins, les leviers, les risques et les opportunités liés à l’intégration des principes de développement durable dans ces entreprises, nous faisons un portrait global de la situation actuelle et des difficultés rencontrées par ces PME pour adhérer à ces principes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Cette recherche a débuté avec l’idée que l’Internet est en train de changer la manière dont nous créons des connaissances et du contenu culturel. Notre point de départ était d’utiliser l’Internet afin de rassembler et amplifier plusieurs points de vue dans un processus de design. Une approche complexe a exposé l’Internet comme un système et conséquemment comme une plateforme pour l’innovation. La structure ouverte de l’Internet a soutenu le mouvement participatif des usagers qui ont choisi de partager leurs besoins, leurs désirs et leurs solutions. Notre recherche a pour but d’étudier ce contenu généré par les usagers en ligne et comprendre sa valeur pour les designers. Les usagers créatifs veulent s’exprimer et participer activement dans le processus de design. Notre recherche tente de démontrer que les designers ont beaucoup à apprendre du contenu généré par les usagers car ceux-ci soumettent des éléments qui ont attrait à toutes les étapes du processus de design et révèlent des relations présentes dans la situation de design à l’étude. Pour en apprendre plus sur ce contenu nous nous demandons : Quel type d’information offre le contenu généré par les usagers pour la phase de recherche dans le processus de design. Afin de centrer la portée de l’étude, nous nous sommes aussi questionné si cette information est plus pertinente au design de produits, au design de services ou au design de système de produits et de services. Aspirant aux idéaux du design participatif, notre méthodologie fut développée afin d’apprendre comment le contenu généré par les usagers pourrait influencer le processus de design. Pour ce faire, nous avons choisi de chercher sur l’Internet pour du contenu qui concerne la mobilité via l’usage d’une automobile. Les trois différents types de média considérés étaient les vidéos sur YouTube, les images sur Flickr et les textes sur Blogger. Afin de répondre à notre première question de recherche, nous nous sommes penchés sur deux éléments lorsque l’on recherche pour le design : les espaces de design et les relations de design. Premièrement, nous avons catégorisé le contenu récolté selon l’espace problème, créatif et solution. Deuxièmement, nous avons catégorisé le contenu dépendant de laquelle des relations de design elle démontrait soit une combinaison d’usagers, objets et contextes. Dans le but de répondre à la deuxième question de cette recherche, nous avons examiné trois types V de produits de design : les automobiles privées comme produit, le partage de voiture comme système de produit et de service, et le taxi comme service. Chaque élément pertinent généré par les usagés trouvé dans cette recherche fut catégorisé jusqu’à ce que l’on récolte 50 échantillons pour chaque combinaison de ces variables. Nous en sommes arrivés avec une matrice de 50 éléments de chaque produit de design, pour chacun des médias, puis catégorisé selon les espaces de design et les relations dans le design. Cette recherche démontre que l’Internet, comme médium, produit les conditions avantageuses pour que les usagers partagent de grandes quantités de contenu original et diversifié qui est pertinent aux situations de design. À partir de nos données de recherche, nous avons identifié des tendances dans le contenu généré par les usagers. Notamment, nous sommes en mesure d’affirmer que le contenu généré par les usagers offre de l’information pertinente à la recherche pour le design, et ce dans tous les espaces de design et toutes les relations de design. Il en fut de même pour les différentes issues du design car du contenu sur les produits, les systèmes de produits et de services et les services était présent et pertinent. Bref, nous avons démontré que l’Internet supporte la créativité et conséquemment il y abonde de contenu créatif produit par les usagers. Suivant dans les traces dessinées par d’autres chercheurs en design participatif, cette étude devrait être considérée comme un nouvel exemple des moyens qu’ont les designers pour percevoir les besoins tacites des usagers en leur permettant d’exprimer leurs idées. Alors que ceux-ci créent librement et intuitivement ainsi exposant leurs besoins, solutions et idées, les designers peuvent porter un regard de tierce partie sur les résultats. Jumelant des techniques comme le crowdsourcing et le brainstorming, nous avons créé une nouvelle activité et le néologisme : brainsourcing. En demeurant dans une forme de pratique réflexive, les designers peuvent réfléchir et ajouter au contenu généré par les usagers qui lui n’est pas biaisé par une éducation ou une culture du design. Ce processus est similaire au design participatif professionnel où le brainsourcing est une activité parallèle lorsque le designer fait des recherches pour le design. C’est cette perspective sur la somme des idées des participants qui peut contribuer à comprendre la complexité de la situation de design. VI Cette recherche a aussi soulevé des questions par rapport à l’effet de démocratisation de l’Internet. Bien que les usagers n’ont pas l’éducation, ni les habiletés des designers, ils aspirent à démocratiser le processus du design en voulant participer activement et en exposant leurs besoins, idées et solutions. Nous avons pu déterminer que les usagers n’étaient pas qualifiés pour entreprendre le processus complet du design comme les designers professionnels, mais nous avons observé directement la capacité des usagers à mettre de l’avant leur créativité. À propos de la relation entre les usagers créatifs et les designers, nous avons étudié des langages communs tels les scénarios et les prototypes. Tous deux sont présents dans le contenu généré par les usagers que nous avons récolté dans nos recherches sur Internet. Ceci nous a mené vers une nouvelle perspective sur l’activité du design où des opportunités créatives ressortent d’une conversation avec les usagers. Cette recherche a dévoilé de grandes tendances dans la manière dont les usagers communiquent naturellement dans un processus de design. Nous espérons avoir offert un aperçu de comment les designers peuvent prendre avantage de tous les types de contenu généré par les usagers en ligne. Dans le futur, nous souhaitons que les designers aient la possibilité d’interagir avec les participants en prenant le rôle de facilitateur de la conversation. La responsabilité du résultat ne tombe pas sur les épaules du designer car son mandat est d’assurer le bon fonctionnement du processus. Les designers rejoignent les usagers en ne demandant plus comment les choses peuvent être créées, mais pourquoi elles devraient exister. En tant que designers, nous aspirons à générer plus à partir de nouvelles connaissances, nous aspirons à créer plus de sens. Mots clés: Recherche en design, complexité, design participatif, contenu généré par les usagers, démocratisation, Internet, créativité, crowdsourcing, brainstorming, brainsourcing, réflexion-en-action.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette présentation introduit aux concepts fondamentaux de l’analyse praxéologique et à la relation de celle-ci avec l’approche systémique. Les sujets suivants seront abordés : l’efficacité et l’efficience de l’action, le travail, l’action humaine et son design, l’explication téléologique, les composants de l’action humaine ( réalisateur, buts, critères d’évaluation, outils, ressources, circonstances, temps, méthodes), l’efficacité méthodologique, le contexte axiologique de l’action humaine ou les rapports entre praxéologie et éthique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION : En milieu urbain, l’amélioration de la sécurité des piétons pose un défi de santé publique. Pour chaque décès attribuable aux collisions routières, il y a des centaines de personnes blessées et, dans les pays riches, la diminution du nombre annuel de piétons décédés s’expliquerait en partie par la diminution de la marche. Les stratégies préventives prédominantes n’interviennent pas sur le volume de circulation automobile, un facteur pourtant fondamental. De plus, les interventions environnementales pour améliorer la sécurité des infrastructures routières se limitent habituellement aux sites comptant le plus grand nombre de décès ou de blessés. Cette thèse vise à décrire la contribution des volumes de circulation automobile, des pratiques locales de marche et de la géométrie des routes au nombre et à la répartition des piétons blessés en milieu urbain, et d’ainsi établir le potentiel d’une approche populationnelle orientée vers la reconfiguration des environnements urbains pour améliorer la sécurité des piétons. MÉTHODE : Le devis est de type descriptif et transversal. Les principales sources de données sont les registres des services ambulanciers d’Urgences-santé (blessés de la route), l’enquête Origine-Destination (volumes de circulation automobile), la Géobase du réseau routier montréalais (géométrie des routes) et le recensement canadien (pratiques locales de marche, position socioéconomique). Les analyses descriptives comprennent la localisation cartographique (coordonnées x,y) de l’ensemble des sites de collision. Des modèles de régression multi-niveaux nichent les intersections dans les secteurs de recensement et dans les arrondissements. RÉSULTATS : Les analyses descriptives démontrent une grande dispersion des sites de collision au sein des quartiers. Les analyses multivariées démontrent les effets significatifs, indépendants du volume de circulation automobile, de la présence d’artère(s) et d’une quatrième branche aux intersections, ainsi que du volume de marche dans le secteur, sur le nombre de piétons blessés aux intersections. L’analyse multi-niveaux démontre une grande variation spatiale de l’effet du volume de circulation automobile. Les facteurs environnementaux expliquent une part substantielle de la variation spatiale du nombre de blessés et du gradient socioéconomique observé. DISCUSSION : La grande dispersion des sites de collision confirme la pertinence d’une approche ne se limitant pas aux sites comptant le plus grand nombre de blessés. Les résultats suggèrent que des stratégies préventives basées sur des approches environnementales et populationnelle pourraient considérablement réduire le nombre de piétons blessés ainsi que les inégalités observées entre les quartiers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.