505 resultados para chercheurs
Resumo:
Résumé Cette recherche a débuté avec l’idée que l’Internet est en train de changer la manière dont nous créons des connaissances et du contenu culturel. Notre point de départ était d’utiliser l’Internet afin de rassembler et amplifier plusieurs points de vue dans un processus de design. Une approche complexe a exposé l’Internet comme un système et conséquemment comme une plateforme pour l’innovation. La structure ouverte de l’Internet a soutenu le mouvement participatif des usagers qui ont choisi de partager leurs besoins, leurs désirs et leurs solutions. Notre recherche a pour but d’étudier ce contenu généré par les usagers en ligne et comprendre sa valeur pour les designers. Les usagers créatifs veulent s’exprimer et participer activement dans le processus de design. Notre recherche tente de démontrer que les designers ont beaucoup à apprendre du contenu généré par les usagers car ceux-ci soumettent des éléments qui ont attrait à toutes les étapes du processus de design et révèlent des relations présentes dans la situation de design à l’étude. Pour en apprendre plus sur ce contenu nous nous demandons : Quel type d’information offre le contenu généré par les usagers pour la phase de recherche dans le processus de design. Afin de centrer la portée de l’étude, nous nous sommes aussi questionné si cette information est plus pertinente au design de produits, au design de services ou au design de système de produits et de services. Aspirant aux idéaux du design participatif, notre méthodologie fut développée afin d’apprendre comment le contenu généré par les usagers pourrait influencer le processus de design. Pour ce faire, nous avons choisi de chercher sur l’Internet pour du contenu qui concerne la mobilité via l’usage d’une automobile. Les trois différents types de média considérés étaient les vidéos sur YouTube, les images sur Flickr et les textes sur Blogger. Afin de répondre à notre première question de recherche, nous nous sommes penchés sur deux éléments lorsque l’on recherche pour le design : les espaces de design et les relations de design. Premièrement, nous avons catégorisé le contenu récolté selon l’espace problème, créatif et solution. Deuxièmement, nous avons catégorisé le contenu dépendant de laquelle des relations de design elle démontrait soit une combinaison d’usagers, objets et contextes. Dans le but de répondre à la deuxième question de cette recherche, nous avons examiné trois types V de produits de design : les automobiles privées comme produit, le partage de voiture comme système de produit et de service, et le taxi comme service. Chaque élément pertinent généré par les usagés trouvé dans cette recherche fut catégorisé jusqu’à ce que l’on récolte 50 échantillons pour chaque combinaison de ces variables. Nous en sommes arrivés avec une matrice de 50 éléments de chaque produit de design, pour chacun des médias, puis catégorisé selon les espaces de design et les relations dans le design. Cette recherche démontre que l’Internet, comme médium, produit les conditions avantageuses pour que les usagers partagent de grandes quantités de contenu original et diversifié qui est pertinent aux situations de design. À partir de nos données de recherche, nous avons identifié des tendances dans le contenu généré par les usagers. Notamment, nous sommes en mesure d’affirmer que le contenu généré par les usagers offre de l’information pertinente à la recherche pour le design, et ce dans tous les espaces de design et toutes les relations de design. Il en fut de même pour les différentes issues du design car du contenu sur les produits, les systèmes de produits et de services et les services était présent et pertinent. Bref, nous avons démontré que l’Internet supporte la créativité et conséquemment il y abonde de contenu créatif produit par les usagers. Suivant dans les traces dessinées par d’autres chercheurs en design participatif, cette étude devrait être considérée comme un nouvel exemple des moyens qu’ont les designers pour percevoir les besoins tacites des usagers en leur permettant d’exprimer leurs idées. Alors que ceux-ci créent librement et intuitivement ainsi exposant leurs besoins, solutions et idées, les designers peuvent porter un regard de tierce partie sur les résultats. Jumelant des techniques comme le crowdsourcing et le brainstorming, nous avons créé une nouvelle activité et le néologisme : brainsourcing. En demeurant dans une forme de pratique réflexive, les designers peuvent réfléchir et ajouter au contenu généré par les usagers qui lui n’est pas biaisé par une éducation ou une culture du design. Ce processus est similaire au design participatif professionnel où le brainsourcing est une activité parallèle lorsque le designer fait des recherches pour le design. C’est cette perspective sur la somme des idées des participants qui peut contribuer à comprendre la complexité de la situation de design. VI Cette recherche a aussi soulevé des questions par rapport à l’effet de démocratisation de l’Internet. Bien que les usagers n’ont pas l’éducation, ni les habiletés des designers, ils aspirent à démocratiser le processus du design en voulant participer activement et en exposant leurs besoins, idées et solutions. Nous avons pu déterminer que les usagers n’étaient pas qualifiés pour entreprendre le processus complet du design comme les designers professionnels, mais nous avons observé directement la capacité des usagers à mettre de l’avant leur créativité. À propos de la relation entre les usagers créatifs et les designers, nous avons étudié des langages communs tels les scénarios et les prototypes. Tous deux sont présents dans le contenu généré par les usagers que nous avons récolté dans nos recherches sur Internet. Ceci nous a mené vers une nouvelle perspective sur l’activité du design où des opportunités créatives ressortent d’une conversation avec les usagers. Cette recherche a dévoilé de grandes tendances dans la manière dont les usagers communiquent naturellement dans un processus de design. Nous espérons avoir offert un aperçu de comment les designers peuvent prendre avantage de tous les types de contenu généré par les usagers en ligne. Dans le futur, nous souhaitons que les designers aient la possibilité d’interagir avec les participants en prenant le rôle de facilitateur de la conversation. La responsabilité du résultat ne tombe pas sur les épaules du designer car son mandat est d’assurer le bon fonctionnement du processus. Les designers rejoignent les usagers en ne demandant plus comment les choses peuvent être créées, mais pourquoi elles devraient exister. En tant que designers, nous aspirons à générer plus à partir de nouvelles connaissances, nous aspirons à créer plus de sens. Mots clés: Recherche en design, complexité, design participatif, contenu généré par les usagers, démocratisation, Internet, créativité, crowdsourcing, brainstorming, brainsourcing, réflexion-en-action.
Resumo:
L’installation architecturale, l’objet de recherche central de cette thèse, est un type d’intervention architecturale qui échappe autant au discours professionnel qu’à celui des chercheurs en architecture lorsqu’il s’agit de définir les limites de la profession et celles de la discipline. Prenant ses distances avec le déterminisme fonctionnaliste qui domine la pensée et la pratique courantes de l’architecture, la recherche a pour but de montrer que l’installation architecturale s’inscrit dans une tradition classique bien ancrée dans la pratique et dans la théorie de l’architecture et que son rôle dans la pensée sur le projet architectural et urbain de la ville contemporaine a occupé et occupe encore une place importante. C’est pour ces raisons que la recherche se présente essentiellement comme une exploration guidée avant tout par le souci de contribuer à la reconnaissance de cette pratique particulière de l’architecture. Avant de poser l’hypothèse de recherche, nous avons présumé que l’installation architecturale agit comme une construction active dans l’espace public, qu’elle comble certains manques quant à la définition des enjeux urbains de la ville contemporaine, particulièrement dans un contexte où les libertés de choix, de mouvances et d’opportunités sont largement accompagnés par des stratégies d’organisation, de contrôle public et de constructions technologiques, d’efficacité énergétique et fonctionnelle. La recherche a également supposé que cette valeur d’agitation sociale et culturelle est liée à certaines caractéristiques inhérentes à l’architecture, à la ville et à l’individu et qu’elle représente, par le fait même, un objet de recherche important tout en offrant une porte d’entrée dans les questions plus larges qui traversent la discipline. Parmi celles-ci sont particulièrement étudiés des pratiques et des discours qui échappent aux définitions usuelles et qui offrent un regard critique quant aux limites de la discipline, des pratiques qui mettent en lumière des idées telles que l’instable et l’événement, des notions d’intervention et d’éthique, d’action et d’exploration. Cette thèse cherche ainsi à éclairer la contribution potentielle de l’installation architecturale dans les problématiques urbaines et architecturales et de montrer comment l’expérience de la ville à travers le dispositif architectural peut transformer nos manières d’aborder l’espace construit.
Resumo:
Les efforts investis pour diminuer les risques de développer un infarctus du myocarde sont nombreux. Aujourd’hui les médecins prennent connaissance des divers facteurs de risque connus prédisposant aux syndromes coronariens aigus (SCA) dans le but de prendre en charge les patients «à risque» [1]. Bien que le suivi rigoureux et le contrôle de certains facteurs de risque modifiables aient permis une meilleure gestion des cas de SCA, les cas d’infarctus persistent de manière encore trop fréquente dans le monde. Puisque d’importantes études ont démontré que les SCA pouvaient survenir sans même la présence des facteurs de risque conventionnels [2, 3], les chercheurs se sont penchés sur un autre mécanisme potentiellement responsable de l’avènement des SCA : l’inflammation. L’inflammation joue un rôle prépondérant dans l’initiation, la progression et les complications de l’athérosclérose [4, 5] mais aussi dans les situations post-infarctus [6, 7]. Au cours des dernières années, le contrôle du processus inflammatoire est devenu une cible de choix dans la prévention et le traitement des SCA. Cependant, malgré les efforts investis, aucun de ces traitements ne s’est avéré pleinement efficace dans l’atteinte du but ultime visé par une diminution de l’inflammation : la diminution de la mortalité. Le complément est un système complexe reconnu principalement pour son rôle primordial dans l’immunité [2]. Cependant, lorsqu’il est activé de manière inappropriée ou excessive, il peut être à l’origine de nombreux dommages cellulaires caractéristiques de plusieurs pathologies inflammatoires dont font partie les complications de l’athérosclérose et des événements post-infarctus. Le travail effectué dans le cadre de mon doctorat vise à établir les rôles physiopathologiques du complément dans les interactions de l’axe thrombose-inflammation caractéristiques des SCA dans le but ultime d’identifier des cibles thérapeutiques permettant le développement de nouvelles approches pour la prévention et le traitement de ces pathologies. Les principaux résultats obtenus durant mon cursus suggèrent d’abord que la voie alterne du complément peut représenter une cible thérapeutique de choix dans les maladies coronariennes aiguës puisque l’activation terminale du complément semble y être principalement causée par l’activation du cette voie. De faibles niveaux sériques de MBL (mannan-binding lectin) et une activation terminale négligeable du complément caractérisent plutôt la maladie coronarienne stable. En comparant l’activité relative de chacune des voies du complément chez des cohortes de patients traités ou non par un anticorps spécifique à la protéine C5 du complément (pexelizumab), un second volet démontre quant à lui qu’une inhibition de l’activation du C5 n’a pas d’effet bénéfique majeur sur l’inhibition de la formation du complexe sC5b-9 ou sur les événements cliniques subséquents. Par conséquent, nous avons exploré, à l’aide d’un modèle in vitro, les raisons de l’inefficacité du traitement. Les résultats révèlent que le blocage du C5 avec le pexelizumab inhibe la production de l’anaphylatoxine pro-inflammatoire C5a et du complexe terminal du complément sans toutefois avoir d’effet sur l’apoptose des cellules endothéliales produites induite par le sérum des patients atteints de STEMI. Finalement, une autre section stipule que l’atorvastatine diminue l’activation du complément induite par les plaquettes sanguines chez des patients hypercholestérolémiques, mettant en évidence l’importance du rôle de cette statine dans la réduction des effets délétères de l’activation du système du complément médié par les plaquettes. Ensemble, l’étude du rôle spécifique des différentes voies d’activation du complément dans des contextes pathologiques variés, l’analyse des effets d’une inhibition spécifique de la protéine C5 du complément dans la progression des SCA et la mise en évidence des interactions entre l’activation du complément et les plaquettes activées ont contribué au développement d’une meilleure connaissance des rôles physiopathologiques du complément dans la progression de la maladie coronarienne.
Resumo:
Les nanosciences et les nanotechnologies (NST) s’inscrivent dans un champ technoscientifique, le nanomonde, qui a pour socle l’hybridation autant conceptuelle que pratique entre le domaine de la nature et celui de la technique. Dans ce mémoire nous nous intéressons au basculement de la distinction entre le naturel et l’artificiel qui s’ensuit. Un retour socio-historique sur la construction du dualisme nature/artifice propre aux sociétés modernes nous aide alors à saisir les enjeux socio-culturels impliqués dans sa remise en question. La déconstruction, à travers la méthode d’analyse de discours, d’entretiens réalisés avec les principaux chercheurs en NST au Québec illustre empiriquement, tout en le systématisant, le double processus d’artificialisation de la nature et de naturalisation de la technique, pointé théoriquement comme caractéristique de la remise en cause de la distinction entre nature et artifice qu’opère le nanomonde. Nous suggérons que l’artificialisation de la nature et la naturalisation de la technique, loin d’être contradictoires, constituent des éléments d’une dynamique synergique dont le résultat est une désontologisation de la nature comme catégorie de la pensée et une déqualification du monde qui distingue l’activité humaine.
Resumo:
Ce travail concerne la valorisation des résultats de la recherche universitaire. Il s'agit d'une terminologie qui concerne le processus ainsi que l'infrastructure - les bureaux de valorisation - permettant à un chercheur académique de commercialiser les résultats de sa recherche. Une étude de cas comparant la Belgique et le Québec dans ce domaine se trouvera au centre des réflexions. L'accent sera tout d'abord mis sur le cadre théorique permettant de comprendre l'origine et le sens de l'activité de valorisation. Différents concepts comme l'innovation et l'économie du savoir devront alors être introduits, notamment dans une perspective historique et normative. De plus, différents modèles théoriques se succèderont ; ce qui permettra au lecteur d'acquérir une vision complète du domaine étudié. La problématique qui anime ensuite la recherche est centrée sur les relations qui existent entre les bureaux de valorisation et les chercheurs universitaires qui font appel à leurs services et à l'impact de ces relations sur le processus de valorisation. Les différentes hypothèses proposées suggèrent l'importance des politiques universitaires de propriété intellectuelle ainsi que celle de la culture universitaire de la recherche académique. Ces différents points sont analysés au regard des entretiens semi-directifs effectués. Le but final de ce mémoire est la proposition de recommandations sur certaines bonnes pratiques dans le domaine de la valorisation. Ces dernières concernent d'une part la position organisationnelle des bureaux de valorisation au sein du processus de valorisation et, d'autre part, l'importance de la communication dans ce même processus.
Resumo:
Le cancer du sein (CS) est la deuxième cause de décès liés au cancer parmi les femmes dans la plupart des pays industrialisés. Les personnes qui ont le CS peuvent ne pas hériter des mutations causant le cancer de leurs parents. Ainsi, certaines cellules subissent des mutations qui mènent au cancer. Dans le cas de cancer héréditaire, les cellules tumorales contiennent généralement des mutations qui ne sont pas trouvées ailleurs dans l'organisme, mais peuvent maintenir des mutations qui vont répartir dans toutes les cellules. La genèse du CS est le résultat des mutations de gènes qui assurent la régulation de la prolifération cellulaire et la réparation de l’ADN. Deux gènes semblent particulièrement concernés par les mutations. Les gènes ‘Breast Cancer 1’ (BRCA1) et ‘Breast Cancer 2’ (BRCA2), sont impliqués dans la prédisposition génétique de CS. On estime que 5-10% des cas de cancer du sein sont attribuables à une prédisposition génétique. La plupart de ces cancers sont liés à une anomalie du gène BRCA1 ou BRCA2. Plusieurs études ont été menées chez les femmes atteintes de CS sporadique et quelques études se sont concentrées sur celles qui sont porteuses de mutations de BRCA. Alors, notre recherche a été entreprise afin de vérifier l’hypothèse d’une association entre le CS, le mode vie et les habitudes alimentaires chez les Canadiennes-françaises non porteuses des 6 mutations de BRCA les plus fréquentes parmi cette population. Nous avons mené une étude cas-témoins dans cette population. Quelque 280 femmes atteintes du cancer du sein et non-porteuses de mutations de BRCA, ont été recrutées en tant que cas. Les témoins étaient recrutés parmi les membres de la famille des cas (n=15) ou à partir d'autres familles atteintes de CS (n=265). Les participantes étaient de tous âges, recrutées à partir d’une étude de cohorte qui est actuellement en cours, menée par une équipe de chercheurs au Centre Hospitalier Universitaire de Montréal (CHUM) Hôtel-Dieu à Montréal. Les apports alimentaires ont été recueillis par un questionnaire de fréquence semi-quantitatif validé et administré par une nutritionniste, qui portait sur la période avant les deux ans précédant le premier diagnostic de CS pour les cas et la période avant les deux ans précédant l’entrevue téléphonique pour les témoins. Un questionnaire de base était administré par l’infirmière de recherche aux participantes afin de colliger des renseignements sociodémographiques et sur les facteurs de risque du CS. Une association positive et significative a été détectée entre l’âge (plus de 50 ans) auquel les sujets avaient atteint leur Indice de Masse Corporel (IMC) le plus élevé et le CS rapport de cotes (OR) =2,83; intervalle de confiance à 95% (IC95%) (2,34-2,91). De plus, une association positive a été détectée entre un gain de poids de >34 lbs comparativement à un gain de poids de ≤15 lbs, dès l’âge de 20 ans OR=1,68; IC95% (1,10-2,58). Un gain de poids de >24 lbs comparativement à un gain de poids de ≤9 lbs, dès l’âge de 30 ans a aussi montré une augmentation de risque de CS OR=1,96; IC95% (1,46-3,06). Une association positive a aussi été détecté entre, un gain de poids de >12 lbs comparativement à un gain de poids de ≤1 lb, dès l’âge de 40 ans OR=1,91; IC95% (1,53-2,66). Concernant le tabagisme, nous avons observé une association positive et significative reliée à la consommation de plus de 9 paquets-années OR = 1,59; IC95% (1,57-2,87). Il fut suggéré que l’activité physique modéré confère une protection contre le CS: une pratique de > 24,8 (‘metabolic equivalent’) MET-hrs par semaine par rapport à ≤10,7 MET-hrs par semaine, diminue le risque du CS de 52% OR = 0,48 ; IC95% (0,31-0,74). L’activité physique totale (entre 16,2 et 33,2 MET-hrs par semaine), a aussi montré une réduction de risque de CS de 43% OR = 0,57 ; IC95% (0,37-0,87). Toutefois, il n'y avait aucune association entre une activité physique vigoureuse et le risque de CS. L’analyse portant sur les macro- et micro-nutriments et les groupes alimentaires a montré qu’un apport en énergie totale de plus de 2057 Kcal par jour augmentait le risque de CS de 2,5 fois OR = 2,54; IC95% (1,67-3,84). En ce qui concerne la consommation de café, les participantes qui buvaient plus de 8 tasses de café par jour avaient un risque de CS augmenté de 40% OR = 1,40; IC95% (1,09-2,24). Les sujets ayant une consommation dépassant 9 g d’alcool (éthanol) par jour avaient également un risque élevé de 55% OR = 1,55; IC95% (1,02-2,37). De plus, une association positive et significative a été détectée entre le CS et la consommation de plus de deux bouteilles de bière par semaine OR = 1,34; IC95% (1,28-2,11), 10 onces de vin par semaine OR = 1,16; IC95% (1,08-2,58) ou 6 onces de spiritueux par semaine OR = 1,09; IC95% (1,02-2,08), respectivement. En résumé, les résultats de cette recherche supportent l’hypothèse selon laquelle le mode de vie et les habitudes alimentaires jouent un rôle important dans l’étiologie de CS chez les Canadiennes-françaises non porteuses de mutations de BRCA. Les résultats nous permettent de constater que le gain de poids et le tabagisme sont liés à des risques élevés de CS, tandis que l'activité physique modérée aide à réduire ce risque. De plus, nos résultats suggèrent qu’un apport énergétique total relativement élevé et une consommation élevée de café et d'alcool peuvent accroître le risque de ce cancer. Ce travail a permis de mettre l’accent sur une nouvelle direction de recherche, jusqu'à présent non investiguée. Les résultats de ce travail de recherche pourraient contribuer à recueillir de nouvelles informations et des conseils pouvant influencer et aider la population à modifier son mode de vie et ses habitudes alimentaires afin de diminuer le risque de cancer du sein.
Resumo:
L’augmentation croissante du nombre de nouvelles maladies et des possibilités de traitements existants ou en cours d’étude et ayant pour but la guérison des patients atteints, ont amené les chercheurs à pousser davantage leurs recherches biomédicales sur des sujets humains. La conduite de recherches biomédicales sur des sujets humains est une étape cruciale pour la compréhension de la maladie et, par conséquent, l’avancement des connaissances permettant d’éradiquer un jour certaines maladies répandues à l’échelle planétaire, tel le virus de l’immunodéficience humaine (VIH) causant le syndrome d’immunodéficience acquise (SIDA). Aujourd’hui, ces importantes recherches sont conduites partout à travers le monde mais plus particulièrement dans des pays en développement où les populations sont davantage vulnérables. C’est précisément à cause de cette pratique que différents acteurs de ce milieu ont reconsidéré certains aspects éthiques de ces recherches. Ce mémoire examine donc les différentes normes éthiques en vigueur qui gouvernent la recherche sur des sujets humains, afin de voir comment celles-ci tiennent compte des caractéristiques des populations des pays en développement. Cette comparaison nous guide ensuite vers un survol de trois approches philosophiques pour fins d’application à la recherche biomédicale sur des sujets humains et ce, par le biais d'une étude de cas. Suite à ces trois étapes et à la lumière d’une analyse critique des différents écrits recensés sur le sujet, une conclusion s’impose quant à l’importance de renforcer l’application des normes éthiques universelles entourant la recherche biomédicale sur des sujets humains et ce, justement parce celle-ci est surtout conduite sur des populations vulnérables de pays en développement.
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
Le développement axé sur le transport en commun (transit-oriented development ou TOD) est un concept urbanistique souvent proposé comme solution aux problèmes associés à l’étalement urbain. La majorité des recherches sur ce concept sont descriptives ; rares sont les études qui examinent l’impact des projets de TOD sur les comportements en transport. Certains chercheurs proposent d’étudier les raisons qui expliquent la rareté de véritables TOD en Amérique du Nord. Cette approche s’appuie sur l’hypothèse que ce manque d’exemples est le résultat d’une faible demande, ou d’une multiplicité de barrières, quelles soient financière, réglementaire, politique, organisationnelle ou structurelle. Notre étude s’inscrit dans ce courant, afin d’examiner le développement de TOD dans la région métropolitaine de Montréal. L’étude empirique se concentre sur la perspective des promoteurs immobiliers quant à l’ampleur de la demande et des barrières à l’offre de TOD. La méthodologie de notre étude consiste en des entrevues avec les promoteurs immobiliers travaillant dans la banlieue montréalaise. Les résultats montrent que la demande est en croissance pour les produits ayant certaines caractéristiques de TOD, mais que la demande pour des TOD reste faible. Deux barrières principales ressortent de cette étude, soit le manque de terrains et l’offre insuffisante de service de transport en commun. On peut identifier d’autres obstacles majeurs dont le manque d’une définition commune du TOD et une structure de l’industrie de l’industrie mal adaptée à ces formes de développement. L’étude conclue que la réalisation de TOD dans le contexte montréalais requiert que les acteurs gouvernementaux assument un rôle plus proactif et visionnaire.
Resumo:
La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.
Resumo:
L'évaluation des écosystèmes est l'un des pivots essentiels pour l'élaboration de moyens adaptés permettant de lutter contre la diminution massive de la biodiversité. Pour la première fois, elle a fait l'objet d'une analyse à l'échelle mondiale dans le cadre de l'Evaluation des écosystèmes en début de millénaire (EM). Le rassemblement de plus d’un millier de chercheurs et de plusieurs organismes internationaux durant quatre années ont permis de dessiner la carte nécessaire à toute action efficace. L'article expose les éléments principaux de l'EM : l'évaluation des écosystèmes en tant que tels, mais surtout des services écosystémiques, dans toutes leurs dimensions, en ce que leur évolution affecte le bien-être humain. Il analyse ensuite les quatre points principaux de l'apport de l'EM, des avantages de l'utilisation croissante des services écologiques à sa non viabilité. Des scénarios, modèles et outils sont proposés pour inverser la courbe négative d'appauvrissement de la biodiversité et des services écosystémiques dans un premier bilan des retombées de l'EM.
Resumo:
This paper challenges the assumption that youth and youth agencies are in a condition of equality when entering a participatory action research (PAR). By asserting that it is not a state of equality that practitioners nor youth should assume nor be immediately striving for, but a consistently equitable process, this article draws from and reflects on the relationship between young people and researchers who have used a PAR methodology in action oriented projects. Using the UNESCO Growing up in Cities Canada project as a case example, this review extrapolates from and reflects on challenges faced by the project as a whole. Using semi-structured interviews to explore the roles of adults and youth, a number of strategies are highlighted as the techniques used to overcome these challenges. The discussion concludes with further reflection on the complexities of equality and equity, recommending a number of actions that have the potential to create an equitable environment in PAR projects similar to the one examined.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.
Resumo:
Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.