644 resultados para Recherche de développement
Resumo:
Les changements économiques des dernières décennies telles que la mondialisation et la libéralisation des marchés ont modifié la structure des entreprises et les flux d’échanges, et ce en affectant l’organisation du territoire. Les services gouvernementaux, appuyés des organismes communautaires, ont réagi en développant diverses stratégies à l’échelle locale. Ainsi, ils répondent à une variété de besoins socioéconomiques et s'adaptent aux changements dans les quartiers montréalais. Sur le plan économique, diverses organisations favorisent l'entrepreneuriat local par diverses actions et stratégies. Cette recherche s'intéresse au rôle et aux effets des organismes communautaires dans le développement et la consolidation de petites entreprises via leur rôle sur la viabilité et la vitalité des entreprises dans l’un des arrondissements les plus hétérogènes de Montréal. Spécifiquement, elle s’intéresse à l’effet de ces actions sur le développement entrepreneuriale locale dans l’arrondissement de Côte-des-Neiges/ Notre-Dame-de-Grâce à cause de son caractère hétérogène sur le plan ethnique, sur le plan socio-économique et de ses particularités géographiques. Les résultats obtenus indiquent que la viabilité des entreprises est à la base de la majorité des actions et stratégies déployés par les organismes de soutien. Pour ce qui est de l’enracinement des entreprises, il y a beaucoup d’externalités liées au marché qui influencent les décisions du lieu d’établissement et de relocalisation et qui sont hors de portée des actions des organisations. Globalement, nous pouvons dire que Montréal est une ville résiliente. En effet, l’organisation du milieu communautaire permet, malgré quelques lacunes dans les stratégies de promotions et de répartitions des tâches, un soutien adéquat aux entrepreneurs. Du travail reste à faire afin de valoriser l’entrepreneuriat comme métier auprès de la population et encourager les universitaires à auto-entreprendre.
Resumo:
Dans le contexte urbain du Burkina Faso, la chanson de sensibilisation se situe au coeur des pratiques sociales traditionnelles, des nouvelles économies culturelles et des approches participatives en matière de développement. Cette pratique répond à des enjeux particuliers au contexte local et aux relations internationales. La musique comme outil commun de communication sociale artistique rejoint des stratégies professionnelles différentes chez les artistes-musiciens et les associations locales. Pour les premiers, nous pouvons porter un regard sur la place du musicien dans la société contemporaine burkinabè, entre paupérisation et mondialisation. Pour les seconds, la chanson de sensibilisation s’inscrit comme une tentative d’innover dans les approches d’Information, Éducation et Communication (IEC) pour la santé et la Communication pour le Changement de Comportement (CCC). Ce mémoire présente les modes de collaboration entre les artistes-musiciens et les associations locales qui oeuvrent en santé au Burkina Faso. Il décrit l’état respectif de leur champ puis analyse les négociations sociales issues de leur rencontre. La problématique de recherche s’inscrit dans des courants de recherche en anthropologie et établit un pont avec la praxis de l’animation sociale et culturelle. La chaîne de création (production-diffusion-consommation) permet de poser un regard historique sur les concepts de culture et de développement dans le contexte particulier de l’Afrique de l’Ouest francophone.
Resumo:
INTRODUCTION : Le raisonnement clinique est au coeur de l’exercice professionnel. Cependant, nous manquons d'instruments pour identifier et objectiver les difficultés de raisonnement clinique, et il existe relativement peu de descriptions de méthodes de remédiation définies. Un important travail reste donc à faire, pour mieux comprendre comment les difficultés se manifestent dans le raisonnement clinique des étudiants en formation, mais également pour rendre ces concepts plus accessibles aux enseignants; ceci permettra alors d’améliorer la qualité de la démarche d’identification des difficultés, et d’envisager des remédiations ciblées et efficaces. OBJECTIFS : Cette recherche s’articule d’une part, autour de l’objectivation et la compréhension des pratiques actuelles des cliniciens enseignants en médecine, d’autre part, autour de la construction et l’implantation d’outils et de processus susceptibles de faciliter la démarche de diagnostic et de remédiation des difficultés de raisonnement clinique. MÉTHODOLOGIE : Une recherche de type qualitative, utilisant les méthodes de la recherche action participative s’est révélée pertinente pour atteindre nos objectifs. La recherche est composée de quatre étapes : 1. Une étude exploratoire. 2. La construction et de l’implantation d’un premier outil dans trois milieux cliniques en médecine familiale. 3. L’élaboration d’une taxonomie des difficultés de raisonnement clinique ainsi que la construction d’un nouvel outil. 4. Le développement d’une approche globale pour soutenir et former les cliniciens enseignants. RÉSULTATS : Les enseignants ont une perception rapide, mais qui demeure globale et intuitive, des potentielles difficultés de raisonnement clinique des résidents. Cette perception ne se traduit pas forcément en termes pédagogiques. Nous avons pu observer l’absence de processus pédagogiques organisés et structurés pour la gestion de ces difficultés. Ceci semble projeter les cliniciens enseignants dans une zone d’inconfort, en les confrontant à un manque de maîtrise et à l’incertitude au sujet de leurs actions pédagogiques. La catégorisation des difficultés de raisonnement clinique que nous avons construite permet d’identifier les difficultés telles qu’elles se manifestent dans le quotidien des supervisions cliniques. Cet outil a cependant besoin d’être intégré dans un processus plus global. CONCLUSION : Une approche globale qui comprenne le développement de processus implantés par le Département, l’implantation d’outils, la vulgarisation de la théorie, et la formation des enseignants est déterminante.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
Les différentes recherches portant sur les homicides conjugaux, et plus spécialement des uxoricides, plus documentés parce que plus fréquents, apportent de nombreuses informations pertinentes concernant le contexte entourant l'homicide, la relation entre les conjoints et son évolution et même, parfois, sur l’enfance de l’homme qui a posé un tel geste sur sa conjointe ou ex-conjointe. Toutefois, des incohérences ont été relevées dans les écrits sur le sujet faisant qu’il est difficile d’identifier la dynamique qui conduit des hommes à tuer leur conjointe. Le déroulement de la vie des hommes ayant enlevé la vie de leur conjointe, c’est-à-dire les événements qu’ils ont vécus tout au cours de leur vie et qui ont pris un sens particulier pour eux, nous est apparue une avenue qui, à notre connaissance, n’aurait pas été étudiée. Il a dès lors été convenu que l’objectif principal de ce mémoire de maîtrise en criminologie consisterait à explorer s’il est possible d’identifier, dans la vie d’un échantillon d’hommes qui ont tué leur conjointe, un enchaînement d’événements qui pourrait contribuer à la compréhension de la dynamique conduisant à l’homicide conjugal. Plus précisément, il s’agissait d’identifier les perceptions qu’ont ces hommes des différents événements qu’ils considèrent comme ayant été marquants dans leur vie et les réactions qu’ont successivement produites ces perceptions. Le devis de cette étude est qualitatif. Dix hommes incarcérés forment l’échantillon. Tous ont été reconnus coupables du meurtre de leur conjointe ou ex-conjointe. Suite aux entrevues semi-structurées de type rétrospectif et thématique, une reconstitution des lignes de vie inspirée de la théorie de Agnew (2006) ainsi qu’une analyse thématique des récits recueillis ont été effectuées. Bien que les événements de la vie de chacun des hommes leur soient particuliers, il ressort néanmoins une structure commune aux lignes de vie. Cette structure est marquée d’un événement ou de conditions de vie marquants se rapportant à l’enfance, d’un événement porteur d’une remise en question survenue plus tard et d’un événement déclencheur conduisant au meurtre. L’événement porteur d’une remise en question paraît occuper une place centrale dans la vie des hommes participant à notre étude. Cet événement porteur d’une remise en question vient modifier les comportements et attitudes de l’homme manifestés subséquemment. Ainsi, à la lumière des résultats de cette recherche, il apparaît que l’ensemble du développement de la vie des hommes uxoricides, et plus spécialement les événements qu’ils identifient comme étant marquants, leur enchaînement et, surtout, leur façon de percevoir ces événements et d’y réagir doivent être pris en compte dans l’étude de la trajectoire qui a finalement abouti au passage à l’acte homicidaire. Autre fait à considérer, plusieurs des hommes interviewés ont mentionné qu’ils sentaient qu’un événement de la sorte se préparait dans leur vie. Ceci suggère une certaine prévisibilité de l’acte qui pourrait être perceptible dans le récit que font les hommes de leur vie et de leur perception d’eux en relation avec les éléments qu’ils identifient comme ayant été marquants pour eux au cours de celle-ci. Il reste toutefois beaucoup à faire dans cette découverte d’un outil de prévention de l’uxoricide.
Resumo:
Depuis le début des années 90, le projet génome humain a permis l’émergence de nombreuses techniques globalisantes porteuses du suffixe –omique : génomique, transcriptomique, protéomique, épigénomique, etc.… L’étude globale de l’ensemble des phénotypes humains (« phénome ») est à l’origine de nouvelles technologies constituant la « phénomique ». L’approche phénomique permet de déterminer des liens entre des combinaisons de traits phénomiques. Nous voulons appliquer cette approche à l’étude des malformations humaines en particulier leurs combinaisons, ne formant des syndromes, des associations ou des séquences bien caractérisés que dans un petit nombre de cas. Afin d’évaluer la faisabilité de cette approche, pour une étude pilote nous avons décidé d’établir une base de données pour la description phénotypique des anomalies foetales. Nous avons effectué ces étapes : o Réalisation d’une étude rétrospective d’une série d’autopsies de foetus au CHU Sainte- Justine (Montréal, QC, Canada) entre 2001-2006 o Élaboration de trois thésaurus et d’une ontologie des anomalies développementales humaines o Construction une base de données en langage MySQL Cette base de données multicentrique accessible sur (http://www.malformations.org), nous permet de rechercher très facilement les données phénotypiques des 543 cas observés porteurs d’une anomalie donnée, de leur donner une description statistique et de générer les différents types d’hypothèses. Elle nous a également permis de sélectionner 153 cas de foetus malformés qui font l’objet d’une étude de micropuce d’hybridation génomique comparative (aCGH) à la recherche d’une anomalie génomique.
Resumo:
La formation à distance (FAD) est de plus en plus utilisée dans le cadre de la formation des enseignants aux technologies de l’information et de la communication (TIC). Dans les pays en voie de développement, elle permet non seulement de réduire les coûts par rapport à une formation traditionnelle, mais aussi de modéliser des pratiques pédagogiques exemplaires qui permettent de maximiser le recours aux TIC. En ce sens, la formation continue des enseignants aux TIC par des cours à distance qui intègrent des forums de discussion offre plusieurs avantages pour ces pays. L’évaluation des apprentissages réalisés dans les forums reste cependant un problème complexe. Différents modèles et différentes procédures d’évaluation ont été proposés par la littérature, mais aucun n’a encore abordé spécifiquement la culture e-learning des participants telle qu’elle est définie par le modèle IntersTICES (Viens, 2007 ; Viens et Peraya, 2005). L’objectif de notre recherche est l’élaboration d’une grille opérationnelle pour l’analyse de la culture e-learning à partir des contenus de différents forums de discussion utilisés comme activité de formation dans un cours à distance. Pour développer cette grille, nous utiliserons une combinaison de modèles recensés dans la revue de littérature afin de circonscrire les principaux concepts et indicateurs à prendre en compte pour ensuite suivre les procédures relatives à l’analyse de la valeur, une méthodologie qui appelle la production d’un cahier des charges fonctionnel, la production de l’outil, puis sa mise à l’essai auprès d’experts. Cette procédure nous a permis de mettre sur pied une grille optimale, opérationnelle et appuyée par une base théorique et méthodologique solide.
Resumo:
Devant le contexte actuel des crises environnementale et sociale, on ne peut que s’interroger sur la capacité du domaine de la conservation du patrimoine à intégrer les principes et les concepts liés au développement durable. Alors que plusieurs liens entre la conservation du patrimoine culturel et le développement durable existent, il devient nécessaire de solidifier cette union. Réalisée en amont du projet de conservation, l’évaluation patrimoniale basée sur l’approche par les valeurs permet d’établir la signification d’un lieu selon les valeurs qui lui sont associées. Il y a cependant lieu de se questionner : au-delà des valeurs historiques, esthétiques ou architecturales traditionnellement attribuées au patrimoine bâti, quel intérêt accorde-t-on aux dimensions environnementales, économiques et sociales? Le postulat de ce mémoire est qu’il est essentiel d’élargir l’évaluation patrimoniale afin d’y intégrer de nouvelles valeurs liées au développement durable. Nous nous proposons d’étudier la faisabilité de ceci en élaborant un modèle d’évaluation patrimoniale basé sur une approche par les valeurs qui prend en compte l’ensemble des valeurs inhérentes au patrimoine bâti, c’est-à-dire les aspects culturels, sociaux, économiques et environnementaux. Cette proposition se traduit en une grille d’évaluation qui comporte ces dimensions. Afin de confronter notre hypothèse au réel, nous procéderons à une étude de cas : le Silo no.5 situé dans le Vieux-Port de Montréal. Aux termes de cette recherche, nous estimons être en mesure d’identifier les limites de notre expérimentation et de déterminer ce qui pourrait être fait pour contribuer aux efforts en conservation. Il nous apparaît que les recherches effectuées dans le cadre de ce mémoire sont susceptibles d’intéresser toute personne oeuvrant dans le domaine de la conservation du patrimoine.
Resumo:
Les films de simulations qui accompagnent le document ont été réalisés avec Pymol.
Resumo:
Les macrocycles ont longtemps attiré l'attention des chimistes. Malgré cet intérêt, peu de méthodes générales et efficaces pour la construction de macrocycles ont été développés. Récemment, notre groupe a développé un programme de recherche visant à développer de nouvelles voies vers la synthèse de paracyclophanes et ce mémoire présente l pluspart des efforts les plus récents dans ce domaine. Traditionnellement, la synthèse de paracyclophanes rigides est facilitée par l'installation d'un groupe fonctionnel capable de contrôler la structure de la molécule en solution (ex un élément de contrôle de conformation (ECC)). Cependant, cette approche utilisant des auxiliaires exige que le ECC soit facilement installé avant macrocyclisation et facilement enlevé après la cyclisation. Le présent mémoire décrit une méthode alternative pour guider la macrocyclisations difficile à travers l'utilisation d'additifs comme ECC. Les additifs sont des hétérocycles aromatiques N-alkylé qui sont bon marché, faciles à préparer et peuvent être facilement ajoutés à un mélange de réaction et enlevés suite à la macrocyclisation par simple précipitation et de filtration. En outre, les ECCs sont recyclables. L'utilisation du nouveau ECC est démontré dans la synthèse des para-et métacyclophanes en utilisant soit la métathèse de fermeture de cycle (RCM) ou couplage de Glaser-Hay.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.
Resumo:
L’étude du cerveau humain est un domaine en plein essor et les techniques non-invasives de l’étudier sont très prometteuses. Afin de l’étudier de manière non-invasive, notre laboratoire utilise principalement l’imagerie par résonance magnétique fonctionnelle (IRMf) et l’imagerie optique diffuse (IOD) continue pour mesurer et localiser l’activité cérébrale induite par une tâche visuelle, cognitive ou motrice. Le signal de ces deux techniques repose, entre autres, sur les concentrations d’hémoglobine cérébrale à cause du couplage qui existe entre l’activité neuronale et le flux sanguin local dans le cerveau. Pour être en mesure de comparer les deux signaux (et éventuellement calibrer le signal d’IRMf par l’IOD), où chaque signal est relatif à son propre niveau de base physiologique inconnu, une nouvelle technique ayant la capacité de mesurer le niveau de base physiologique est nécessaire. Cette nouvelle technique est l’IOD résolue temporellement qui permet d’estimer les concentrations d’hémoglobine cérébrale. Ce nouveau système permet donc de quantifier le niveau de base physiologique en termes de concentrations d’hémoglobine cérébrale absolue. L’objectif général de ma maîtrise était de développer un tel système afin de l’utiliser dans une large étude portant sur la condition cardiovasculaire, le vieillissement, la neuroimagerie ainsi que les performances cognitives. Il a fallu tout d’abord construire le système, le caractériser puis valider les résultats avant de pouvoir l’utiliser sur les sujets de recherche. La validation s’est premièrement réalisée sur des fantômes homogènes ainsi qu’hétérogènes (deux couches) qui ont été développés. La validation des concentrations d’hémoglobine cérébrale a été réalisée via une tâche cognitive et appuyée par les tests sanguins des sujets de recherche. Finalement, on présente les résultats obtenus dans une large étude employant le système d’IOD résolue temporellement en se concentrant sur les différences reliées au vieillissement.
Resumo:
Ce mémoire a comme objectif de vérifier la validité de construit et la cohérence interne d’une nouvelle échelle de mesure du climat de santé mentale. Il vise également à observer la validité concomitante en fonction des associations entre les dimensions du climat de santé mentale et les dimensions de l’épuisement professionnel et le bien-être. Le concept du climat de santé mentale ainsi que son échelle de mesure ont été développés par l’Équipe de Recherche sur le Travail et la Santé Mentale. Le climat de santé mentale est considéré comme une ressource importante pour les travailleurs pour qu’ils puissent faire face aux difficultés qui se présentent dans leurs milieux de travail. Le climat de santé mentale se définit comme étant les perceptions partagées des politiques, procédures et pratiques organisationnelles qui témoignent d’une préoccupation pour le stress et la santé mentale au travail. Afin de valider cette nouvelle échelle de mesure, nous avons utilisé les données primaires de 410 civils et policiers du Service de Police de la Ville de Montréal (SPVM). L’analyse des résultats indique que l’échelle initiale à dix items mérite d’être retravaillée. Nous avons donc fait quelques modifications à cette échelle pour proposer une échelle de mesure du climat de santé mentale à huit items ou une échelle courte à trois items. Les résultats font ressortir l’importance du rôle des gestionnaires à assurer un climat de santé mentale positif au sein de leur organisation.