393 resultados para gestion du risque
Resumo:
"De plus en plus, la recherche en génétique s'attarde à identifier les mutations de gènes qui prédisposent les porteurs de ces mutations à des maladies complexes. La recherche tente également d'établir un lien entre le développement de la maladie pour certains porteurs en fonction de leur contexte socio-économique et de leur interaction avec l'environnement. Compte tenu de ces nombreux facteurs d'analyse, l'interprétation des caractéristiques génétiques d'un individu et du risque qui en découle s'avère particulièrement complexe. Or, cette complexité croissante se produit alors même que l'accès aux données génétiques se banalise et qu'il est maintenant possible pour quiconque d'obtenir une analyse personnalisée de son génome via l'internet. La discrimination génétique n'est pas définie en droit canadien ; il est généralement acquis que, dans le contexte de l'assurance-vie, celle-ci est susceptible d'avoir des conséquences désastreuses. Cependant, nous ne croyons pas que l'information d'ordre génétique doive être l'objet d'une approche exceptionnelle causant accrocs au droit général des assurances. D'autant plus, les conséquences du risque de discrimination génétique semblent davantage relevées de la crainte que de l'exercice d'une discrimination réelle. Dans ce contexte, il s'avère nécessaire d'évaluer les mesures de protection contre la discrimination génétique dans le contexte de l'assurance-vie. Pour ce faire, nous abordons, d'une part, les normes d'application générale en matière de protection contre la discrimination; normes parmi lesquelles la Charte des droits et libertés de la personne offre une protection intéressante. D'autre part, nous nous intéressons aux normes visant la discrimination spécifiquement génétique, notamment le nouvel Genetic Information Nondiscrimination Act et l'affaire Audet c. Industrielle-Alliance. Enfin, nous proposons des mesures minimales qui sauraient s'avérer utile pour préserver un juste équilibre."
Resumo:
L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà , sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.
Resumo:
PériCulture est le nom d'un projet de recherche à l'Université de Montréal qui fait partie d'un projet plus vaste basé à l'Université de Sherbrooke. Ce dernier visait à former un réseau de recherche pour la gestion du contenu culturel numérique canadien. L'objectif général de la recherche de PériCulture était d'étudier les méthodes d'indexation de contenus culturels non textuels sur le Web, plus spécifiquement des images. Les résultats de la recherche présentés ici s'appuient sur des travaux précédents en indexation d'images et en indexation automatique (de texte), par l'étude des propriétés du texte associé à des images dans un environnement réseau. Le but était de comprendre la façon dont le texte associé à des images sur des pages Web (appelé péritexte) peut être exploité pour indexer les images correspondantes. Nous avons étudié cette question dans le contexte de pages Web sélectionnées, c'est à dire : des pages de contenu culturel canadien contenant des objets multimédia auxquels était associé du texte (plus que simplement les noms de fichiers et les légendes) et qui étaient bilingues (anglais et français). Nous avons identifié les mots-clés utiles à l'indexation situés à proximité de l'objet décrit. Les termes d'indexation potentiels ont été identifiés dans diverses balises HTML et dans le texte intégral (chacun étant considéré comme une source différente de péritexte). Notre étude a révélé qu'un grand nombre de termes d'indexation utiles sont disponibles dans le péritexte de nombreux sites Web ayant un contenu culturel, et ce péritexte de différentes sources a une utilité variable dans la recherche d’information. Nos résultats suggèrent que ces termes peuvent être exploités de différentes manières dans les systèmes de recherche d’information pour améliorer les résultats de recherche.
Resumo:
Depuis longtemps, le sentiment d’insécurité suscite l’intérêt des chercheurs en sciences sociales. En milieu carcéral, ce phénomène est encore peu étudié. Les différentes études arrivent à des résultats incohérents par rapport aux facteurs reliés au sentiment d’insécurité des détenus. Les différentes façons de conceptualiser et de mesurer ce phénomène apparaissent souvent comme une des causes de l’incohérence des résultats obtenus. La présente étude a comme objectif général d’approfondir les connaissances sur le sentiment d’insécurité des incarcérés et présente les objectifs spécifiques suivants: (1) dresser un portrait quantitatif du sentiment d'insécurité en tenant compte de ses dimensions affective, cognitive et comportementale; (2) estimer le taux de victimisation dans les pénitenciers canadiens du Québec; (3) analyser les facteurs reliés aux différentes dimensions du sentiment d'insécurité; (4) analyser l’interrelation entre les différentes dimensions du sentiment d’insécurité. Afin d’atteindre ces objectifs, les données recueillies auprès de 293 détenus de dix pénitenciers québécois ont été analysées. Des analyses descriptives ont été utilisées pour documenter le sentiment d’insécurité des détenus en tenant compte de différentes dimensions. Des analyses bi variées et multi variées ont permis d'identifier les facteurs individuels et contextuels en relation significative avec les différentes dimensions du sentiment d’insécurité. Des modèles de régression hiérarchisée ont permis d’analyser l’interrelation entre les différentes dimensions du sentiment d’insécurité, en tenant compte de l’influence de facteurs individuels et contextuels. Les résultats ont révélé un niveau d’insécurité peu élevé et variable parmi la population carcérale et aussi que les différentes dimensions du sentiment d’insécurité étaient affectées par différents facteurs et qu'elles étaient partiellement inter reliées.
Resumo:
L’intégration des TIC a connu un essor considérable dans les dernières années et des chercheurs à travers le monde y accordent une importance sans cesse croissante ; le sujet des TIC en éducation est ainsi répandu au sein des écrits depuis maintenant plusieurs années (Istance & Kools, 2013; Storz & Hoffman, 2013). Dans un monde où les technologies sont omniprésentes dans la plupart des sphères d’activités, il ne s’agit plus de savoir si les technologies doivent être intégrées dans les activités d’enseignement et d’apprentissage, mais bien de quelle façon elles doivent l’être. Comme les TIC présentent de nombreux avantages, notamment en ce qui concerne la motivation scolaire et la réduction du fossé numérique, les différents intervenants du monde de l’éducation sont généralement conscients de l’importance de bien utiliser les technologies de l’information et de la communication (TIC) en éducation, mais ne savent pas toujours par où commencer. La présente recherche s’intéresse à une forme particulière d’intégration des TIC en éducation, soit les projets portables. Les projets portables se différencient par le fait que l’enseignant et chaque élève disposent de leur propre ordinateur portable dans le but d’une utilisation pédagogique. Cette thèse de doctorat tente de détailler, à travers un langage clair et accessible, les défis qu’il est possible de rencontrer à l’intérieur de tels projets, de même que ce qui peut être fait pour en limiter les impacts. En vue de déterminer les conditions pouvant favoriser le succès global des projets portables au Québec, voire ailleurs, une recension des écrits exhaustive a permis de relever quatre catégories de facteurs principales dans lesquelles l’ensemble des défis identifiés semblent pouvoir être classés : les facteurs relatifs à la gestion du projet, les facteurs internes à l’enseignant, les facteurs relatifs au cadre de travail de même que les facteurs relatifs à l’infrastructure et au matériel. Ces diverses catégories de facteurs sont abordées en détails à l’intérieur du cadre théorique de cette thèse de doctorat. En vue d’atteindre les objectifs, un questionnaire a été mis au point et plus de 300 enseignants d’une commission scolaire où a lieu un projet portable à grand déploiement y ont répondu. Les données de nature mixte (données quantitatives et qualitatives) ont été analysées à l’aide de logiciels spécialisés et ceci a permis de vérifier la pertinence des éléments rencontrés dans la recension des écrits, de même que d’en découvrir de nouveaux. Il a été trouvé que de nombreux défis sont susceptibles d’être rencontrés. Les plus importants ont trait à la qualité du matériel utilisé, à l’importance de la formation des enseignants relativement aux TIC, et à l’importance de mettre au point une vision claire assurant la pleine adhésion des enseignants. Il a aussi été déterminé que l’enseignant doit pouvoir accéder à un soutien pédagogique ainsi qu’à un soutien technique facilement. Enfin, il a été découvert que la nature des projets à grand déploiement fait en sorte qu’il importe de porter une attention particulière aux besoins locaux des enseignants, qui peuvent varier selon le contexte de travail de ceux-ci.
Resumo:
Ce mémoire présente une analyse indirecte détaillée des niveaux de la fécondité de la population canadienne au XIXe siècle. L’exploitation des recensements canadiens de 1852 et 1881 est rendue possible grâce au Programme de recherche en démographie historique (PRDH) constituant ainsi la source de données sur laquelle s'appuie ce mémoire. Une analyse critique du recensement canadien de 1852 établit qu’il est représentatif pour ce qui est de l’âge des individus, du sexe, de l’état matrimonial, du lieu de naissance et du type de maison habitée, malgré la destruction de près d’un tiers de ses manuscrits avant d’avoir été transposés sur microfilm. De plus, l’impact de l’absence totale ou partielle des données pour les villes est mitigé, car moins de 10 % de la population était établi en ville cette année-là . L’utilisation de micro-données censitaires permet d’élaborer différentes mesures de la fécondité, telles que le rapport enfants par femme et la méthode des enfants propres. Des résultats inédits sont d'ailleurs présentés, notamment à l’aide du recensement de 1852, car ces données n’ont pas encore été exploitées, permettant ainsi d’allonger dans le temps l’analyse de la fécondité.Une analyse différentielle du risque qu’ont les femmes mariées âgées entre 40 et 49 ans vivant avec un enfant de moins de 5 ans a démontré que la fécondité effective était plus élevée chez les femmes catholiques nées au Canada, appartenant au groupe d’âge plus jeune (40-44 ans), vivant en zone rurale et ayant un mari cultivateur. Nous concluons que ces associations sont évidentes autant en 1852 qu’en 1881.
Resumo:
Cette thèse contribue à l'état actuel des connaissances sur la compatibilité des nouveaux bâtiments avec les environnements urbains historiques. Elle suit un mode de présentation classique: Introduction, Revue de Littérature, Méthodologie, Résultats, Discussion et Conclusion. Le problème étudié est le manque d'orientation pour intégrer les processus de développement et de sauvegarde dans les contextes établis. La littérature récente révèle que les règles de préservation, aussi appelées normes et lignes directrices, ne peuvent pas garantir une relation compatible entre une intervention et son milieu. La pensée contemporaine dans le domaine de la conservation et de la gestion du patrimoine invite donc l’exploration d'autres moyens pour lier la nouvelle architecture à l'ancienne. Ainsi, le présent projet de recherche explore une approche alternative aux règles de préservation en vue d’atteindre le but de nouveaux bâtiments compatibles et d’améliorer la prise de décision fondée sur les valeurs. Pour produire des résultats spécifiques et convaincants, un cas a été sélectionné. Celui-ci est une ville dans la région du Golfe Arabe : la Ville de Koweït. Le résultat principal est le développement d’une approche, mise en œuvre en posant des questions approfondies sur le lieu, la conception et la construction des nouveaux bâtiments. Les questions suggérées dans la thèse mettent l’accent sur les valeurs patrimoniales et les choix de conception afin de permettre un changement réfléchi au sein des environnements urbains historiques. Elles aident aussi à évaluer les nouvelles propositions de projets au cas par cas. Pour démontrer comment cette approche pourrait être présentée et utilisée par les requérants et les évaluateurs, un modèle théorique est proposé. Ce modèle a ensuite été discuté avec des professionnels locaux et internationaux qui ont identifié ses forces et ses limites. En conclusion, l’ensemble des résultats montre que la mise à disposition de règles et / ou de questions approfondies n’est pas une solution satisfaisante puisqu’il y a d'autres enjeux importants qui devraient être abordés: comment appliquer l'orientation efficacement une fois qu’elle a été créée, comment développer la compétence liée à la prise de décision fondée sur les valeurs et comment insérer la conservation du patrimoine dans la mentalité du gouvernement local et des communautés. Lorsque ces enjeux seront traités, le patrimoine pourra devenir partie intégrante du processus de planification, ce qui est le but ultime. Enfin, cinq axes de recherche sont recommandés pour poursuivre l’exploration des idées introduites dans cette étude.
Resumo:
Un modèle pharmacocinétique à base physiologique (PBPK) d’exposition par inhalation à l’éthanol a antérieurement été développé en se basant sur des données provenant d’une étude chez des volontaires exposés par inhalation à plus de 5000 ppm. Cependant, une incertitude persiste sur la capacité du modèle PBPK à prédire les niveaux d’éthanolémie pour des expositions à de faibles concentrations. Ces niveaux sont fréquemment rencontrés par une large partie de la population et des travailleurs suite à l’utilisation de produits tels que les vernis et les solutions hydroalcooliques (SHA). Il est ainsi nécessaire de vérifier la validité du modèle existant et de déterminer l’exposition interne à l’éthanol dans de telles conditions. Les objectifs du mémoire sont donc 1) de documenter les niveaux d’éthanolémie résultant de l’exposition par inhalation à de faibles concentrations d’éthanol (i.e., ≤ 1000 ppm) et de valider/raffiner le modèle PBPK existant pour ces concentrations ; et 2) de déterminer les concentrations d’éthanol atmosphérique provenant d’utilisation de SHA et de vernis et de prédire les niveaux d’éthanolémie découlant de leur utilisation. Les données toxicocinétiques récoltées chez des volontaires nous suggèrent qu’il est insuffisant de limiter au foie la clairance métabolique de l’éthanol lors d’exposition à de faibles niveaux d’éthanol, contrairement aux expositions à de plus forts niveaux. De plus, il a clairement été démontré qu’un effort physique léger (50 W) influençait à la hausse (2-3 fois) l’éthanolémie des volontaires exposés à 750 ppm. L’ajout au modèle PBPK d’une clairance métabolique de haute affinité et de faible capacité associée aux tissus richement perfusés a permis de simuler plus adéquatement la cinétique de l’éthanolémie pour des expositions à des concentrations inférieures à 1000 ppm. Des mesures de concentrations d’éthanol dans l’air inhalé générées lors d’utilisation de SHA et de vernis ont permis de simuler des expositions lors de l’utilisation de ces produits. Pour l’utilisation de 1,5 g et 3 g de SHA dans un local peu ventilé, des concentrations sanguines maximales (Cmax) de 0.383 et 0.366 mg.L-1 ont été respectivement simulées. Dans un local bien ventilé, les Cmax simulées étaient de 0.264 et 0.414 mg.L-1. Selon les simulations, une application de vernis résulterait en une Cmax respectivement de 0.719 mg.L-1 et de 0.729 mg.L-1, chez les hommes et femmes. Les Cmax sanguines d’éthanol estimées suites aux différentes simulations sont inférieures à la concentration toxique pour les humains (100 mg.L-1). Ainsi, de telles expositions ne semblent pas être un danger pour la santé. Les résultats de cette étude ont permis de mieux décrire et comprendre les processus d’élimination de l’éthanol à faibles doses et permettront de raffiner l’évaluation du risque associé à l’inhalation chronique de faibles niveaux d’éthanol pour la population, particulièrement chez les travailleurs.
Resumo:
La vigueur de la réponse immunitaire générée par les cellules dendritiques (DC) a positionné ces cellules comme médiatrices centrales dans l’activation des lymphocytes T. La vulnérabilité des cellules cancéreuses de leucémie myéloïde chronique (LMC) à l’intervention immunitaire résulte apparemment de la capacité des cellules leucémiques de se différencier en DC. Ces DC ont alors la capacité de présenter des peptides provenant des cellules souches leucémiques aux lymphocytes T. Dans ce travail, nous démontrons que la plupart des patients atteints d’une LMC présentent un déficit important en DC au niveau du sang et de la moelle osseuse avant la greffe de cellules souches allogéniques. Les faibles niveaux de DC circulantes résultent en grande partie d’une perte de la diversité au niveau des cellules progénitrices CD34+ leucémiques au niveau de la moelle osseuse. Ces cellules progénitrices CD34+ présentent d’ailleurs une capacité réduite à se différencier en DC in vitro. Nous avons trouvé qu’un décompte faible de DC avant une greffe allogénique était associé à une diminution significative de la survie et une augmentation considérable du risque de développer une des complications mortelles. Puisque la reconstitution des DC suite à la greffe est absente, notre étude appuie aussi la thèse que ce sont les cellules DC pré greffe qui sont primordiales dans l'effet du greffon contre leucémie (GVL). Dans ce contexte, notre étude suggère que le compte des DC avant la greffe allogénique pourrait servir de marqueur pronostique pour identifier les patients LMC à risque de développer certaines complications suite à une greffe allogénique.
Resumo:
La faune et la flore de l’île de La Réunion atteignent un niveau d’endémisme très élevé avec le tiers de sa surface encore recouverte par des forêts naturelles. Ces conditions exceptionnelles ont favorisé, en 2007, la création du Parc National de La Réunion qui couvre 40 % du territoire. Parmi les différentes atteintes à l’environnement dans les aires du Parc national, le braconnage est devenu, au cours des deux dernières décennies, un phénomène très préoccupant pour les différents acteurs locaux et régionaux qui s’occupent de la gestion de ce problème. Plusieurs espèces braconnées sont actuellement menacées et les dégâts occasionnés par les braconniers sont visibles dans le paysage réunionnais. Ce projet de recherche vise à répondre à la question de recherche suivante : De quelle façon se manifeste le braconnage (les motivations, la fréquence, les techniques, les lieux) dans le Parc national de La Réunion et comment les différents acteurs réagissent-ils face à la pratique du braconnage? La méthodologie de cette recherche repose sur une démarche combinant l’approche exploratoire et l’étude de cas. Les données qualitatives et quantitatives que nous avons utilisées pour cette étude ont été collectées par une recherche bibliographique, une collection de données statistiques, et par des entrevues (exploratoires, semi-dirigées, individuelles non-structurées) réalisées sur le terrain. Les résultats obtenus nous ont permis de constater que le braconnage à La Réunion est un phénomène ancré dans la culture locale et une conséquence directe du contexte économique actuel. Notre recherche a relevé deux catégories de braconniers : les braconniers occasionnels (touristes et braconniers du dimanche) et les braconniers professionnels. Le braconnage de type occasionnel est très largement répandu dans la population, car il s’inscrit dans une continuité des traditions. Le braconnage de type professionnel où le braconnier prélève de façon systématique dans la nature à des fins monétaires, est pratiqué par peu de gens, mais il occasionne de lourdes pertes contrairement au braconnage de type occasionnel. Les différentes méthodes mises en place par les divers acteurs impliqués dans la gestion du braconnage ont été répertoriées et examinées. Tandis que le poinçonnage des plants de vanille et le marquage des tangues sont efficaces, la délation des braconniers et les visites éducatives restent des pistes à explorer, et les conférences rééducatives des braconniers ainsi que la vente de permis de chasse au tangue ont démontré une faible efficacité. Des recommandations pour améliorer la dynamique entre les acteurs impliqués dans la gestion du braconnage ont été données par plusieurs de ces acteurs interrogés au cours de cette recherche.
Resumo:
La polyarthrite rhumatoïde (PR) est une maladie auto-immune chronique. Elle est caractérisée par une inflammation persistante touchant de multiples petites articulations, causant douleurs, rougeurs, gonflements et déformations. Des études menées auprès de patients et d’animaux ont démontré que certains auto-anticorps, cytokines et enzymes tissue-déstructives sont des médiateurs importants dans le développement de la PR. Au cours des deux dernières décennies, les traitements de fond (DMARDs en anglais) ont été démontrés très efficaces pour traiter la PR. D'autre part, des effets secondaires ont été rapportés pour ces traitements, par exemple l'augmentation du risque d'infections opportunistes. L’objectif de ce travail est d’acquérir des connaissances sur le rôle du TL1A (TNF-like molécule 1 A; TNFSF15) et son partenaire Nob1 (Pno1 ; YOR145c) dans la pathogenèse de la PR afin de découvrir de nouveaux médicaments contre ces molécules dans l'avenir. TL1A est un membre de la famille du TNF. Il déclenche des signaux co-stimulateurs via le récepteur de mort 3 (DR3) et induit la prolifération ainsi que la production des cytokines pro inflammatoires par les lymphocytes. Des données multiples suggèrent l'implication de la cascade TL1A-DR3 dans plusieurs maladies auto-immunes. Donc, nous avons proposé les hypothèses suivantes:1) la production locale de TL1A dans les articulations est un composant d’un cercle vicieux qui aggrave la PR; 2) dans la PR, la production de TL1A dans les organes lymphoïde augmente la production d’auto-anticorps pathogénique. Au cours de ce travail, nous avons démontré que la TL1A aggrave la maladie chez les souris où l’arthrite a été induite par le collagène (AIC). Par ailleurs, nous avons constaté que l’expression de TL1A est élevée dans les tissus atteints de PR ainsi que dans les ganglions lymphatiques drainant de la souris AIC. Mécaniquement, nous avons découvert que la TL1A est induite par le TNF-α et IL-17 produits par les cellules T in vitro. Ces résultats montrent directement que les TL1A-DR3 jouent un rôle essentiel dans la pathogenèse de la PR. De plus, afin de poursuivre notre étude, la TL1A a été génétiquement supprimée dans les souris (TL1A KO). Nous avons montré que les souris TL1A KO n’ont aucune anomalie apparente et aucun dysfonctionnement du système immunitaire dans des conditions normales. Cependant, ces souris manifestent des AIC améliorées et une réduction significative des niveaux d'anticorps, anti-collagène du type II i dans le sérum. Nous avons trouvé que les ganglions lymphatiques de drainage (dLNs) de souris KO étaient plus petites avec une cellularité inférieure comparativement aux souris WT de 14 jours après l’immunisation. De plus, nous avons découvert que le DR3 a été exprimé par les cellules plasmatiques dans l’étape de la différenciation terminale et ces cellules surviennent mieux en présence de TL1A. La conclusion de cette étude apporte des nouvelles connaissances sur le rôle de TL1A qui amplifie les réponses humorales d’AIC. Nous avons suggéré que TL1A pourrait augmenter la réponse d’initiation d'anticorps contre collagène II (CII) ainsi que prolonger la survie des cellules plasmatiques. Une autre molécule qui nous intéresse est Pno1. Des études antérieures menées chez la levure ont suggéré que Pno1 est essentielle pour la néogénèse du protéasome et du ribosome Le protéasome étant crucial pour la différenciation terminale des cellules plasmatiques pendant les réponses humorales chez les mammifères, nous avons donc supposé que Pno1 joue un rôle dans la production d'anticorps pathogenique dans la PR via la voie du protéasome. Nous avons donc généré des souris génétiquement modifiées pour Pno1 afin d’étudier la fonction de Pno1 in vivo. Cependant, une mutation non-sens dans le Pno1 provoque une létalité embryonnaire à un stade très précoce chez les souris. D'autre part, une réduction de 50% de Pno1 ou une surexpression de Pno1 n’ont aucun effet ni sur le fonctionnent des cellules T et B, ni sur les activités du protéasome ainsi que sur la réponse humorale dans l’AIC. Ces résultats suggèrent que Pno1 est une molécule essentielle sans redondance. Par conséquent, il n’est pas une cible appropriée pour le développement de médicaments thérapeutiques. En conclusion, nos études ont révélé que la TL1A n’est pas essentielle pour maintenir les fonctions du système immunitaire dans des conditions normales. En revanche, il joue un rôle critique dans la pathogenèse de la PR en favorisant l'inflammation locale et la réponse humorale contre des auto-antigènes. Par conséquent, une inhibition de la TL1A pourrait être une stratégie thérapeutique pour le traitement de la PR. Au contraire, Pno1 est essentiel pour la fonction normale des cellules. Une délétion totale pourrait entraîner des conséquences graves. Il n’est pas une cible appropriée pour développer des médicaments de la PR.
Resumo:
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.
Resumo:
À l’instar de plusieurs systèmes de santé, les centres hospitaliers québécois ont amorcé l’informatisation du dossier patient sous forme papier pour la transition vers un dossier clinique informatisé (DCI). Ce changement complexe s’est parfois traduit par des répercussions sur les pratiques de soins, la sécurité et la qualité des soins offerts. L’adoption de la part des utilisateurs de technologies de l’information (TI) est considérée comme un facteur critique de succès pour la réalisation de bénéfices suite au passage à un DCI. Cette étude transversale multicentrique avait pour objectifs d’examiner des facteurs explicatifs de l’adoption, de l’utilisation réelle d’un DCI, de la satisfaction des infirmières et de comparer les résultats au regard du sexe, de l’âge, de l’expérience des infirmières et des stades de déploiement du DCI. Un modèle théorique s’appuyant sur la Théorie unifiée de l’adoption et de l’utilisation de la technologie a été développé et testé auprès d’un échantillon comptant 616 infirmières utilisant un DCI hospitalier dans quatre milieux de soins différents. Plus particulièrement, l’étude a testé 20 hypothèses de recherche s’intéressant aux relations entre huit construits tels la compatibilité du DCI, le sentiment d’auto-efficacité des infirmières, les attentes liées à la performance, celles qui sont liées aux efforts à déployer pour adopter le DCI, l'influence sociale dans l’environnement de travail, les conditions facilitatrices mises de l’avant pour soutenir le changement et ce, relativement à l’utilisation réelle du DCI et la satisfaction des infirmières. Au terme des analyses de modélisation par équations structurelles, 13 hypothèses de recherche ont été confirmées. Les résultats tendent à démontrer qu’un DCI répondant aux attentes des infirmières quant à l’amélioration de leur performance et des efforts à déployer, la présence de conditions facilitatrices dans l’environnement de travail et un DCI compatible avec leur style de travail, leurs pratiques courantes et leurs valeurs sont les facteurs les plus déterminants pour influencer positivement l’utilisation du DCI et leur satisfaction. Les facteurs modélisés ont permis d’expliquer 50,2 % de la variance des attentes liées à la performance, 52,9 % des attentes liées aux efforts, 33,6 % de l’utilisation réelle du DCI et 54,9 % de la satisfaction des infirmières. La forte concordance du modèle testé avec les données de l’échantillon a notamment mis en lumière l’influence des attentes liées à la performance sur l’utilisation réelle du DCI (r = 0,55 p = 0,006) et sur la satisfaction des infirmières (r = 0,27 p = 0,010), des conditions facilitatrices sur les attentes liées aux efforts (r = 0,45 p = 0,009), de la compatibilité du DCI sur les attentes liées à la performance (r = 0,39 p = 0,002) et sur celles qui sont liées aux efforts (r = 0,28 p = 0,009). Les nombreuses hypothèses retenues ont permis de dégager l’importance des effets de médiation captés par le construit des attentes liées à la performance et celui des attentes liées aux efforts requis pour utiliser le DCI. Les comparaisons fondées sur l’âge, l’expérience et le sexe des répondants n’ont décelé aucune différence statistiquement significative quant à l’adoption, l’utilisation réelle du DCI et la satisfaction des infirmières. Par contre, celles qui sont fondées sur les quatre stades de déploiement du DCI ont révélé des différences significatives quant aux relations modélisées. Les résultats indiquent que plus le stade de déploiement du DCI progresse, plus on observe une intensification de certaines relations clés du modèle et une plus forte explication de la variance de la satisfaction des infirmières qui utilisent le DCI. De plus, certains résultats de l’étude divergent des données empiriques produites dans une perspective prédictive de l’adoption des TI. La présente étude tend à démontrer l’applicabilité des modèles et des théories de l’adoption des TI auprès d’infirmières œuvrant en centre hospitalier. Les résultats indiquent qu’un DCI répondant aux attentes liées à la performance des infirmières est le facteur le plus déterminant pour influencer positivement l’utilisation réelle du DCI et leur satisfaction. Pour la gestion du changement, l’étude a relevé des facteurs explicatifs de l’adoption et de l’utilisation d’un DCI. La modélisation a aussi mis en lumière les interrelations qui évoluent en fonction de stades de déploiement différents d’un DCI. Ces résultats pourront orienter les décideurs et les agents de changement quant aux mesures à déployer pour optimiser les bénéfices d’une infostructure entièrement électronique dans les systèmes de santé.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Le développement de la nutrigénétique/nutrigénomique (NGx) a suscité de nombreuses attentes puisque les retombées qui lui sont associées s’avèrent potentiellement bénéfiques autant pour les individus en santé que pour les individus malades. De grandes attentes avaient également été associées au Projet de décryptage du Génome Humain (PGH). Aujourd’hui, seules quelques attentes de celles envisagées se sont concrétisées. Le PGH a donc évolué dans un contexte marqué par du biohype, soit la promotion d’attentes exagérées, voir irréalistes. Étant donné l’importance des attentes associées avec le développement de la NGx et des limites méthodologiques auxquelles fait encore face la recherche clinique conduite dans ce domaine, l’objectif principal de cette thèse est de déterminer si les publications scientifiques rapportant des résultats de recherches cliniques effectuées en NGx contribuent à l’émergence d’un phénomène de biohype. Plus spécifiquement, il s’agira également de documenter la perception des chercheurs oeuvrant dans le domaine de la NGx du phénomène de biohype, d’identifier certains facteurs qui pourraient expliquer son émergence dans la littérature scientifique propre à ce domaine et de proposer des pistes d’actions pour limiter les risques associés à ce phénomène. Nous avons tout d’abord procédé à une analyse documentaire d’articles scientifiques rapportant des résultats issus de recherches cliniques en NGx. Celle-ci nous a révélé que plusieurs bénéfices étaient promus dans cette littérature alors même que les limites méthodologiques n’étaient pas d’emblée présentées et discutées. Cette observation nous portait à croire que ces bénéfices étant potentiellement prématurés. Nous avons ensuite voulu valider notre constat auprès des chercheurs œuvrant principalement dans le domaine de la NGx. Cette enquête nous a permis de constater que les chercheurs étaient généralement en accord avec les bénéfices que nous avons recensés dans les articles scientifiques. Toutefois, ils n’envisageaient pas leur concrétisation à moyen terme. Par ailleurs, cette enquête nous a également révélé que les limitations méthodologiques actuellement rencontrées dans la conduite de recherches cliniques soulevaient des doutes quant à la faisabilité des bénéfices promut dans les articles scientifiques. Ces données viennent confirmer notre observation à savoir qu’un phénomène de biohype serait réellement en émergence dans les articles scientifiques rapportant des résultats de recherches cliniques en NGx. Outre des informations concernant les publics ciblés par les chercheurs et les éléments que doivent contenir un article scientifique, cette enquête nous a également aidés à mieux comprendre les avantages associés à la promotion de bénéfices. Selon la majorité des chercheurs interrogés, la promotion de bénéfices dans un article scientifique augmenterait les chances d’un manuscrit d’être publié et favoriserait la continuité du financement du domaine de recherche. Cette activité étant caractérisée par un environnement compétitif, la promotion de bénéfices semble être une avenue à envisager pour se démarquer. Quoique la promotion de bénéfices prématurés ou exagérés ne soit pas considérée comme de l’inconduite scientifique, elle peut causer entre autres un affaiblissement du sentiment de confiance entre le public et les chercheurs et ultimement, contrevenir à la continuité d’une saine activité de recherche. À la lumière de ces données, nous croyons qu’une des stratégies qui permettrait de prévenir l’apparition des risques associés au phénomène de biohype serait de sensibiliser les chercheurs et les éditeurs de journaux scientifiques à ces derniers. Plus particulièrement, nous encourageons l’intégration de lignes directrices portant sur la gestion du biohype dans les codes de conduites qui ont été mis en place pour favoriser les bonnes pratiques en recherche.