1000 resultados para devis mixte séquentiel exploratoire
Resumo:
Cette thèse s’interroge sur le phénomène du jeune téléspectateur contemporain. Je questionne cette « réalité », qui fait l’objet de discours et de pratiques sociales au quotidien. L’idée de l’existence « objective » de l’enfant téléspectateur depuis l’avènement de la télévision est si fertile, qu’elle a même contribué au développement d’un sous-domaine de recherche en communication : la communication jeunesse. J’inclus également ce sous-domaine dans la problématique. Ce faisant, je tente d’esquisser une théorisation de l’enfant téléspectateur, en le comprenant comme une formation discursive et sociale. Suivant le point de vue de l’analyse de discours de Michel Foucault (1969), j’axe son étude en articulant deux éléments qui forment les objets sociaux : le régime de vérité et les formations discursives. Ainsi, je réfléchis au jeune téléspectateur comme objet de savoir et de vérité, et comme fruit d’un ensemble de formations discursives. J’ancre empiriquement le questionnement du jeune téléspectateur contemporain dans le Chili « post-1990 ». Je propose une approche méthodologique et analytique me permettant de rendre compte de l’articulation d’éléments hétérogènes qui participent au façonnement discursif et social de celui-ci. Cet outil exploratoire est « le rhizome », que j’emprunte à Gilles Deleuze et à Félix Guattari (1976). Le rhizome m’est utile pour rendre compte des multiples portes d’entrée dans la formation discursive de l’enfant téléspectateur, du déplacement comme chercheuse à l’intérieur de celle-ci, et des figures qui se forment par l’articulation du discours et des pratiques entreprises à son égard. Ce faisant, je propose une archive d’époque de l’enfant téléspectateur du Chili « post-1990 ». Dans celle-ci, je montre des modalités particulières de sa formation discursive et des figures hétéroclites de celui-ci qui ont émergé dans les analyses. Finalement, je présente un ensemble de pratiques discursives qui ont également fait surface dans les analyses. Ces pratiques emploient la figure de l’enfant téléspectateur pour instaurer discursivement d’autres « réalités », qui ne le concernent pas directement. M’appuyant sur Jean-Michel Berthelot (1992), notamment sur son concept d’« opérateur discursif », je qualifie ainsi ces pratiques observées.
Resumo:
Au cours des dernières années, les pratiques de l’évaluation comme aide à l’apprentissage (c’est-à-dire l’auto-évaluation, l’évaluation par les pairs, la rétroaction) dans la salle de classe ont été de plus en plus considérées comme des éléments essentiels (Black & Wiliam, 1998; Harlen & Winter, 2004; van de Watering & van der Rijt, 2006). Cependant, dans le domaine de l’apprentissage d’une langue seconde la recherche sur ce sujet est plutôt limitée. En nous fondant sur les études de Colby-Kelly et Turner (2007) et de Lyster et Ranta (1997), nous avons mené une recherche exploratoire visant à combler ce besoin. L’objectif général était de comprendre comment l’évaluation formative se réalise dans deux cours d’anglais intermédiaire à l’Université de Montréal, et de comparer comment ces pratiques sont perçues et vécues par la professeure et ses étudiants. Trois questions de recherche étaient posées: 1. Quelle est la nature de l’évaluation formative dans une salle de classe d’anglais langue seconde? 2. Est-ce que les pratiques de la professeure reflètent ce qu’elle pense de l’évaluation formative? 3. Quels sont les correspondances et différences entre les croyances de la professeure et les perceptions de ses étudiants quant aux bénéfices de l’évaluation formative pour l’apprentissage de l’anglais langue seconde? La collecte de données comprend des observations en classe, des entrevues auprès de la professeure et des questionnaires pour les étudiants. Pour répondre à notre première question de recherche, nous avons analysé la rétroaction donnée par la professeure pendant une production orale réalisée par ses étudiants à partir de la typologie de feedback et de uptake de l’étude de Lyster et Ranta (1997). En ce qui a trait à la deuxième question de recherche, nous avons fait des entrevues avec la professeure en vue d’expliciter ses perceptions relativement à l’évaluation formative. À la fin du trimestre, nous avons comparé ses réponses avec sa pratique à partir des enregistrements vidéo produits en classe. Finalement, pour répondre à notre dernière question de recherche nous avons comparé les réponses données par la professeure aux entrevues avec les réponses des étudiants à un questionnaire adapté à partir de celui de Colby-Kelly et Turner. Finalement, nous présentons et discutons les résultats les plus significatifs obtenus dans cette étude qualitative Nous concluons cette thèse en proposant de avenues pour des recherches futures.
Resumo:
L’exposition quotidienne aux polluants atmosphériques tels que le dioxyde de soufre, les particules fines (PM2.5) et l’ozone en milieu urbain sont associés à des effets néfastes sur la santé respiratoire des enfants. Des études épidémiologiques transversales rapportent des associations entre la pollution atmosphérique et des problèmes de santé respiratoires chez les enfants en milieu industriel telles que la prévalence de l’asthme et de l'hyperréactivité bronchique. Ces études épidémiologiques transversales ne permettent pas d’évaluer les effets sur la santé d’une exposition de courte durée. Peu d’études ont évalué les effets respiratoires des expositions aiguës chez les enfants à la pollution atmosphérique d’émissions industrielles. Dans ce mémoire, nous avons analysé l’association entre l’exposition journalière aux émissions d’une aluminerie et l’hospitalisation pour problèmes respiratoires (asthme, bronchiolite) chez les enfants de Shawinigan. Pour étudier ces effets des expositions aiguës, nous avons utilisé le devis épidémiologique de type « case-crossover » qui compare l’exposition lors des jours « cas » (jour d’hospitalisation) avec l’exposition lors des jours « contrôle » (exposition du même individu, les mêmes jours de la semaine, durant le même mois). Les variables d’exposition suivantes ont été calculées pour les enfants vivants dans un rayon de 7.5 km de l’industrie et pour ceux habitant à moins de 2.5 km de la station de mesure de polluants près de l’industrie : i) le nombre d’heures par jour durant lesquelles la résidence de chaque enfant recevait le panache de fumée de l’industrie. ii) les concentrations journalières de PM2.5 et de SO2 (moyenne et maximales) de la station de mesure des polluants localisée près de l’industrie. Des régressions logistiques conditionnelles ont été utilisées pour estimer les rapports de cotes (OR) et leurs intervalles de confiance à 95% (IC95%). Au total, 429 hospitalisations d’enfants pour asthme et bronchiolite ont été recensées pendant la période d’étude allant de 1999 à 2008. Le risque d’hospitalisations pour asthme et bronchiolite a augmenté avec l’augmentation du nombre d’heures d’exposition aux fumées de l’industrie, chez les enfants de moins de 5 ans. Pour les enfants de 2-4 ans, cette association était : OR : 1.27, pour un interquartile de 4.8 heures/jour; intervalle de confiance à 95%: 1.03-1.56. Des tendances moins prononcées sont notées avec les niveaux de SO2 et de PM2.5. Cette étude suggère que l’exposition journalière aux émissions industrielles identifiées par l’exposition horaire des vents venant de l’usine pourrait être associée à une exacerbation des problèmes respiratoires chez les jeunes enfants. De plus, l’effet plus prononcé avec la variable d’exposition basée sur les vents suggère un effet découlant des polluants autres que ceux mesurés (SO2 et PM2.5), possiblement comme les hydrocarbures aromatiques polycycliques (HAP).
Resumo:
Cette thèse de doctorat a été réalisée grâce à l'appui financier des fonds québécois de la recherche sur la société et la culture.
Resumo:
En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses. La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM. La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter. La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
Reposant sur un devis qualitatif, la présente recherche vise à comprendre les attitudes des bibliothécaires québécois vis-à-vis la liberté intellectuelle et la censure dans le contexte des bibliothèques publiques. Les données ont été colligées par le biais d’entrevues semi-structurées menées auprès de 11 bibliothécaires, dont six directeurs, responsables en tout ou en partie du développement des collections ainsi que de la gestion des plaintes relatives à l’offre documentaire. Les témoignages recueillis ont fait l’objet d’une analyse thématique. À l’instar des études antérieures ayant porté sur le sujet, la présente recherche a permis de constater qu’il existait un écart entre les attitudes des participants vis-à-vis la liberté intellectuelle en tant que concept et la liberté intellectuelle en tant qu’activité. Tout en étant en faveur de la liberté d’expression, les bibliothécaires étaient en accord, sous certaines circonstances, de mesures restrictives. Plus que des défenseurs de la liberté intellectuelle, les bibliothécaires seraient ainsi des gardiens du consensus social, ayant sans cesse à (re)négocier la frontière entre les valeurs individuelles et sociétales. L’analyse des données a également permis de révéler que les bibliothécaires québécois seraient moins activement engagés que leurs collègues canadiens et américains dans la lutte pour la défense et la promotion de la liberté intellectuelle. Ce faible engagement serait notamment lié à une importante variable culturelle. L’absence de lobbies religieux et le développement tardif des bibliothèques publiques ont en effet été identifiés comme deux facteurs qui auraient une influence sur l’engagement des bibliothécaires québécois en faveur de la liberté intellectuelle.
Resumo:
Introduction : Les pressions sont fortes envers les professionnels de la santé pour qu’ils appliquent une pratique factuelle. Toutefois, un écart important demeure entre les résultats des recherches et la réalité clinique. Par son aspect interactif, le Web 2.0 peut contribuer à l’application des données probantes en facilitant l’accès et l’échange de connaissances. Objectif : Ce projet de recherche s’inscrit dans une étude visant à élaborer une plateforme informatisée pour les professionnels travaillant avec la clientèle ayant subi un accident vasculaire cérébral (AVC). L’objectif de la présente étude est de décrire la perception des professionnels de la santé face à l’introduction du Web 2.0 dans leur pratique. Méthode : Un devis de recherche qualitatif avec une approche phénoménologique a été utilisé. Des entrevues individuelles semi-structurées ont été menées auprès de 24 professionnels et gestionnaires. Résultats : Les personnes interviewées étaient toutes des femmes avec un âge moyen de 45 ans (± 18). Le transfert des connaissances est l’utilité du Web 2.0 qui émerge des participants comme étant la plus importante. Les répondants ont également exprimé avoir besoin d'une plateforme conviviale. Les résultats soulignent également un paradoxe lié au temps. En effet, les répondants estiment que le Web 2.0 pourrait leur permettre de sauver du temps, cependant ils affirment qu'ils n'auront pas le temps de l'utiliser. Conclusion : Bien que le Web 2.0 demeure un outil de transfert de connaissances peu intégré dans la pratique, les professionnels travaillant avec la clientèle AVC perçoivent généralement positivement son introduction dans leur pratique.
Resumo:
Depuis les dernières années, la prévalence de personnes souffrant de dégénérescence des cartilages articulaires, communément appelée ostéoarthrite (OA), ne cesse d’augmenter. Les douleurs articulaires et les raideurs musculaires associées à cette pathologie mènent à des limitations des capacités fonctionnelles, à une perte de mobilité et d’autonomie affectant grandement la qualité de vie de ces personnes. Afin de soulager les personnes souffrant de cette pathologie, l’arthroplastie de la hanche est une procédure chirurgicale fréquemment utilisée. À la suite de cette chirurgie, une amélioration de la qualité de vie et une reprise des capacités fonctionnelles sont souvent observées. Cependant, comparativement à des sujets sains, la vitesse de marche est diminuée, une faiblesse des muscles abducteurs de la hanche est constatée et des mouvements compensatoires au niveau du tronc sont persistants. L’objectif de cette thèse est d’évaluer le patron locomoteur chez des patients qui subiront une arthroplastie de la hanche. Plus spécifiquement, les adaptations locomotrices pré et post-opératoires seront quantifiées dans le but d’apporter des modifications aux programmes de réhabilitation pour ainsi favoriser un patron locomoteur sans déficit. Afin de répondre à cet objectif, trois études distinctes ont été effectuées. Dans le cadre de la première étude, l’impact de l’implantation d’une prothèse totale de la hanche avec une tête fémorale de large diamètre et une prothèse de resurfaçage a été évalué par rapport aux sujets sains lors de la locomotion. Au cours de cette étude, le contrôle du tronc a été analysé en utilisant la distance entre le centre de masse corporel et le centre articulaire de la hanche opérée. Suite aux résultats obtenus, aucune différence majeure n’existe entre les deux types de prothèses en ce qui a trait au contrôle du tronc et ce, à un an post-opératoire. Lors de la deuxième étude, la symétrie des paramètres biomécaniques des membres inférieurs lors de la locomotion chez des patients ayant bénéficié de l’implantation d’une prothèse de la hanche a été caractérisée suite à un programme d’exercices péri-opératoires (pré et post-opératoire). Lors de cette étude, le programme d’exercices péri-opératoires était complémentaire au protocole de réadaptation du centre hospitalier. D’après les résultats obtenus lors de cette étude exploratoire, ce programme d’exercices péri-opératoires semble permettre d’améliorer la symétrie de la puissance et du travail musculaire au niveau de la hanche, du genou et de la cheville favorisant ainsi un patron de marche avec de minimes compensations. Finalement, dans le cadre de la troisième étude, l’approche prédictive et l’approche fonctionnelle, utilisées pour localiser le centre articulaire de la hanche, ont été comparées aux mesures radiographiques, chez des patients à la suite d’un remplacement articulaire de la hanche. À la suite de cette étude, les résultats démontrent que l’utilisation de l’approche fonctionnelle est plus appropriée chez des patients ayant bénéficié d’une arthroplastie de la hanche. En effet, cette approche individualisée est plus précise ce qui, par conséquent, permettra d’obtenir des résultats de plus grande qualité lors d’analyses biomécaniques de la locomotion.
Resumo:
Dans la présente recherche, nous nous sommes penchés sur le processus du transfert intra-organisationnel de connaissances au sein d’entreprises multinationales (EM). Partant du triple constat suivant : les connaissances organisationnelles constituent un avantage stratégique (Barney, 1991 ; Bartlett et Ghoshal, 1998), les transferts intra-organisationnels constituent la raison d’être des EM (Gupta et Govindarajan, 2000), lesquelles ont accès à un vaste bassin de connaissances disséminées à travers le monde par le biais de leurs filiales et les mécanismes organisationnels internes sont plus efficaces que ceux du marché (Williamson, 1987 ; Casson, 1976) pour transférer des connaissances entre unités organisationnelles; nous nous sommes intéressés aux facteurs pouvant affecter l’efficacité de ce processus de transfert. Ayant identifié, lors de notre revue des écrits théoriques, une multitude d’approches permettant d’appréhender ce phénomène, nous proposons, dans notre recherche, un modèle théorique intégrant les trois étapes propres au processus de transfert, soit : la détermination des connaissances à transférer, la sélection des mécanismes de transfert appropriés et, finalement, l’évaluation, d’une part, de l’efficacité des transferts et, d’autre part, de l’ensemble des facteurs contextuels ayant un impact sur l’efficacité de ce processus. Sur le plan théorique, cette recherche oppose deux courants dominant ce champ disciplinaire. L’approche stratégique, exprimée par la théorie des ressources, met l’accent sur l’importance prépondérante des facteurs organisationnels internes sur l’efficacité de toute action organisationnelle (Bartlett et Ghoshal, 1998 ; Barney, 1991). Cette approche s’oppose au courant institutionnel, lequel considère plutôt que les choix et les actions organisationnels sont surtout conditionnés par les contraintes de l’environnement externe (Ferner, 1997; Kostova, 1999; Scott, 1991). Les résultats de notre recherche démontrent que, malgré l’existence de contraintes de nature institutionnelle et culturelle, l’efficacité du processus de transfert des connaissances associées à la gestion des ressources humaines relève davantage des conditions organisationnelles internes et, plus particulièrement, de l’implication de la haute direction, du rôle accordé à la fonction RH et de l’alignement entre la stratégie corporative, la stratégie RH et la culture organisationnelle. Sur le plan méthodologique, il s’agit d’une recherche exploratoire qualitative menée auprès de trois EM (2 canadiennes et 1 française) oeuvrant dans les secteurs de la métallurgie et des télécommunications. Les données empiriques proviennent de 17 entrevues approfondies que nous ont accordées, au Canada, en France, en Allemagne et en Suisse des cadres responsables de la gestion des ressources humaines, affectés au siège social des EM en question ou œuvrant au sein de leurs filiales, et de sources documentaires secondaires.
Resumo:
Cette thèse s'intéresse au lien qui existe entre le système électoral et deux comportements importants de la vie civique, soit la participation à une élection et la désertion stratégique du candidat préféré vers un autre candidat. Ces thèmes sont abordés dans de nombreux et de très importants ouvrages en science politique. En passant par la théorie (Downs, 1957) jusqu'à des études de terrain par l'entremise de sondages (Abramson, 2010; Blais, 2010), diverses méthodologies ont été employées pour mieux expliquer les choix des électeurs. Ma contribution à l'avancement des connaissances dans ce domaine passe par l'usage de la méthode expérimentale pour mieux saisir les similitudes et différences dans les comportements des électeurs sous le système uninominal à un tour (UT) et la représentation proportionnelle (RP) ainsi que les mécanismes au niveau individuel qui produisent ces similitudes et différences. Le cœur de la thèse est composé des trois articles dont voici les résumés : Article 1. Des élections expérimentales faites à Montréal, Paris et Bruxelles permettent d'estimer l’influence directe du mode de scrutin sur la décision des électeurs de voter ou non, et de voter pour leur parti préféré ou non. En tout, 16 groupes de 21 électeurs votent sous différents systèmes électoraux, soit le UT et la RP. Les préférences sont attribuées aléatoirement et connues de tous les participants. Nos résultats indiquent que le vote n'est pas globalement plus sincère et que la participation électorale n'est pas plus élevée sous le système proportionnel. Toutefois, nous observons moins de désertion d'un petit parti sous le système proportionnel. Article 2. Les expériences permettent également d'expliquer pourquoi les électeurs votent parfois pour un parti autre que leur parti préféré. La conclusion principale est que la décision de voter de façon sincère ou non est influencée par les préférences individuelles, mais aussi par les perceptions des chances de gagner des candidats ainsi que des chances que son propre vote puisse décider le résultat de l'élection. Les électeurs qui désertent leur premier choix prennent en considération quel candidat est le plus près de leurs positions politiques, mais également de la viabilité de cette alternative. De plus, les électeurs qui aiment prendre des risques ont davantage tendance à déserter. Article 3. Le modèle de l'électeur pivot est mis à l'épreuve pour mieux comprendre la décision de voter ou non lors d'une élection. Nos expériences permettent de répliquer, avec un devis expérimental différent, les résultats importants des travaux de Duffy et Tavits (2008). Nos résultats confirment que la perception d'être pivot augmente la participation, que ces perceptions sont sujettes à la surestimation et que cette surestimation ne décline pas complètement dans le temps. Nous allons également plus loin que les recherches de Duffy et Tavits et nous trouvons que la participation n'est pas plus forte sous RP que sous UT et que la probabilité d'être pivot a un impact plus important chez les électeurs évitant de prendre des risques.
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.