1000 resultados para modèle à risques concurrents
Resumo:
Nous avons développé un modèle qui cherche à identifier les déterminants des trajectoires scolaires des élèves universitaires en articulant deux perspectives théoriques et en utilisant une approche méthodologique mixte en deux phases : quantitative et qualitative. La première phase est basée sur le modèle de Tinto (1992) avec l'incorporation d'autres variables de Crespo et Houle (1995). Cette étape a atteint deux objectifs. Dans le premier, on a identifié les différences entre les variables exogènes (indice économique, l'éducation parentale, moyen au lycée et moyenne dans l’examen d'entrée) et trois types de trajectoires: la persévérante, de décalage et d’abandon. Cette phase était basée sur les données d'un sondage administré à 800 étudiants à l'Université de Sonora (Mexique). Les résultats montrent que ceux qui ont quitté l'institution ont obtenu des scores significativement plus bas sur les variables exogènes. Le deuxième objectif a été atteint pour les trajectoires persévérantes et de décalage, en établissant que les étudiants ont une plus grande chance d’être persévérants lorsqu’ils présentent de meilleurs scores dans deux variables exogènes (l'examen d'entrée et être de genre féminin) et quatre viable endogènes (haute intégration académique, de meilleures perspectives d'emploi, ont une bourse). Dans la deuxième phase nous avons approfondi la compréhension (Verstehen) des processus d'articulation entre l'intégration scolaire et sociale à travers de trois registres proposés par Dubet (2005): l'intégration, le projet et la vocation. Cette phase a consisté dans 30 interviews avec étudiantes appartenant aux trois types de trajectoire. À partir du travail de Bourdages (1994) et Guzman (2004), nous avons cherché le sens de l'expérience attribuée par les étudiants au processus éducatif. Les résultats révèlent cinq groupes d’étudiantes avec des expériences universitaires identifiables : ceux qui ont une intégration académique et sociale plus grande, les femmes travailleuses intégrées académiquement, ceux qui ont les plus grandes désavantages économiques et d’intégration scolaire, ceux qui ont cherché leur vocation dans un autre établissement et ceux qui n'ont pas poursuivi leurs études. L'utilisation de différents outils statistiques (analyse de corrélation, analyse de régression logistique et analyse des conglomérats) dans la première phase a permis d’identifier des variables clés dans chaque type de trajectoire, lesquelles ont été validées avec les résultats de la phase qualitative. Cette thèse, en plus de montrer l'utilité d'une approche méthodologique mixte, étend le modèle de Tinto (1987) et confirme l'importance de l'intégration scolaire pour la persévérance à l'université.
Resumo:
Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)
Resumo:
Dans les sphères du développement durable, des modèles d’affaires et du design de produit, certains leviers rendent le croisement de ces trois sphères de plus en plus pertinent. Au croisement de ces trois sphères se trouve une opportunité de comprendre les relations existantes entre le design de produit et les modèles d’affaires afin d’aider les décideurs à développer des solutions davantage durables. L’approche méthodologique de cette recherche utilise un système complexe et est basée sur un paradigme pragmatique. En vue de répondre à la question « Dans quelle mesure des modèles d’affaires et le design de produit sont liés dans un contexte de développement durable? », cette recherche a soigneusement analysé trois cas: Better Place, une compagnie californienne ayant développé une infrastructure permettant le chargement des voitures électriques; Interface Inc., un manufacturier mondial de tuiles de tapis commerciales établi à Atlanta; et Métacycle, un concept d’entreprise développé par une équipe de chercheurs en design à Montréal. Chaque cas a été analysé en corrélant des aspects du design de produit à des éléments de leur modèle d’affaires. Les résultats montrent que dans le contexte du développement durable, le design de produit et les modèles d’affaires sont interdépendants. Les résultats peuvent être résumés en six points: il existe des relations applicables universellement; les innovations de design substantielles jouent un rôle important dans le développement durable; la « durabilité » peut être une qualité émergente d’un modèle d’affaires; les partenariats peuvent être vitaux pour l’intégration des systèmes; un modèle de services a des bénéfices et des limitations considérables; le design peut agir comme levier à l’utilisation d’énergies renouvelables. Pratiquer simultanément l’innovation du modèle d’affaires et du produit peut apporter une valeur ajoutée, susciter des opportunités et augmenter l’efficience sur plusieurs facettes. Toutefois, les risques et les coûts de tels procédés sont souvent très élevés. En aidant à comprendre et définir comment les trois sphères mentionnées plus tôt sont interdépendantes, cette recherche pourrait idéalement inspirer des recherches supplémentaires sur le sujet. L’application par des organisations de la méthodologie et des apprentissages résultant de cette recherche peut permettre à d’autres d’utiliser le croisement entre l’innovation de produit et l’innovation du modèle d’affaires afin de résoudre des enjeux sociaux et environnementaux complexes.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
La transplantation allogénique de cellules souches hématopoïétiques est une technique très efficace pour traiter différents cancers du sang. Malheureusement la réaction du greffon contre l’hôte (GVHD) demeure la cause principale de morbidité et de mortalité post-greffe. La GVHD entraîne une diminution de la reconstitution immunitaire ce qui accentue considérablement l’immunosuppression associée à ce traitement et de ce fait augmente les risques d’infection et de rechute. Notre laboratoire a démontré précédemment que les niveaux élevés d’IL-7 dans des hôtes lymphopéniques interféraient avec la capacité des cellules dendritiques (DC) à soutenir la prolifération homéostatique (PH) des lymphocytes T CD4+. Puisque les niveaux d’IL-7 sont aussi élevés dans un contexte de GVHD, nous avons émis l’hypothèse que la signalisation de l’IL-7 sur les DC pouvait contribuer à diminuer la reconstitution immunitaire des lymphocytes T CD4+. Pour répondre à cette question, nous avons utilisé le modèle murin de GVHD C57BL/6 (B6) dans B6D2F1. Afin de régénérer une niche hématopoïétique permissive à la PH des lymphocytes T CD4+, nous avons transplanté des souris B6D2F1 avec de la moelle osseuse de souris B6 IL-7Rα-/-. La GVHD a été induite en transférant des lymphocytes T B6 réactifs aux cellules B6D2F1. Dans les souris contrôles, la PH des lymphocytes T CD4+ est maintenue. Par contre, la PH est absente dans les souris en GVHD malgré la présence d’une niche périphérique qui ne répond pas à l’IL-7. L’absence de PH des lymphocytes T CD4+ durant la GVHD est associée à une diminution du nombre de DC. En utilisant un test de cytotoxicité in vivo nous démontrons que les DC B6 générées dans une hôte B6D2F1 sont éliminées par les lymphocytes T B6 alloréactifs. En conclusion, nos résultats démontrent que l’immunosuppression associée à la GVHD est en partie causée par une élimination des DC par les lymphocytes T allogéniques. Nous postulons donc que la perte des DC, et non la signalisation de l’IL-7 sur les DC, est le facteur limitant la PH des lymphocytes T CD4+ durant la GVHD.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.
Resumo:
But : La radiothérapie (RT) est disponible seulement dans les grandes villes au Québec. Les patients atteints de cancer vivant en zone rurale doivent voyager pour obtenir ces soins. Toute proportion gardée, moins de ces patients accèdent à la RT. L’accessibilité serait améliorée en instaurant de petits centres de RT qui dépendraient de la télémédecine (téléRT). Cette étude tente (1) de décrire un modèle (population visée et technologie) réaliste de téléRT; (2) d’en estimer les coûts, comparativement à la situation actuelle où les patients voyagent (itineRT). Méthode : (1) À l’aide de données probantes, le modèle de téléRT a été développé selon des critères de : faisabilité, sécurité, absence de transfert des patients et minimisation du personnel. (2) Les coûts ont été estimés du point de vue du payeur unique en utilisant une méthode publiée qui tient compte des coûts en capitaux, de la main d’oeuvre et des frais généraux. Résultats : (1) Le modèle de téléRT proposé se limiterait aux traitements palliatifs à 250 patients par année. (2) Les coûts sont de 5918$/patient (95% I.C. 4985 à 7095$) pour téléRT comparativement à 4541$/patient (95%I.C. 4351 à 4739$) pour itineRT. Les coûts annuels de téléRT sont de 1,48 M$ (d.s. 0,6 M$), avec une augmentation des coûts nets de seulement 0,54 M$ (d.s. 0,26 M$) comparativement à itineRT. Si on modifiait certaines conditions, le service de téléRT pourrait s’étendre au traitement curatif du cancer de prostate et du sein, à coûts similaires à itineRT. Conclusion : Ce modèle de téléRT pourrait améliorer l’accessibilité et l’équité aux soins, à des coûts modestes.
Resumo:
Ce travail contribue au champ d’études sur l’adoption de politique publique des États américains en étudiant quantitativement leurs réactions à l’enjeu du réchauffement climatique. Suivant l’approche des déterminants internes, des facteurs économiques, politiques et environnementaux sont utilisés pour expliquer la densité réglementaire étatique limitant la production de gaz à effet de serre. La variable dépendante constitue la principale contribution de ce travail puisqu’elle incarne une revue exhaustive des options législatives adoptées par les États américains et les regroupe en six catégories. Les déterminants internes identifiés permettent d’expliquer pourquoi certains États sont des instigateurs ou des retardataires dans le dossier du réchauffement climatique. Les principaux facteurs explicatifs sont la présence d’une population idéologiquement libérale et de groupes d’intérêts environnementaux forts.
Resumo:
Cette thèse porte sur la perception du risque sous terre. Nous voulons comprendre comment les mineurs de fond de la région de l’Abitibi-Témiscamingue au Québec perçoivent les risques inhérents à leur métier et comment ils y réagissent. L’organisation du travail, le fonctionnement d’une mine souterraine et les rapports de production sous terre retiennent d’abord notre attention. Le concept de risque représente un concept relativement jeune qui a intéressé de nombreux auteurs. Un tour d’horizon des diverses approches nous permettra de définir ce concept en nous appuyant plus spécialement sur les travaux de Mary Douglas. Cependant, nous avons conduit notre enquête à partir d’un cadre théorique se fondant principalement sur la sociologie de Pierre Bourdieu. Notre hypothèse défend l’idée que dans leur perception du risque, les mineurs de fond de l’Abitibi-Témiscamingue font montre d’un sens pratique qui repose surtout sur la prise en charge individuelle de la sécurité, le rapport à la prime de rendement et un certain sentiment de l’inéluctabilité du danger. Vingt entrevues semi-dirigées et la technique classique de l’observation participante ont servi à la collecte de données. L’analyse des récits de travail a donné lieu à une typologie distinguant trois groupes de mineurs. Nous avons préalablement décortiqué chacun des récits afin de dégager un modèle de base. Les résultats de l’analyse nous obligent à réviser notre hypothèse initiale et à ne pas conclure trop rapidement au fatalisme des mineurs de fond témiscabitibiens.
Resumo:
La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.
Resumo:
Depuis le début des années 90, le projet génome humain a permis l’émergence de nombreuses techniques globalisantes porteuses du suffixe –omique : génomique, transcriptomique, protéomique, épigénomique, etc.… L’étude globale de l’ensemble des phénotypes humains (« phénome ») est à l’origine de nouvelles technologies constituant la « phénomique ». L’approche phénomique permet de déterminer des liens entre des combinaisons de traits phénomiques. Nous voulons appliquer cette approche à l’étude des malformations humaines en particulier leurs combinaisons, ne formant des syndromes, des associations ou des séquences bien caractérisés que dans un petit nombre de cas. Afin d’évaluer la faisabilité de cette approche, pour une étude pilote nous avons décidé d’établir une base de données pour la description phénotypique des anomalies foetales. Nous avons effectué ces étapes : o Réalisation d’une étude rétrospective d’une série d’autopsies de foetus au CHU Sainte- Justine (Montréal, QC, Canada) entre 2001-2006 o Élaboration de trois thésaurus et d’une ontologie des anomalies développementales humaines o Construction une base de données en langage MySQL Cette base de données multicentrique accessible sur (http://www.malformations.org), nous permet de rechercher très facilement les données phénotypiques des 543 cas observés porteurs d’une anomalie donnée, de leur donner une description statistique et de générer les différents types d’hypothèses. Elle nous a également permis de sélectionner 153 cas de foetus malformés qui font l’objet d’une étude de micropuce d’hybridation génomique comparative (aCGH) à la recherche d’une anomalie génomique.
Resumo:
La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal