905 resultados para Biais de confusion
Resumo:
Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
À la lumière de la théorie de l’identité narrative élaborée par Paul Ricœur, ce mémoire évoque la configuration identitaire des personnages dans les œuvres Cosmos et Les envoûtés de W. Gombrowicz, ainsi que To the Lighthouse et The Waves de V. Woolf. D’une part, nous analyserons l’obsession d’une mise en série aliénante dans le cas de Witold (Cosmos), suivi par un cas de dédoublement et de perte dans l’Autre chez Walczak (Les envoûtés). D’autre part, nous évoquerons le rapport à la famille (James Ramsay) en plus de l’inscription et de l’ancrage par le biais d’éléments prépondérants (The Waves). Il en résulte chez ces personnages, la conception d’une identité par l’entremise d’histoires et d’événements qui la façonnent en un parcours narratif singulier.
Resumo:
Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-delà de l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.
Resumo:
À l’heure où nous écrivons, l’ONU enregistre 33 million de personnes touchées par le VIH/Sida. Dans les perspectives actuelles de lutte contre la propagation de la pandémie, plusieurs moyens peuvent être mis en place : utilisation du condom, dépistage, échange de seringues, abstinence… Mais une question se pose : quels éléments nous influencent dans l’utilisation d’une telle ou telle pratique? Faisant usage des stratégies de marketing social, les campagnes de prévention contre le VIH/Sida mettent l’emphase sur l’empowerment des individus face à leur prise de risque. Par ce biais, on tente de changer certains comportements et d’en adopter de nouveaux plus sécuritaires pour la santé. Nous avons évalué ici trois (3) campagnes de prévention contre le VIH/Sida à Montréal. Le but de cette recherche a été de distinguer les éléments pouvant faciliter la planification des campagnes dans une perspective de diminution de l’incidence du VIH/Sida. Lors de la prise de décisions concernant l'évaluation d'une campagne de prévention de lutte contre le VIH/Sida, plusieurs points fondamentaux sont à considérer : la source de l’information, le message, le canal utilisé, les caractéristiques du récepteur et l’effet désiré par la campagne. Ces aspects sont primordiaux dans la prise de conscience de la campagne. Mais attention, ce type d'évaluation n'est pas conçu pour en démontrer son efficacité. Notre étude nous confirme l’importance de l’évaluation des campagnes de prévention aux différents stades de leurs conceptions. Cette recherche nous pousse à connaître les détails du programme de prévention et ainsi avoir une bonne compréhension du déroulement de l'intervention dans une perspective future d’en expliquer l’efficacité
Resumo:
Les effets de la marijuana, un médicament utilisé par l’homme depuis des millénaires, sur le système visuel sont peu connus. Une meilleure connaissance de la distribution du système endocannabinoïde (eCB) de la rétine pourrait expliquer comment cette drogue affecte la vision. Cette étude vise à caractériser la distribution du récepteur cannabinoïde CB1 (CB1R) et de l’enzyme de dégradation FAAH (“fatty acid amide hydrolase”) des ligands du CB1R dans la rétine du singe Vert (Chlorocebus sabaeus). De plus, elle vise à déterminer quelles sous-populations cellulaires de la rétine expriment ces composantes. La plupart des études à ce jour ont été conduites surtout sur les rongeurs et peu de travaux ont été réalisés chez le singe. Notre étude vient donc combler cette carence. Par le biais de méthodes immunohistochimiques, nous avons investigué la localisation du CB1R et de l’enzyme FAAH à différentes excentricités rétiniennes, de la fovéa centralis vers la périphérie. Nos résultats, en accord avec notre hypothèse de travail, démontrent que CB1R et FAAH sont exprimés à travers toute la rétine mais avec, cependant, des différences notoires. Au niveau de la couche des photorécepteurs, CB1R est exprimé préférentiellement dans les cônes et ce patron d’expression suit la distribution des photorécepteurs centre-périphérie. De plus, CB1R se retrouve surtout dans les pédicules des cônes de la couche plexiforme externe. CB1R et FAAH sont abondants dans les cellules bipolaires tant au centre qu’en périphérie. Le soma et l’axone des cellules ganglionnaires expriment aussi CB1R et FAAH. Ces données suggèrent que le système eCB est présent à travers toute la rétine du primate et pourrait expliquer les perturbations visuelles entrainées par la marijuana, telles la photosensibilité et la vision des couleurs.
Resumo:
Cette étude teste l’hypothèse que le remodelage osseux dans le deuxième métacarpe peut être utilisé pour estimer l’âge à la mort. Les métacarpes utilisés dans cette analyse proviennent d’un cimetière d’Ontario, incluant des individus d’origine européenne (n=63; 34 hommes; 29 femmes). Leur âge varie de 19 à 61 ans (moyenne: 41,1±11,6). L’âge était connu ou a été estimé indépendamment à partir de la morphologie générale du squelette. À partir de lames minces coupées à la mi-diaphyse, la densité de population des ostéons (OPD; ostéons/mm2 intacts et fragmentaires) a été calculée pour huit colonnes du périoste à l’endoste, deux par quadrant anatomique. Les régressions par calibration classique ont produit une série d’équation pour les estimations de l’âge pour chaque sexe, sexes combinés, et en fonction de la latéralité. La méthode utilisée diminue l’efficacité des estimations mais elle a l’avantage de réduire les biais. Quand les sexes sont combinés, l’OPD est corrélé modérément mais significativement avec l’âge (droit r2= 0,35; gauche r2=0,28). Cependant, quand les hommes et les femmes sont analysés séparément, la corrélation entre l’OPD et l’âge dans l’échantillon féminin est meilleure (droit r2=0,48; gauche r2=0,39) alors que celle des hommes est réduite (droit r2=0,29; gauche r2=0,22). Ce résultat a déjà été observé dans d’autres études, mais n’est pas expliqué. Les résultats démontrent aussi une meilleure corrélation entre l’OPD et l’âge du côté droit que du côté gauche. Tous les résultats présentés ici supportent l’hypothèse que l’OPD du métacarpe est corrélé avec l’âge effectif (c’est-à-dire connu ou estimé), les régressions de l’OPD sur l’âge (droit-gauche combinés ou séparés, sexes combinés ou séparés) étant toutes significatives.
Resumo:
Les antipatrons sont de “mauvaises” solutions à des problèmes récurrents de conception logicielle. Leur apparition est soit due à de mauvais choix lors de la phase de conception soit à des altérations et des changements continus durant l’implantation des programmes. Dans la littérature, il est généralement admis que les antipatrons rendent la compréhension des programmes plus difficile. Cependant, peu d’études empiriques ont été menées pour vérifier l’impact des antipatrons sur la compréhension. Dans le cadre de ce travail de maîtrise, nous avons conçu et mené trois expériences, avec 24 sujets chacune, dans le but de recueillir des données sur la performance des sujets lors de tâches de compréhension et d’évaluer l’impact de l’existence de deux antipatrons, Blob et Spaghetti Code, et de leurs combinaisons sur la compréhension des programmes. Nous avons mesuré les performances des sujets en terme : (1) du TLX (NASA task load index) pour l’éffort ; (2) du temps consacré à l’exécution des tâches ; et, (3) de leurs pourcentages de réponses correctes. Les données recueillies montrent que la présence d’un antipatron ne diminue pas sensiblement la performance des sujets alors que la combinaison de deux antipatrons les entrave de façon significative. Nous concluons que les développeurs peuvent faire face à un seul antipatron, alors que la combinaison de plusieurs antipatrons devrait être évitée, éventuellement par le biais de détection et de réusinage.
Resumo:
RÉSUMÉ « De nos jours, notent Samoff et Carrol, la Banque mondiale doit être considérée à la fois comme une banque, une agence de développement et un institut de recherche » (2004, p9). L’institution de Bretton Woods est en effet devenue notamment dans le cadre du développement des PED, à la fois une banque de prêt et une institution de savoir ; « le laboratoire d’idées sur le développement le plus important au monde », précisent Wilks et Lefrançois (2002). Cependant, si elle reste un partenaire idéologique et financier pour le développement de ces pays, la Banque mondiale est aussi en même temps dans le paysage des relations économiques internationales contemporaines une véritable superpuissance, une figure importante de la dominance mondiale d’aujourd’hui. Les programmes de développement qu’elle professe et met en œuvre dans les PED y sont de ce fait également les discours et pratiques de développement dominants. Mais le discours de développement de la Banque mondiale dans les PED, outre qu’il y soit le savoir dominant du développement, se veut aussi par ailleurs un discours d’érudition : un corps de connaissances savant de développement, qui dans sa formulation comme dans son contenu revendique l’appartenance à une certaine rationalité, vise à une certaine « scientificité ». Partant, la question autour de laquelle s’organise la présente thèse et qui est au cœur de sa problématique est la suivante : le programme de développement que la Banque mondiale destine aux PED dans sa dimension discursive en particulier, est-il pour autant rationnel et raisonnable ? En d’autres termes : de quel crédit scientifique et moral peut jouir ce programme; de quelle cohérence, de quel réalisme, et de quelle adéquation sociale, peut se prévaloir un tel système de pensées et d’actions de développement ? Mais interroger les bien-fondés épistémologiques de son programme de développement dans les PED revient aussi au plans politique et social à questionner cette position de dominance qu’occupe la Banque mondiale dans ces pays. Aussi notre questionnement général s’enchaîne-t-il comme suit: ce pouvoir d’autorité de la Banque mondiale dans les PED, tire t-il sa légitimité d’un fondement rationnel convaincant, capable de résister à la critique, ou plutôt, s’enracine t-il dans une confusion idéologique sciemment instaurée et entretenue ou comme dit Rist, dans le « pouvoir de celui qui parvient à l’imposer» ?
Resumo:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Resumo:
Dans une société qui assiste à la confusion des territoires du privé et du public, le culte du corps et la valorisation de normes esthétiques féminines semblent littéralement envahir l’espace narratif et magnifier le dualisme entre l’être et le paraître. Il va sans dire que cette nouvelle façon de penser et de concevoir le corps, notamment le corps féminin, a une incidence sur l’écriture des femmes contemporaines. Intimement lié à la construction identitaire du sujet, le corps incarne dans les oeuvres littéraires une nouvelle « féminité » dont le présent mémoire vise à explorer les paramètres littéraires, psychanalytiques et sociologiques. C’est dans le contexte d’une corporalité reconfigurée que l’inscription de la triade corps/identité/féminité dans les textes littéraires de Nelly Arcan et de Marie-Sissi Labrèche sera étudiée par l’analyse d’oeuvres significatives publiées au début de ce troisième millénaire : Putain et À ciel ouvert, d’une part, Borderline et La Brèche, d’autre part. Le corps est au coeur de la quête identitaire des protagonistes présentées dans ces récits. Mais ce corps s’érigeant souvent en obstacle devient le lieu d’une difficile image de soi et contribue à renforcer l’agentivité négative, soit cette incapacité du sujet à tracer son avenir de manière positive, contre laquelle se battent les personnages féminins tout au long de la narration. C’est à ce propos que la position ambivalente des deux auteures est représentative des questions de filiation qui marquent la littérature contemporaine.
Resumo:
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides.
Resumo:
Les violations aux droits humains causent des milliers de victimes chaque année, des mécanismes de justice sont élaborés afin de répondre à ces crimes, mais les victimes demeurent peu consultées. Par le biais d’entretiens semi-directifs, cette étude présente le point de vue et les attentes des victimes de crimes contre l’humanité du Cambodge et du Rwanda sur la justice. La justice sociale constitue le cadre théorique de cette étude. Les résultats montrent que la justice pénale est centrale à la définition de la justice. La réparation et la vérité en constituent aussi les éléments essentiels. Toutefois, la capacité des tribunaux à rendre compte de la vérité est critiquée par les répondants créant un écart entre ce qu’elles veulent et ce qu’elles obtiennent. La qualité de la prise de décision et du traitement interpersonnel favorise aussi la perception de justice du point de vue des victimes. Les différentes composantes de la justice perçues, comme la punition, la réparation et la procédure, varient toutefois en fonction du contexte social et historique de la victimisation.
Resumo:
Ma thèse examine les déplacements multiples – déportation, exil, voyage – et l‟expérience diasporique de différentes communautés ethniques dans le cinéma indépendant de trois réalisatrices et artistes contemporaines : Julie Dash, Rea Tajiri et Trinh T. Minh-ha. J‟analyse la déconstruction et reconstruction de l‟identité à travers le voyage et autres déplacements physiques ainsi que les moyens d‟expression et stratégies cinématographiques utilisées par ces artistes pour articuler des configurations identitaires mouvantes. Je propose de nouvelles lectures de la position des femmes dans des milieux culturels différents en considérant la danse comme une métaphore de la reconfiguration de l‟identité féminine qui se différencie et s‟émancipe des traditions culturelles classiques. Les expériences de l‟histoire et de la mémoire, qui sont vécues dans les corps des femmes, sont aussi exprimées par le biais des relations intermédiales entre la photographie, la vidéo et le film qui proposent des images de femmes variées et complexes.
Resumo:
Les chercheurs s’étant penchés sur les facteurs influençant la décision du suspect de confesser son crime ont mis en évidence que deux facteurs sont principalement influents : la force de la preuve (Des Lauriers-Varin et St-Yves, 2006; Moston et al., 1992) et la conduite de l’enquêteur (Holmberg et Christianson, 2002; Kebell et al., 2005). Par contre, les contradictions entre ces études ont apporté davantage de confusion que de réponses à la pratique. Cette étude vise donc à explorer l’incidence de ces deux facteurs sur l’inclination du suspect à confesser son crime et les possibles interactions entre eux. Pour ce faire, 50 enregistrements vidéo d’interrogatoires d’homicide furent visionnés et les données furent soumises à des analyses statistiques et qualitatives. Les résultats d’une régression logistique démontrent que la conduite de l’enquêteur est le facteur prédominant pour prédire l’obtention d’aveux du suspect en contrôlant pour l’effet des variables statiques et de la preuve. Également, les résultats mettent en évidence qu’en augmentant les attitudes et comportements associés à une conduite « positive », l’enquêteur augmentait les probabilités d’aveux du suspect. De plus, les résultats indiquent que l’augmentation du nombre d’éléments de preuves est associée à une plus grande démonstration de « rapport de force » de la part de l’enquêteur. Les résultats sont discutés en relation à l’effet des principaux facteurs sur les schémas et dynamiques prenant place entre l’enquêteur et le suspect.