791 resultados para Fonction caractéristique
Resumo:
L’équipe de travail représente, de nos jours, une forme d’organisation du travail incontournable pour accroître la performance des entreprises. Il est maintenant largement reconnu que la composition d’une équipe de travail est susceptible d’affecter son efficacité et, plus particulièrement, la qualité des relations interpersonnelles au sein de l’équipe et la performance de ses membres. Des études se sont donc attardées à isoler certaines caractéristiques individuelles permettant d’influencer le contexte des équipes de travail. Ainsi, l’effet de la composition des équipes a été étudié sous l’angle des traits de personnalité des membres, de leurs attitudes et de leurs valeurs, ou encore en fonction des habiletés cognitives démontrées par chacun des coéquipiers. Malgré quelques invitations répétées à étudier davantage la motivation des équipes de travail et de leurs membres, peu de travaux ont porté sur la composition motivationnelle de ce contexte collectif. Dans la foulée des études portant sur les équipes de travail, on observe une tendance à ne considérer que la performance des équipes et des coéquipiers comme unique critère d’évaluation de leur efficacité. Devant les données alarmantes concernant les problèmes de santé psychologique vécus par les travailleurs, il appert qu’il est essentiel de se pencher sur les conditions nécessaires à mettre en place dans ce contexte de travail interpersonnel pour contribuer à la fois au bien-être et à la performance des coéquipiers. Avec l’utilisation du cadre d’analyse proposé par la théorie de l’autodétermination, la présente thèse vise à répondre à ces enjeux. Le premier article de la thèse propose un modèle théorique qui définit en quoi la composition d’une équipe de travail, en regard des styles de régulations individuelles des membres de l’équipe, est susceptible d’affecter les relations interpersonnelles au sein de l’équipe et d’avoir un impact sur la performance et le bien-être des membres. S’appuyant sur les mécanismes d’émergence proposés par les théories multiniveaux, ce cadre théorique suggère également que, sous certaines conditions, la composition motivationnelle d’une équipe de travail puisse entraîner la formation d’un phénomène singulier de motivation d’équipe. Les mécanismes favorisant cette émergence sont présentés dans l’article. Le second article de la thèse représente une première vérification empirique de certaines des propositions de l’article théorique. À partir d’un échantillon de 138 équipes, regroupant 680 travailleurs, il a été possible de vérifier, à partir d’analyses multiniveaux, l’impact de la composition autonome ou contrôlée d’une équipe sur la satisfaction au travail des participants. Les résultats de l’étude montrent qu’une forme de composition d’équipe de nature plus autonome est positivement reliée à la satisfaction des travailleurs. Plus encore, on observe une interaction entre la régulation autonome individuelle et la régulation autonome d’équipe quant à la satisfaction vécue au travail. Ainsi, la satisfaction au travail est plus élevée pour les participants dont le style de régulation est plus autonome et qui évoluent dans une équipe à composition motivationnelle plus autonome. Parallèlement, les résultats montrent que la composition motivationnelle plus contrôlée est négativement reliée à la satisfaction au travail. De façon générale, la présente thèse souligne la pertinence de considérer le contexte sociomotivationnel émergeant de la composition de l’équipe en regard des styles de régulations individuelles des membres qui la composent. Cette thèse permet de considérer, avec un regard nouveau, la motivation des équipes de travail et les variables de motivation à évaluer dans la formation des équipes de travail au sein de nos organisations.
Resumo:
Les modèles de réflexion complexes, avec leurs nombreux paramètres dont certains restent non intuitifs, sont difficiles à contrôler pour obtenir une apparence désirée. De plus, même si un artiste peut plus aisément comprendre la forme de la micro-géométrie d'une surface, sa modélisation en 3D et sa simulation en 4D demeurent extrêmement fastidieuses et coûteuses en mémoire. Nous proposons une solution intermédiaire, où l'artiste représente en 2D une coupe dans un matériau, en dessinant une micro-géométrie de surface en multi-couches. Une simulation efficace par lancer de rayons en seulement 2D capture les distributions de lumière affectées par les micro-géométries. La déviation hors-plan est calculée automatiquement de façon probabiliste en fonction de la normale au point d'intersection et de la direction du rayon incident. Il en résulte des BRDFs isotropes complètes et complexes, simulées à des vitesses interactives, et permettant ainsi une édition interactive de l'apparence de réflectances riches et variées.
Resumo:
Les cellules endothéliales progénitrices («Endothelial Progenitor Cells», EPCs) sont des précurseurs endothéliaux qui possèdent un potentiel considérable dans la réparation et la régénération vasculaire. Dans le contexte des maladies cardiovasculaires, la compréhension du rôle des EPCs dans la régulation de la thrombogenèse et la réparation endothéliale est pertinente et nécessaire pour comprendre leur potentiel thérapeutique. Nous avons rapporté que les EPCs interagissent avec les plaquettes via la P-sélectine et inhibent l’adhésion, l’activation et l’agrégation des plaquettes ainsi que la formation de thrombus. Plus récemment, nous avons démontré que les EPCs expriment le récepteur inflammatoire CD40 et il est bien connu que les plaquettes constituent la source principale de la forme soluble de son agoniste le CD40L («soluble CD40 Ligand», sCD40L). Ainsi, nous avons émis l’hypothèse principale que l’axe CD40L/CD40 dans les EPCs influence leurs fonctions anti-thrombotique et pro-angiogénique. Pour vérifier cette hypothèse, nous avons réussi à générer des «early» et «late» EPCs à partir de cellules mononucléaires du sang périphérique («Peripheral Blood Mononuclear Cells», PBMCs) en culture. Nous avons mis en évidence l’existence de l’axe CD40L/CD40 dans ces EPCs en démontrant l’expression des protéines adaptatrices, nommées les facteurs associés au récepteur du facteur de nécrose tumorale («TNF Receptor Associated Factors», TRAFs). Dans une première étude, nous avons investigué l’effet du sCD40L sur la fonction des «early» EPCs dans l’agrégation plaquettaire. En effet, nous avons démontré que le sCD40L renverse leur effet inhibiteur sur l’agrégation plaquettaire, et ce sans avoir un effet significatif sur la sécrétion de prostacycline (PGI2) et d’oxyde nitrique («Nitric Oxide», NO) par ces cellules. De plus, aucun effet du sCD40L n’a été noté sur l’apoptose et la viabilité de ces cellules. Par contre, nous avons noté une augmentation importante du stress oxydatif dans les «early» EPCs suite à leur stimulation avec le sCD40L. L’inhibition du stress oxydatif renverse l’effet du sCD40L sur les «early» EPCs dans l’agrégation plaquettaire. Ces résultats pourraient expliquer, en partie, la fonction réduite des EPCs chez les individus présentant des niveaux élevés de sCD40L en circulation. Dans une deuxième étude, nous avons étudié l’effet de sCD40L dans la fonction des «early» EPCs en relation avec l’angiogenèse. Nous avons identifié, dans un premier temps,les métalloprotéinases de la matrice («Matrix Metalloproteinases», MMPs) qui sont sécrétées par ces cellules. Nous avons trouvé que les «early» EPCs relâchent principalement la MMP-9 et que cette relâche est augmentée par le sCD40L. Le sCD40L induit aussi la phosphorylation de la p38 MAPK qui contribue à augmenter la sécrétion de MMP-9. Des études fonctionnelles ont démontré que le prétraitement des «early» EPCs au sCD40L potentialise la réparation endothéliale des HUVECs. En conclusion, l’ensemble de nos travaux, dans le cadre de ce projet de doctorat, nous a permis d’élucider les mécanismes responsables de l’action du sCD40L sur les effets inhibiteur et angiogénique des «early» EPCs dans l’agrégation plaquettaire et l’angiogenèse, respectivement. Ces résultats ajoutent de nouvelles connaissances sur le rôle des EPCs et pourront constituer la base pour des études futures permettant de corréler les niveaux élevés du sCD40L circulant et l’incidence des maladies cardiovasculaires, particulièrement l’athérothrombose.
Resumo:
L'ubiquitination est une modification post-traductionnelle qui joue un rôle central dans divers processus biologiques. Elle peut être contrecarrée par les déubiquitinases (DUBs). "BRCA1-Associated Protein 1" (BAP1) est une déubiquitinase, qui fait partie de complexes multiprotéiques, possèdant une fonction de suppression tumorale ainsi qu'un potentiel anti-métastatique. De plus, BAP1 est phosphorylée suite aux dommages à l’ADN par les kinases ATM/ATR. En nous basant sur ces données, nous avons purifié les protéines associées à BAP1 dans des conditions de stress génotoxique. Bien que la composition du complexe et l’activité DUB semblent inchangées, nous avons pu identifier des changements critiques dans les niveaux et les sites de phosphorylation, confirmant la régulation de BAP1 suite aux dommages à l’ADN. En déplétant BAP1 par ARNi et en utilisant des mutants dominants négatifs, nous avons obtenu des résultats suggèrant que suite au stress génotoxique, cette DUB est requise pour prolonger le point de contrôle en G2/M et ce, en retardant la reprise du cycle cellulaire. D'un autre côté, l'expression de BAP1 dans des cellules cancéreuses qui en sont déficientes restore une ploïdie normale et diminue la fréquence d'aberrations nucléaires, suggérant que cette protéine joue un rôle dans la stabilité génomique. Nos résultats suggèrent fortement que BAP1 joue un rôle dans la réponse des cellules au stress génotoxique et la stabilité génomique. Nos travaux permettront ainsi d’identifier et de caractériser les voies de signalisation cellulaire régulant l’activité et la fonction de BAP1 durant les périodes d’exposition à des agents qui endommagent l’ADN. Les connaissances acquises seront donc d’une valeur tangible pour nôtre compréhension de la mutagenèse induite par des agents carcinogènes, un déterminant clé de la formation des tumeurs.
Resumo:
La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.
Resumo:
Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.
Resumo:
L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
Afin de contourner la définition usuelle de la pauvreté selon laquelle les individus sont pauvres s’ils sont en deçà d’un certain seuil nous appliquons la méthode floue pour proposer des classes d'indices flous de pauvreté unidimensionnelle et multidimensionnelle basées sur la définition d'une fonction d’appartenance et un seuil de pauvreté par ménage. Nous illustrons également certains de nos concepts proposés à partir d’une enquête réalisée en 1990 sur des ménages tunisiens. Nous cherchons à montrer comment les choix des autorités publiques ou des institutions internationales peuvent se refléter dans ces indices de pauvreté.
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
Ce mémoire, “Deictic Shifts and Discursive Strategies in Othello”, est une étude des outils linguistiques et les stratégies utilisées par les différents personnages de la pièce. Il explore la façon dont le texte est construit et les différentes techniques qui le régissent de l'intérieur. Il étudie également l'utilisation de certains outils tels que les déplacements, les références déictiques indexicaux, les actes de langage et la rhétorique, et la façon dont ils permettent aux intervenants d'obtenir des résultats différents en fonction de la situation où ils sont. Ce travail est divisé en trois chapitres: le premier est consacré aux discours publics où je trace les différentes techniques utilisées par les personnages tel que la monopolization de la parole, la défense ou la persuasion de leurs interlocuteurs. Le deuxième chapitre se concentre sur les discours orientés vers une seule personne et montre comment les discours peuvent être utilisés pour avoir un effet sur l’interlocuteur. La première partie de ce chapitre traite de la sémiotique de choc. La deuxième partie est consacrée à la sémiotique de la tromperie et de manipulation. Le dernier chapitre est consacré aux soliloques et met l'accent sur l'écart entre les paroles de Iago et les réponses émotionnelles ainsi que les changements dans la personnalité d'Othello et de l'effet connexe de ces changements sur sa langue.