972 resultados para Interactions quadripolaires
Resumo:
La leucémie lymphoïde représente environ 30% des cas de cancer chez l’enfant. Elle est souvent causée par des réarrangements chromosomiques impliquant des gènes encodant des facteurs de transcription, qui contrôlent des programmes génétiques complexes. Par exemple, LMO2 (LIM-only 2) est un facteur de transcription oncogénique fréquemment exprimé de façon aberrante dans les leucémies lymphoblastiques aigues des cellules T (T-ALL). Dans l’hématopoïèse normale, LMO2 est essentiel à la génération des cellules souches hématopoïétiques à l’origine de toutes les cellules sanguines. D’ailleurs, certaines cellules leucémiques possèdent des propriétés normalement réservées aux cellules souches hématopoïétiques. Ainsi, l’étude de la fonction de LMO2 dans les cellules souches hématopoïétiques peut être pertinente autant dans le contexte hématopoïétique normal que leucémique. Afin de mettre en évidence de nouvelles fonctions moléculaires pour LMO2, j’ai choisi d’identifier les protéines qui s’y associent. En plus de ses partenaires connus, j’ai identifié plusieurs protéines de transcription/remodelage de la chromatine, en accord avec son rôle transcriptionnel. Plusieurs nouvelles fonctions potentielles ont été révélées, indiquant que cette protéine adaptatrice pourrait faire partie de complexes non transcriptionnels, régulant d’autres processus cellulaires. Les oncogènes comme LMO2 pourraient être des régulateurs à large spectre. Particulièrement, j’ai identifié des interactions entre LMO2 et des protéines de réplication de l’ADN. J’ai montré que LMO2 contrôle la réplication de l’ADN dans les cellules hématopoïétiques, et possiblement durant la leucémogenèse, indépendamment de son rôle transcriptionnel. Ensemble, ces études ont donc permis de révéler de nouvelles fonctions pour LMO2, et pourraient servir de paradigme pour d’autres facteurs de transcription oncogéniques, particulièrement aux autres protéines de la famille LMO, qui sont aussi des oncogènes puissants.
Resumo:
Nous analysons des bulles d'espace-temps d'épaisseur finie en relativité générale. Les conditions d'énergie sont utilisées afin d'obtenir un ensemble de critères permettant de restreindre la structure du bord de la bulle. Dans le cas des bulles statiques et à symétrie sphérique, nous obtenons quatre inégalités différentielles équivalentes aux trois conditions d'énergie les plus communes. Nous montrons qu'elles sont équivalentes à un ensemble de deux inégalités différentielles simples lorsque le potentiel gravitationnel effectif a une forme particulière. Nous paramétrons alors l'espace-temps de manière à rendre la vérification de ces inégalités plus simple lorsqu'il sera question de bulles d'espace-temps. Nous traitons en particulier quatre formes de bulles, toutes caractérisées par un extérieur de type Schwarzschild de Sitter. Nous montrons que notre méthode donne les bons résultats lorsque la limite où l'épaisseur de la bulle tend vers zéro est prise. Nous terminons par un traitement succinct du problème d'une onde gravitationnelle se propageant dans un nuage de bulles d'espace-temps.
Resumo:
L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.
Resumo:
La majorité des individus exposés au virus de l’hépatite C (VHC) développent une infection chronique. Une réponse immunitaire adaptative forte et soutenue est associée avec la guérison spontanée du VHC, mais les mécanismes sous-jacents demeurent mal définis. Le rôle des cellules NK et des cellules dendritiques (DC) dans la guérison spontanée du VHC est encore méconnu. Les cellules NK sont la population effectrice la plus importante de l’immunité innée car elles tuent les cellules infectées et sécrètent diverses cytokines. Les DC reconnaissent des agents infectieux et elles sont les premières à initier et réguler l’immunité adaptative. Les cellules NK et les DC interagissent également entre elles afin de réguler l’immunité innée et adaptative. L’hypothèse du projet de doctorat est que l'activité des cellules NK pendant la phase aiguë de l'infection par le VHC module la fonction des DC afin que ces dernières puissent générer une réponse immunitaire adaptative capable d'éliminer le VHC. Le premier objectif était d’établir une corrélation entre l'activité des cellules NK et l'évolution de l'infection au VHC. Nous avons observé une augmentation de la cytotoxicité, mais une diminution de la sécrétion de cytokines par les cellules NK chez les patients chroniques et qui ont résolu spontanément pendant la phase aiguë en comparaison aux contrôles non infectés, démontrant alors une dissociation entre ces deux fonctions. Nos résultats suggèrent que les cellules NK sont activées pendant la phase aiguë indépendamment de l’évolution de l’infection. Le deuxième objectif était d’établir une corrélation entre le phénotype et la fonction des DC, et l'évolution de l'infection. Nous avons d’abord observé que les DC plasmacytoïdes de tous les patients infectés ont un phénotype plus immature que les contrôles, et que ce phénotype est plus prononcé chez les patients ayant résolu spontanément. De plus, en réponse à des stimulations, nous avons observé que pendant la phase aiguë précoce, les DC myéloïdes (mDC) de tous les patients infectés indépendamment de l’évolution de l’infection produisent davantage de cytokines en comparaison aux contrôles. Cependant, cette hyperréactivité n’est pas soutenue au cours de l’évolution chronique. Le troisième objectif était d’établir une corrélation entre les interactions NK/DC et l’évolution de l’infection. Nous avons étudié la capacité des cellules NK à lyser les DC potentiellement tolérogéniques, ainsi que la capacité des DC matures à activer les cellules NK, et nous avons observé aucune différence entre les patients infectés et les contrôles. Finalement, nous avons démontré pour la première fois la capacité des DC immatures à inhiber la fonction des cellules NK. En conclusion, nous avons démontré que les cellules NK sont activées pendant la phase aiguë de l’infection par le VHC indépendamment de l’évolution de l’infection. De plus, la capacité des cellules NK à éliminer les DC potentiellement tolérogéniques est intacte. Finalement, les mDC sont hyperréactives pendant la phase aiguë de l’infection, mais cette hyperréactivité n’est pas soutenue avec la persistance de l’infection. Cette perte d’hyperréactivité des mDC ne semble pas affecter la capacité des DC à activer les cellules NK, mais elle pourrait jouer un rôle dans l’inefficacité de l’immunité adaptative à éliminer le VHC.
Resumo:
L’avancée des infrastructures informatiques a permis l’émergence de la modélisation moléculaire. À cet effet, une multitude de modèles mathématiques sont aujourd’hui disponibles pour simuler différents systèmes chimiques. À l’aide de la modélisation moléculaire, différents types d’interactions chimiques ont été observés. À partir des systèmes les plus simples permettant l’utilisation de modèles quantiques rigoureux, une série d’approximations a été considérée pour rendre envisageable la simulation de systèmes moléculaires de plus en plus complexes. En premier lieu, la théorie de la fonctionnelle de densité dépendante du temps a été utilisée pour simuler les énergies d’excitation de molécules photoactives. De manière similaire, la DFT indépendante du temps a permis la simulation du pont hydrogène intramoléculaire de structures analogues au 1,3,5-triazapentadiène et la rationalisation de la stabilité des états de transition. Par la suite, la dynamique moléculaire et la mécanique moléculaire ont permis de simuler les interactions d’un trimère d’acide cholique et d’un pyrène dans différents solvants. Cette même méthodologie a été utilisée pour simuler les interactions d’un rotaxane-parapluie à l’interface d’un système biphasique. Finalement, l’arrimage moléculaire et les fonctions de score ont été utilisés pour simuler les interactions intermoléculaires entre une protéine et des milliers de candidats moléculaires. Les résultats ont permis de mettre en place une stratégie de développement d’un nouvel inhibiteur enzymatique.
Resumo:
Les microARN (miARN) sont de petits ARN non-codants qui répriment la traduction de leurs gènes cibles par hybridation à leur ARN messager (ARNm). L'identification de cibles biologiquement actives de miARN est cruciale afin de mieux comprendre leurs rôles. Ce problème est cependant difficile parce que leurs sites ne sont définis que par sept nucléotides. Dans cette thèse je montre qu'il est possible de modéliser certains aspects des miARN afin d'identifier leurs cibles biologiquement actives à travers deux modélisations d'un aspect des miARN. La première modélisation s'intéresse aux aspects de la régulation des miARN par l'identification de boucles de régulation entre des miARN et des facteurs de transcription (FT). Cette modélisation a permis, notamment, d'identifier plus de 700 boucles de régulation miARN/FT, conservées entre l'humain et la souris. Les résultats de cette modélisation ont permis, en particulier, d'identifier deux boucles d'auto-régulation entre LMO2 et les miARN miR-223 et miR-363. Des expériences de transplantation de cellules souches hématopoïétiques et de progéniteurs hématopoïétiques ont ensuite permis d'assigner à ces deux miARN un rôle dans la détermination du destin cellulaire hématopoïétique. La deuxième modélisation s'intéresse directement aux interactions des miARN avec les ARNm afin de déterminer les cibles des miARN. Ces travaux ont permis la mise au point d'une méthode simple de prédiction de cibles de miARN dont les performances sont meilleures que les outils courant. Cette modélisation a aussi permis de mettre en lumière certaines conséquences insoupçonnées de l'effet des miARN, telle que la spécificité des cibles de miARN au contexte cellulaire et l'effet de saturation de certains ARNm par les miARN. Cette méthode peut également être utilisée pour identifier des ARNm dont la surexpression fait augmenter un autre ARNm par l'entremise de miARN partagés et dont les effets sur les ARNm non ciblés seraient minimaux.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
La réplication et l’assemblage du virus de l’hépatite C (VHC) sont régulés finement dans le temps et l’espace par les interactions protéiques entre le virus avec l’hôte. La compréhension de la biologie du virus ainsi que sa pathogénicité passe par les connaissances relatives aux interactions virus/hôte. Afin d’identifier ces interactions, nous avons exploité une approche d’immunoprécipitation (IP) couplée à une détection par spectrométrie de masse (MS), pour ensuite évaluer le rôle des protéines identifiées dans le cycle viral par une technique de silençage génique. Les protéines virales Core, NS2, NS3/4A, NS4B, NS5A et NS5B ont été exprimées individuellement dans les cellules humaines 293T et immunoprécipitées afin d’isoler des complexes protéiques qui ont été soumis à l’analyse MS. Ainsi, 98 protéines de l’hôte ont été identifiées avec un enrichissement significatif et illustrant une spécificité d’interaction. L’enrichissement de protéines connues dans la littérature a démontré la force de l’approche, ainsi que la validation de 6 nouvelles interactions virus/hôte. Enfin, le rôle de ces interactants sur la réplication virale a été évalué dans un criblage génomique par ARN interférant (ARNi). Deux systèmes rapporteurs de la réplication virale ont été utilisés : le système de réplicon sous-génomique (Huh7-Con1-Fluc) et le système infectieux (J6/JFH-1/p7Rluc2a), ainsi qu’un essai de toxicité cellulaire (Alamar Blue). Parmi les protéines de l’hôte interagissant avec le VHC, 28 protéines ont démontré un effet significatif sans effet de toxicité cellulaire, suggérant fortement un rôle dans la réplication du VHC. Globalement, l’étude a mené à l’identification de nouvelles interactions virus/hôte et l’identification de nouvelles cibles thérapeutiques potentielles.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
L’adaptation des cellules à leur environnement externe repose sur la transduction adéquate de signaux régulés par une pléthore d'événements moléculaires. Parmi ces événements moléculaires, les modifications post-traductionnelles (MPT) de protéines aident à intégrer, à traduire et à organiser de façon spatiotemporelle ces signaux pour que les cellules puissent réagir aux stimuli externes. Parmi les modifications post-traductionnelles, les petites protéines de la famille de l’Ubiquitine (Ublps, Ubiquitin-like proteins) jouent un rôle majeur dans presque toutes les voies de signalisation. Cette thèse rapporte des études fonctionnelles et structurales des interactions covalentes et non covalentes entre SUMO (Small Ubiquitin related MOdifier), un membre de la famille des Ublps, et trois protéines d'échafaudage, TIF1beta, le corépresseur universel des protéines KRAB-multidoigt de zinc, PIAS1, une ligase E3 pour SUMO et PML, un suppresseur de tumeur. La première étude rapporte l'identification et la caractérisation biochimique des sites de SUMOylation de TIF1beta. Nous avons déterminé que la modification covalente de six résidus lysine par SUMO est essentielle à l’activité de répression de la transcription induit par TIF1beta. En outre, nous présentons des évidences indiquant que la SUMOylation de TIF1 exige non seulement sa capacité à homo-oligomériser, mais est aussi positivement régulée par son interaction avec le domaine KRAB des protéines à doigts de zinc. Partant de ce constat, nous postulons que les protéines KRAB-multidoigt de zinc recrutent leur corépresseur TIF1betaà des gènes cibles, mais aussi accentuent son activité répressive grâce à l'augmentation de sa SUMOylation. Notre seconde étude révèle qu’en plus de réprimer la transcription en tant que MPT covalente, SUMO joue aussi un rôle important dans la répression en tant que partenaire non covalent d’interactions protéine-protéine. Nous avons montré que SUMO interagit simultanément avec deux enzymes de la machinerie de SUMOylation, l’unique enzyme de conjugaison E2, UBC9, et la ligase E3 PIAS1 au sein d’un complexe ternaire répresseur. En outre, nous révélons que la formation du complexe ternaire PIAS1:SUMO:UBC9 est modulée par le niveau de phosphorylation de résidus sérine juxtaposés à un motif d’interaction avec SUMO (SIM) dans PIAS1. Ainsi, SUMO agit comme un adaptateur spécifique qui stabilise les interactions UBC9 E2: E3 PIAS1. Partant de ce constat, nous proposons que les enzymes E2 et E3 des autres systèmes Ublps exploitent des mécanismes similaires dans le cadre de leur fonction Enfin, notre troisième étude explore la régulation des interactions non covalentes de SUMO par la phosphorylation. En utilisant une combinaison d'études in vivo et in vitro, nous démontrons que l'interaction entre SUMO1 et PML est régi par la phosphorylation dépendant de CK2 sur quatre résidus sérine de PML. Les structures cristallographiques des complexes PML-SIM:SUMO1 révèlent que les phospho-sérines de PML contactent des résidus de la région basique de SUMO1. Sachant que la kinase CK2 peut être induite par des kinases activables par le stress, ces résultats suggèrent que les interactions non-covalentes avec SUMO sont modulées par le stress cellulaire. Sur la base de cette constatation, nous postulons que des événements analogues affectent des protéines contenant des séquences SIM ciblées par CK2. En résumé, cette étude révèle qu’en plus de son rôle de MPT, SUMO peut fonctionner comme un adaptateur permettant des interactions spécifiques entre protéines tel que pour les enzymes E3 et E2.
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Cette thèse comporte trois essais sur les interactions sociales en sciences économiques. Ces essais s’intéressent à la fois au côté théeorique qu’empirique des interactions sociales. Le premier essai (chapitre 2) se concentre sur l’étude (théorique et empirique) de la formation de réseaux sociaux au sein de petites économies lorsque les individus ont des préférences homophilique et une contrainte de temps. Le deuxième essai (chapitre 3) se concentre sur l’étude (principalement empirique) de la formation de réseau sociaux au sein de larges économies où les comportement d’individus très distants sont aproximativement indépendants. Le dernier essai (chapitre 4) est une étude empirique des effets de pairs en éducation au sein des écoles secondaires du Québec. La méthode structurelle utilisée permet l’identification et l’estimation de l’effet de pairs endogène et des effets de pairs exogènes, tout en contrôlant pour la présence de chocs communs.
Resumo:
De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).
Resumo:
Les interactions entre les squelettes sucre-phosphate de nucléotides jouent un rôle important dans la stabilisation des structures tertiaires de larges molécules d’ARN. Elles sont régies par des règles particulières qui gouverne leur formation mais qui jusque là demeure quasiment inconnues. Un élément structural d’ARN pour lequel les interactions sucre-phosphate sont importantes est le motif d’empaquetage de deux doubles hélices d’ARN le long du sillon mineur. Ce motif se trouve à divers endroits dans la structure du ribosome. Il consiste en deux doubles hélices interagissant de manière à ce que le squelette sucre-phosphate de l’une se niche dans le sillon mineur de l’autre et vice versa. La surface de contact entre les deux hélices est majoritairement formée par les riboses et implique au total douze nucléotides. La présente thèse a pour but d’analyser la structure interne de ce motif et sa dépendance de stabilité résultant de l’association optimale ou non des hélices, selon leurs séquences nucléotidiques. Il est démontré dans cette thèse qu’un positionnement approprié des riboses leur permet de former des contacts inter-hélices, par l’entremise d’un choix particulier de l’identité des pairs de bases impliquées. Pour différentes pairs de bases participant à ce contact inter-hélices, l’identité optimale peut être du type Watson-Crick, GC/CG, or certaines pairs de bases non Watson-Crick. Le choix adéquat de paires de bases fournit une interaction inter-hélice stable. Dans quelques cas du motif, l’identité de certaines paires de bases ne correspond pas à la structure la plus stable, ce qui pourrait refléter le fait que ces motifs devraient avoir une liberté de formation et de déformation lors du fonctionnement du ribosome.
Resumo:
Les patients admis aux soins intensifs (SI) souffrent de comorbidités qui affectent leur pronostic. Deux problèmes sont potentiellement associés aux sédatifs et compliquent le séjour de 35 à 50% des malades : le délirium, un état confusionnel aigu; et le coma ‘iatrogénique’, une altération de la conscience induite pharmacologiquement. L’importance de l’association entre clinique et médicaments a un intérêt pour prévenir ces syndromes cliniques morbides. Nous voulions étudier le délirium et le coma iatrogénique, les doses administrées de midazolam et de fentanyl, leurs niveaux plasmatiques, les variantes génétiques de métabolisme et de transport et les facteurs inflammatoires et ce, chez 100 patients admis aux soins intensifs. Nos données soulignent l’importance des interactions médicamenteuses dans l’incidence du coma iatrogénique, et réfutent l’association entre les benzodiazépines et le délirium. Ces résultats clarifient la pathophysiologie du délirium, corroborent le manque d’association délirium-benzodiazépines avec un marqueur biologique, c.-à-d. les niveaux sériques, et ouvrent le débat quant aux agents les plus utiles pour traiter l’anxiété et le délirium. Finalement, plusieurs caractéristiques pharmacocinétiques des benzodiazépines administrées aux soins intensifs publiées récemment complètent les données de notre étude quant à la sédation en soins critiques. Un chapitre sur l’importance de la pharmacogénomique en soins intensifs et un débat publié quant au pro et con de l'utilisation des benzodiazépines aux SI, sont soumis en complément de l’étude clinique décrite ci-haut effectuée dans le cadre de cette maîtrise.