433 resultados para Orthographes approchées
Resumo:
Cette thèse propose une étude des raisons théoriques et empiriques impliquées dans l’élaboration d’une nouvelle astronomie par Johannes Kepler (1571-1630) tel qu’exposé dans son ouvrage Astronomia nova (1619). Cette thèse se déroule en deux temps : la première partie touche de près aux textes mêmes de Kepler, tandis que la seconde partie utilise la notion d’abduction pour interpréter logiquement ce processus de découverte et de justification. La première partie débute avec une analyse du projet de Kepler et de ses fondements philosophiques, métaphysiques et théologiques tels qu’exposés dans son premier ouvrage, le Mysterium cosmographicum. Ensuite, une étude des propos explicites de Kepler quant à la nature et au statut des hypothèses astronomiques est proposée via une étude de son traité intitulé Apologia pro Tychone contra Ursum. Une étude attentive des sources philosophiques, mathématiques et scientifiques ayant influencé Kepler pour sa nouvelle astronomie est ensuite proposée avant l’analyse détaillée des arguments scientifiques et des différentes étapes démonstratives qui sont présentés dans l’Astronomia nova. La deuxième partie vise à éclairer le débat sur l’abduction en se penchant d’abord sur trois approches traditionnelles (Platon, Aristote et Épicure) quant à la connaissance scientifique des phénomènes célestes permettant d’obtenir un discours vraisemblable ou une multiplicité d’explications concordantes avec les phénomènes. Enfin, quatre interprétations contemporaines et abductives du processus de découverte suivi par Kepler dans l’Astronomia nova sont présentées, reformulées et critiquées afin de proposer une nouvelle interprétation abductive laissant une plus grande place au projet même de construire une astronomie nouvelle fondée sur les causes. Cela nous donne des outils pour mieux saisir le sens et la portée de ce qui peut être désigné comme étant la « révolution képlérienne », soit le passage d’un système géocentrique à un système non pas simplement héliocentrique mais héliodynamique, ayant permis aux astronomes de s’affranchir du paradigme des orbites circulaires.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-delà de la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.
Resumo:
La voie de signalisation des Récepteurs Tyrosine Kinase (RTK) occupe un rôle central dans la régulation de la croissance cellulaire, la prolifération, la différentiation et la motilité. Une régulation anormale des RTKs mène à plusieurs maladies humaines telles que le cancer du sein, la seconde cause de mortalité chez les femmes à cause de l’amplification et la mutation fréquente de la protéine tyrosine kinase HER2 (ERBB2). Grb2-associated binder (Gab) 2 est une protéine adaptatrice qui agit en aval de plusieurs RTKs, y compris HER2, pour réguler de multiples voies de signalisation. En réponse à la stimulation par de nombreux facteurs de croissances et cytokines, Gab2 est recruté à la membrane plasmique où il potentialise l’activation des voies de signalisation Ras/mitogen-activated protein kinase (MAPK) et PI3K (phosphatidylinositol-3-kinase)/Akt (protein kinase B). En plus d’occuper un rôle essentiel durant le développement du système hématopoïétique, Gab2 est souvent amplifié dans les cancers, notamment le cancer du sein et les mélanomes. Cependant, les mécanismes moléculaires qui régulent le fonctionnement de Gab2 sont peu connus. Il est établi que lors de l’activation des RTKs, Gab2 est phosphorylé au niveau de plusieurs résidus Tyrosine, menant à l’association de différentes protéines comme p85 et Shp2. En plus de la phosphorylation en Tyrosine, notre laboratoire ainsi que d’autres groupes de recherche avons identifié que Gab2 est aussi phosphorylé au niveau de résidus Ser/Thr suite à l’activation de la voie de signalisation MAPK. Cependant, la régulation des fonctions de Gab2 par ces modifications post-traductionnelles est encore peu connue. Dans le but de comprendre comment Gab2 est régulé par la voie de signalisation MAPK, nous avons utilisé différentes approches. Dans la première partie de ma thèse, nous avons déterminé un nouveau mécanisme démontrant que la voie de signalisation Ras/MAPK, par le biais des protéines kinases RSK (p90 ribosomal S6 kinase), phosphoryle Gab2. Ce phénomène se produit à la fois in vivo et in vitro au niveau de trois résidus Ser/Thr conservés. Des mutations au niveau de ces sites de phosphorylation entrainent le recrutement de Shp2 menant à l’augmentation de la motilité cellulaire, ce qui suggère que les protéines RSK restreignent les fonctions dépendantes de Gab2. Ce phénomène est le résultat de la participation de RSK dans la boucle de rétroaction négative de la voie de signalisation MAPK. Dans la seconde partie de ma thèse, nous avons démontré que les protéines ERK1/2 phosphorylent Gab2 au niveau de plusieurs résidus pS/T-P à la fois in vitro et in vivo, entrainant l’inhibition du recrutement de p85. De plus, nous avons établi pour la première fois que Gab2 interagit physiquement avec ERK1/2 dans des cellules lors de l’activation de la voie de signalisation MAPK. Par ailleurs, nous avons montré un nouveau domaine d’attache du module ERK1/2 sur Gab2. Des mutations sur les résidus essentiels de ce domaine d’attache n’entrainent pas seulement la dissociation de ERK1/2 avec Gab2, mais diminuent également la phosphorylation dépendante de ERK1/2 sur Gab2. Ainsi, nos données montrent que la voie de signalisation MAPK régule les fonctions de la protéine Gab2 par le biais des kinases RSK et ERK1/2. Cette thèse élabore par ailleurs un schéma complet des fonctions de Gab2 dépendantes de la voie de signalisation MAPK dans le développement de nombreux cancers.
Resumo:
Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.
Resumo:
La protéine d’échafaudage Gab1 amplifie la signalisation de plusieurs récepteurs à fonction tyrosine kinase (RTK). Entre autres, elle promeut la signalisation du VEGFR2, un RTK essentiel à la médiation de l’angiogenèse via le VEGF dans les cellules endothéliales. En réponse au VEGF, Gab1 est phosphorylé sur tyrosine, ce qui résulte en la formation d’un complexe de protéines de signalisation impliqué dans le remodelage du cytosquelette d’actine et la migration des cellules endothéliales. Gab1 est un modulateur essentiel de l’angiogenèse in vitro et in vivo. Toutefois, malgré l’importance de Gab1 dans les cellules endothéliales, les mécanismes moléculaires impliqués dans la médiation de ses fonctions, demeurent mal définis et la participation du second membre de la famille, Gab2, reste inconnue. Dans un premier temps, nous avons démontré que tout comme Gab1, Gab2 est phosphorylé sur tyrosine, qu’il s’associe de façon similaire avec des protéines de signalisation et qu’il médie la migration des cellules endothéliales en réponse au VEGF. Cependant, contrairement à Gab1, Gab2 n’interagit pas avec le VEGFR2 et n’est pas essentiel pour l’activation d’Akt et la promotion de la survie cellulaire. En fait, nous avons constaté que l’expression de Gab2 atténue l’expression de Gab1 et l’activation de la signalisation médiée par le VEGF. Ainsi, Gab2 semble agir plutôt comme un régulateur négatif des signaux pro-angiogéniques induits par Gab1. La migration cellulaire est une des étapes cruciales de l’angiogenèse. Nous avons démontré que Gab1 médie l’activation de la GTPase Rac1 via la formation et la localisation d’un complexe protéique incluant la GEF VAV2, la p120Caténine et la Cortactine aux lamellipodes des cellules endothéliales en réponse au VEGF. De plus, nous montrons que l’assemblage de ce complexe corrèle avec la capacité du VEGF à induire l’invasion des cellules endothéliales et le bourgeonnement de capillaires, deux phénomènes essentiels au processus angiogénique. La régulation des RhoGTPases est également régulée par des inactivateurs spécifiques les « Rho GTPases activating proteins », ou GAPs. Nous décrivons ici pour la première fois le rôle de la GAP CdGAP dans les cellules endothéliales et démontrons son importance dans la médiation de la signalisation du VEGF via la phosphorylation sur tyrosine de Gab1 et l’activation des RhoGTPases Rac1 et Cdc42. Ainsi, dù à son importance sur l’activation de voies de signalisation du VEGF, CdGAP représente un régulateur crucial de la promotion de diverses activités biologiques essentielles à l’angiogenèse telles que la migration cellulaire, et le bourgeonnement de capillaires in vitro et d’aortes de souris ex vivo. De plus, les embryons de souris CdGAP KO présentent des hémorragies et de l’œdème, et ces défauts vasculaires pourraient être responsables de la mortalité de 44% des souris CdGAP knock-out attendues. Nos études amènent donc une meilleure compréhension des mécanismes moléculaires induits par le VEGF et démontrent l’implication centrale de Gab1 et des régulateurs des RhoGTPases dans la promotion de l’angiogenèse. Cette meilleure compréhension pourrait mener à l’identification de nouvelles cibles ou approches thérapeutiques afin d’améliorer le traitement des patients souffrant de maladies associées à une néovascularisation incontrôlée telles que le cancer.
Resumo:
Le ribozyme VS de Neurospora catalyse des réactions de clivage et de ligation d’un lien phosphodiester spécifique essentielles à son cycle de réplication. Il est formé de six régions hélicales (I à VI), qui se divisent en deux domaines, soit le substrat (SLI) et le domaine catalytique (tiges II à VI). Ce dernier comprend deux jonctions à trois voies qui permettent de reconnaître le substrat en tige-boucle de façon spécifique. Ce mode de reconnaissance unique pourrait être exploité pour cibler des ARN repliés pour diverses applications. Bien que le ribozyme VS ait été caractérisé biochimiquement de façon exhaustive, aucune structure à haute résolution du ribozyme complet n’a encore été publiée, ce qui limite la compréhension des mécanismes inhérents à son fonctionnement. Précédemment, une approche de divide-and-conquer a été initiée afin d’étudier la structure des sous-domaines importants du ribozyme VS par spectroscopie de résonance magnétique nucléaire (RMN) mais doit être complétée. Dans le cadre de cette thèse, les structures de la boucle A730 et des jonctions III-IV-V et II-III-VI ont été déterminées par spectroscopie RMN hétéronucléaire. De plus, une approche de spectroscopie RMN a été développée pour la localisation des ions divalents, tandis que diverses approches de marquage isotopique ont été implémentées pour l’étude d’ARN de plus grandes tailles. Les structures RMN de la boucle A730 et des deux jonctions à trois voies révèlent que ces sous-domaines sont bien définis, qu’ils sont formés de plusieurs éléments structuraux récurrents (U-turn, S-turn, triplets de bases et empilement coaxial) et qu’ils contiennent plusieurs sites de liaison de métaux. En outre, un modèle du site actif du ribozyme VS a été construit sur la base des similarités identifiées entre les sites actifs des ribozymes VS et hairpin. Dans l’ensemble, ces études contribuent de façon significative à la compréhension de l’architecture globale du ribozyme VS. De plus, elles permettront de construire un modèle à haute résolution du ribozyme VS tout en favorisant de futures études d’ingénierie.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Les Escherichia coli entérohémorragiques (EHEC) représentent un problème majeur de santé publique dans les pays développés. Les EHEC sont régulièrement responsables de toxi-infections alimentaires graves chez l’humain et causent des colites hémorragiques et le symptôme hémolytique et urémique, mortel chez les enfants en bas âge. Les EHEC les plus virulents appartiennent au sérotype O157:H7 et le bovin constitue leur réservoir naturel. À ce jour il n’existe aucun traitement pour éviter l’apparition des symptômes liés à une infection à EHEC. Par conséquent, il est important d’augmenter nos connaissances sur les mécanismes employés par le pathogène pour réguler sa virulence et coloniser efficacement la niche intestinale. Dans un premier temps, l’adaptation de la souche EHEC O157:H7 EDL933 à l’activité métabolique du microbiote intestinal a été étudiée au niveau transcriptionnel. Pour se faire, EDL933 a été cultivée dans les contenus caecaux de rats axéniques (milieu GFC) et dans ceux provenant de rats colonisés par le microbiote intestinal humain (milieu HMC). Le HMC est un milieu cécal conditionné in vivo par le microbiote. Dans le HMC par rapport au GFC, EDL933 change drastiquement de profile métabolique en réponse à l’activité du microbiote et cela se traduit par une diminution de l’expression des voies de la glycolyse et une activation des voies de l’anaplérose (voies métaboliques dont le rôle est d’approvisionner le cycle TCA en intermédiaires métaboliques). Ces résultats, couplés avec une analyse métabolomique ciblée sur plusieurs composés, ont révélé la carence en nutriments rencontrée par le pathogène dans le HMC et les stratégies métaboliques utilisées pour s’adapter au microbiote intestinal. De plus, l’expression des gènes de virulence incluant les gènes du locus d’effacement des entérocytes (LEE) codant pour le système de sécrétion de type III sont réprimés dans le HMC par rapport au GFC indiquant la capacité du microbiote intestinal à réprimer la virulence des EHEC. L’influence de plusieurs composés intestinaux présents dans les contenus caecaux de rats sur l’expression des gènes de virulence d’EDL933 a ensuite été étudiée. Ces résultats ont démontré que deux composés, l’acide N-acétylneuraminique (Neu5Ac) et le N-acétylglucosamine (GlcNAc) répriment l’expression des gènes du LEE. La répression induite par ces composés s’effectue via NagC, le senseur du GlcNAc-6-P intracellulaire et le régulateur du catabolisme du GlcNAc et du galactose chez E. coli. NagC est un régulateur transcriptionnel inactivé en présence de GlcNAc-6-P qui dérive du catabolisme du Neu5Ac et du transport GlcNAc. Ce travail nous a permis d’identifier NagC comme un activateur des gènes du LEE et de mettre à jour un nouveau mécanisme qui permet la synchronisation de la virulence avec le métabolisme chez les EHEC O157:H7. La concentration du Neu5Ac et du GlcNAc est augmentée in vivo chez le rat par le symbiote humain Bacteroides thetaiotaomicron, indiquant la capacité de certaines espèces du microbiote intestinal à relâcher les composés répresseurs de la virulence des pathogènes. Ce travail a permis l’identification des adaptations métaboliques des EHEC O157:H7 en réponse au microbiote intestinal ainsi que la découverte d’un nouveau mécanisme de régulation de la virulence en réponse au métabolisme. Ces données peuvent contribuer à l’élaboration de nouvelles approches visant à limiter les infections à EHEC.
Resumo:
Les scores de propension (PS) sont fréquemment utilisés dans l’ajustement pour des facteurs confondants liés au biais d’indication. Cependant, ils sont limités par le fait qu’ils permettent uniquement l’ajustement pour des facteurs confondants connus et mesurés. Les scores de propension à hautes dimensions (hdPS), une variante des PS, utilisent un algorithme standardisé afin de sélectionner les covariables pour lesquelles ils vont ajuster. L’utilisation de cet algorithme pourrait permettre l’ajustement de tous les types de facteurs confondants. Cette thèse a pour but d’évaluer la performance de l’hdPS vis-à-vis le biais d’indication dans le contexte d’une étude observationnelle examinant l’effet diabétogénique potentiel des statines. Dans un premier temps, nous avons examiné si l’exposition aux statines était associée au risque de diabète. Les résultats de ce premier article suggèrent que l’exposition aux statines est associée avec une augmentation du risque de diabète et que cette relation est dose-dépendante et réversible dans le temps. Suite à l’identification de cette association, nous avons examiné dans un deuxième article si l’hdPS permettait un meilleur ajustement pour le biais d’indication que le PS; cette évaluation fut entreprise grâce à deux approches: 1) en fonction des mesures d’association ajustées et 2) en fonction de la capacité du PS et de l’hdPS à sélectionner des sous-cohortes appariées de patients présentant des caractéristiques similaires vis-à-vis 19 caractéristiques lorsqu’ils sont utilisés comme critère d’appariement. Selon les résultats présentés dans le cadre du deuxième article, nous avons démontré que l’évaluation de la performance en fonction de la première approche était non concluante, mais que l’évaluation en fonction de la deuxième approche favorisait l’hdPS dans son ajustement pour le biais d’indication. Le dernier article de cette thèse a cherché à examiner la performance de l’hdPS lorsque des facteurs confondants connus et mesurés sont masqués à l’algorithme de sélection. Les résultats de ce dernier article indiquent que l’hdPS pourrait, au moins partiellement, ajuster pour des facteurs confondants masqués et qu’il pourrait donc potentiellement ajuster pour des facteurs confondants non mesurés. Ensemble ces résultats indiquent que l’hdPS serait supérieur au PS dans l’ajustement pour le biais d’indication et supportent son utilisation lors de futures études observationnelles basées sur des données médico-administratives.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Le réovirus de mammifères se multiplie et détruit préférentiellement les cellules cancéreuses. Il est d’ailleurs actuellement à l’étude pour traiter divers types de cancers chez l’humain. L’objectif de cette étude était de mieux comprendre les diverses composantes impliquées dans le cycle viral de réovirus qui pourraient potentiellement être importantes dans le contexte d’optimisation de son potentiel oncolytique, ceci en utilisant une combinaison d’approches classiques ainsi que de génétique inverse.L’approche par persistance virale est classiquement utilisée pour identifier de nouveaux mutants de réovirus. Celle-ci a surtout mené à la sélection de mutants de décapsidation chez les cellules L929. Ici, des virus adaptés furent récupérés de cellules Vero (VeroAV) et contrairement aux autres mutants de persistance, ce virus possède des substitutions d’acides aminés sur les protéines mu1 et sigma1. L’approche par génétique inverse a permis de démontrer que la fixation de VeroAV sur les acides sialiques des cellules Vero était favorisée. Les substitutions sur sigma1 seraient principalement responsables de ce phénotype quoique le contexte de la substitution de mu1 puisse affecter l’infectivité du virus. Dans un deuxième volet, il a été remarqué que le virus de type sauvage utilisé pour la génétique inverse (T3DK) était plus sensible à l’interféron comparativement au virus de type sauvage de notre laboratoire (T3DS). Après séquençage complet du virus T3DS nous avons reconstruit, par génétique inverse, le virus T3DS. Nous avons donc pu poursuivre nos études sur le virus P4L-12 précédemment isolé au laboratoire par mutagenèse chimique. Il a été préalablement démontré que P4L-12 possède une meilleure réplication chez les cellules transformées et un blocage plus complet chez les cellules parentales, phénotype relié à une sensibilité accrue à l’interféron. Dans cette étude, des substitutions d’acides aminés sur les protéines sigma3, mu1, muNS et lambda2 furent identifiés. Nous avons démontré, par génétique inverse, que la substitution sur la protéine lambda2 était principalement responsable du phénotype de sensibilité à l’interféron. Ces approches de persistance ou de sélection de mutants sensibles à l’interféron, suivies d’une caractérisation par génétique inverse seront certainement utiles à une meilleure compréhension de réovirus et pourraient contribuer à améliorer son potentiel oncolytique.
Resumo:
Les défis associés au phénomène du vieillissement démographique de la population se manifestent sous plusieurs formes et à de nombreux égards. Il y a des questions générales comme celles qui touchent l’économique et d’autres, plus spécifiques et situées, comme celles des modalités assurant des services et des soins adéquats aux personnes vulnérables. Par exemple, le colloque « La qualité de l’expérience des usagers et des proches : vers la personnalisation des soins et des services sociaux », programmé dans le cadre des Entretiens Jacques Cartier à l’automne 2014, s’était donné comme objectif d’examiner l’expérience personnelle des usagers relativement aux prestations de soins de santé et à l’organisation des services sociaux. L’origine de ces réflexions réside dans la nécessité de trouver un meilleur équilibre des pouvoirs dans les relations d’aide ou la prestation de soin. Cette problématique sous-entend l’idée de rendre les usagers capables d’un certain contrôle par l’adoption d’approches permettant aux professionnels de faire des ajustements personnalisés. Cette thèse de doctorat s’inscrit directement dans le prolongement de cette problématique. La recherche vise à examiner les conditions en mesure de rendre possible, dans les Centres d’hébergement et de soins de longue durée (CHSLD), un rapport au monde catégorisé par ce que le sociologue Laurent Thévenot nomme le régime de la familiarité. Le régime de la familiarité fait référence aux réalités où l’engagement des personnes se déploie dans l’aisance. Autrement dit, ce régime d’engagement correspond à un rapport au milieu où la personne est en mesure de déployer ses habitudes, d’habiter le moment et de se sentir chez elle. Comme le montre Thévenot, ce type d’engagement commande la conception d’un monde qui offre aux personnes la possibilité d’articuler les modalités de leurs actions sur des repères qui font sens personnellement pour eux. Ainsi, l’objet de la recherche consiste à mieux comprendre la participation du design à la conception d’un milieu d’hébergement capable d’accueillir ce type d’engagement pragmatique. Les orientations associées à la conception de milieux d’hébergement capables de satisfaire de telles exigences correspondent largement aux ambitions qui accompagnent le développement des approches du design centrées sur l’usager, du design d’expériences et plus récemment du design empathique. Cela dit, malgré les efforts investis en ce sens, les capacités d’appropriation des usagers restent un problème pour lequel les réponses sont précaires. La thèse interroge ainsi le fait que les développements des approches de design, qui ont fait de l’expérience des usagers une préoccupation de premier plan, sont trop souvent restreints par des questions de méthodes et de procédures. Le développement de ces connaissances se serait fait au détriment de l’examen précis des savoir-être également nécessaires pour rendre les designers capables de prendre au sérieux les enjeux associés aux aspirations de ces approches. Plus spécifiquement, la recherche précise les qualités de l’expérience des établissements dont le design permet l’engagement en familiarité. L’enquête s’appuie sur une analyse des jugements posés par des équipes d’évaluation de la qualité du milieu de vie des CHSLD présents sur le territoire Montréalais. L’analyse a mené à la caractérisation de cinq qualités : l’accueillance, la convivialité, la flexibilité, la prévenance et la stabilité. Finalement, sous la forme d’un essai réflexif, un tableau de savoir-être est suggéré comme manière de rendre les designers capables de mettre en œuvre des milieux d’hébergement présentant les qualités identifiées. Cet essai est également l’occasion du développement d’un outil réflexif pour une pédagogie et une pratique vertueuse du design.
Resumo:
À une époque où l'immigration internationale est de plus en plus difficile et sélective, le statut de réfugié constitue un bien public précieux qui permet à certains non-citoyens l'accès et l'appartenance au pays hôte. Reposant sur le jugement discrétionnaire du décideur, le statut de réfugié n’est accordé qu’aux demandeurs qui établissent une crainte bien fondée de persécution en cas de retour dans leur pays d'origine. Au Canada, le plus important tribunal administratif indépendant, la Commission de l'immigration et du statut de réfugié du Canada (CISR), est chargé d’entendre les demandeurs d'asile et de rendre des décisions de statut de réfugié. Cette thèse cherche à comprendre les disparités dans le taux d’octroi du statut de réfugié entre les décideurs de la CISR qui sont politiquement nommés. Au regard du manque de recherches empiriques sur la manière avec laquelle le Canada alloue les possibilités d’entrée et le statut juridique pour les non-citoyens, il était nécessaire de lever le voile sur le fonctionnement de l’administration sur cette question. En explorant la prise de décision relative aux réfugiés à partir d'une perspective de Street Level Bureaucracy Theory (SLBT) et une méthodologie ethnographique qui combine l'observation directe, les entretiens semi-structurés et l'analyse de documents, l'étude a d'abord cherché à comprendre si la variation dans le taux d’octroi du statut était le résultat de différences dans les pratiques et le raisonnement discrétionnaires du décideur et ensuite à retracer les facteurs organisationnels qui alimentent les différences. Dans la lignée des travaux de SLBT qui documentent la façon dont la situation de travail structure la discrétion et l’importance des perceptions individuelles dans la prise de décision, cette étude met en exergue les différences de fond parmi les décideurs concernant les routines de travail, la conception des demandeurs d’asile, et la meilleure façon de mener leur travail. L’analyse montre comment les décideurs appliquent différentes approches lors des audiences, allant de l’interrogatoire rigide à l’entrevue plus flexible. En dépit des contraintes organisationnelles qui pèsent sur les décideurs pour accroître la cohérence et l’efficacité, l’importance de l’évaluation de la crédibilité ainsi que l’invisibilité de l’espace de décision laissent suffisamment de marge pour l’exercice d’un pouvoir discrétionnaire. Même dans les environnements comme les tribunaux administratifs où la surabondance des règles limite fortement la discrétion, la prise de décision est loin d’être synonyme d’adhésion aux principes de neutralité et hiérarchie. La discrétion est plutôt imbriquée dans le contexte de routines d'interaction, de la situation de travail, de l’adhésion aux règles et du droit. Même dans les organisations qui institutionnalisent et uniformisent la formation et communiquent de façon claire leurs demandes aux décideurs, le caractère discrétionnaire de la décision est par la nature difficile, voire impossible, à contrôler et discipliner. Lorsqu'ils sont confrontés à l'ambiguïté des objectifs et aux exigences qui s’opposent à leur pouvoir discrétionnaire, les décideurs réinterprètent la définition de leur travail et banalisent leurs pratiques. Ils formulent une routine de rencontre qui est acceptable sur le plan organisationnel pour évaluer les demandeurs face à eux. Cette thèse montre comment les demandeurs, leurs témoignages et leurs preuves sont traités d’une manière inégale et comment ces traitements se répercutent sur la décision des réfugiés.
Resumo:
Au Québec, le trouble du déficit de l’attention/hyperactivité (TDA/H) est celui qui requiert le plus grand nombre de consultations en pédopsychiatrie (50 % à 75 %). À ce jour, l’intervention multimodale (traitement pharmacologique, programme d’entraînement aux habiletés parentales (PEHP) et programme d’intervention cognitive comportementale (PICC) auprès des enfants ayant un TDA/H) a obtenu de bons résultats à long terme. Dans cette étude, nous avons évalué les changements dans le fonctionnement familial suite à un PEHP. La conception de ce PEHP repose sur les deux approches : l’approche systémique familiale de Calgary (Wright & Leahey, 2013) et l’approche de solution collaborative et proactive (Greene, 2014). Le Family Assessment Device (FAD; Epstein, Baldwin, et Bishop, 1983), version courte, a été utilisé pour mesurer le fonctionnement général (FG) de la famille. La collecte de données a été réalisée auprès de deux groupes (groupe participant et groupe témoin) et à deux temps de mesure (avant et après le PEHP). L’échantillon contient 28 familles participantes et 18 familles témoins. L’analyse de variance à mesures répétées (ANOVA) a été utilisée pour tester l’effet des variables indépendantes (Temps et Intervention) sur la variable dépendante (FG). Les résultats indiquent que les parents qui participent à un PEHP perçoivent un fonctionnement familial général amélioré par rapport au groupe témoin. L’interprétation des changements à la suite du PEHP donne des pistes d’intervention infirmières à ces familles afin d’éviter les impacts de ce trouble sur le fonctionnement familial à long terme.