1000 resultados para Orthographes approchées
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
La protéine Nef du VIH-1 joue un rôle important dans la pathogenèse du VIH-1 en modulant les voies de signalisation de la cellule hôte. La signalisation par le TcR est essentielle à la sélection positive pour générer les cellules simples positives (SP) CD4+ et simples positives (SP) CD8+, processus largement dépendant de l’activité de la Src kinase Lck et de son habileté à lier la queue cytoplasmique des corécepteurs CD4 et CD8. Nous avons précédemment trouvé que l’expression de Nef dans le VIH ou VIS peut induire une sévère déplétion des thymocytes et une baisse d’expression du corécepteur CD4 à la membrane. Nous avons également montré que Nef bloque la génération des thymocytes doubles positifs (DP) CD4+ CD8+ en plus d’altérer la transition des cellules DP vers CD4+ SP. Par contre, ce phénotype est récupérable par plusieurs approches dont le croisement d’une souris transgéniques exprimant Nef avec une souris exprimant la forme constitutivement active de Lck Y505F. Les résultats indiquent que la maturation des cellules CD4+ est altérée par le dysfonctionnement de la signalisation CD4-Lck. Toutefois, les mécanismes moléculaires par lesquels Nef contribue au bloc de la génération des cellules CD4+ dans le thymus demeurent très imprécis. Dans cette étude, en utilisant des approches biochimiques et de microscopie confocale, nous avons trouvé que les thymocytes transgéniques Nef+ expriment plus de Lck que les thymocytes Nef-. Malgré cette augmentation, une partie significative de Lck est incapable d’atteindre la membrane plasmique. Cette fraction était significativement accumulée dans un compartiment intracellulaire des thymocytes transgéniques exprimant Nef. Également, en utilisant la technique d’essai kinase in vitro, nous avons trouvé que l’activité kinase de Lck est significativement augmentée dans les thymocytes transgéniques mais demeure stable suite à une stimulation par un α-CD3ε + α-CD4. Également, comparativement aux thymocytes Nef-, la kinase Lck dans les thymocytes transgéniques était résistante à la dégradation suite à une stimulation. En examinant le statut de c-Cbl, le principal régulateur négatif de Lck, nous avons montré que c-Cbl colocalise faiblement avec Lck, malgré son hyperphosphorylation constitutive. Ceci pourrait expliquer l’échec de la dégradation de Lck. En plus, nous avons trouvé que suite à une stimulation par un α-CD3ε + α-CD4, la phosphorylation de Zap-70 en tyrosine 493 par Lck est diminuée, résultant d’une importante baisse de l’activité kinase de Zap-70 et d’un bloc des premiers évènements de la voie de signalisation par le TcR. Ces données indiquent que la signalisation CD4-Lck est interrompue par la présence de Nef.
Resumo:
Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.
Resumo:
Cette thèse porte sur la perception du risque sous terre. Nous voulons comprendre comment les mineurs de fond de la région de l’Abitibi-Témiscamingue au Québec perçoivent les risques inhérents à leur métier et comment ils y réagissent. L’organisation du travail, le fonctionnement d’une mine souterraine et les rapports de production sous terre retiennent d’abord notre attention. Le concept de risque représente un concept relativement jeune qui a intéressé de nombreux auteurs. Un tour d’horizon des diverses approches nous permettra de définir ce concept en nous appuyant plus spécialement sur les travaux de Mary Douglas. Cependant, nous avons conduit notre enquête à partir d’un cadre théorique se fondant principalement sur la sociologie de Pierre Bourdieu. Notre hypothèse défend l’idée que dans leur perception du risque, les mineurs de fond de l’Abitibi-Témiscamingue font montre d’un sens pratique qui repose surtout sur la prise en charge individuelle de la sécurité, le rapport à la prime de rendement et un certain sentiment de l’inéluctabilité du danger. Vingt entrevues semi-dirigées et la technique classique de l’observation participante ont servi à la collecte de données. L’analyse des récits de travail a donné lieu à une typologie distinguant trois groupes de mineurs. Nous avons préalablement décortiqué chacun des récits afin de dégager un modèle de base. Les résultats de l’analyse nous obligent à réviser notre hypothèse initiale et à ne pas conclure trop rapidement au fatalisme des mineurs de fond témiscabitibiens.
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Cet ouvrage a été rédigé en LaTeX, ce qui permet d'atteindre directement certaines sections, notes ou références bibliographiques par le biais des hyperliens.
Resumo:
Le traitement du cancer à l’aide d’une exposition aux radiations ionisantes peut mener au développement de plusieurs effets secondaires importants, dont un retard de réparation et de régénération du tissu hématopoïétique. Les mécanismes responsables de ces effets demeurent encore inconnus, ce qui limite le développement de nouvelles approches thérapeutiques. À l’aide d’un modèle murin de prise de greffe, nos résultats démontrent que l’endommagement du microenvironnement par l’irradiation a un impact limitant sur le nichage hématopoïétique. Parce que le microenvironnement est composé principalement de cellules dérivées des cellules souches mésenchymateuses (CSM), nous avons évalué le potentiel des CSM à régénérer le tissu hématopoïétique par la reconstitution de la niche osseuse. Cette thérapie a mené à une augmentation remarquable du nichage hématopoïétique chez les souris irradiées. Les causes moléculaires impliquées dans le nichage hématopoïétiques sont encore inconnues, mais nous avons remarqué l’augmentation de la sécrétion de la cytokine « granulocyte-colony stimulating factor » (G-CSF) dans l’espace médullaire suite à l’irradiation. Le G-CSF est impliqué dans la mobilisation cellulaire et est fort possiblement nuisible à une prise de greffe. Nous avons évalué le potentiel d’une thérapie à base de CSM sécrétant le récepteur soluble du G-CSF afin de séquestrer le G-CSF transitoirement et les résultats obtenus démontrent que le blocage du G-CSF favorise le nichage hématopoïétique. Globalement, les données présentées dans ce mémoire démontrent que le microenvironnement osseux et le niveau de G-CSF dans la moelle sont importants dans le processus de nichage hématopoïétique et que la baisse du potentiel de régénération du tissu hématopoïétique suite à l’irradiation peut être renversée à l’aide d’une thérapie cellulaire de CSM génétiquement modifiées ou non.
Resumo:
Enseigner l’espagnol comme langue étrangère (ELE) et utiliser la Littérature comme moyen didactique n’est pas une activité qui a été favorisée, ni dans l’aspect théorique comme pratique, dans les salles de classe, on l’a plutôt évitée. On a constaté que la plupart de temps on l’a réduit à un échantillon culturelle qui se situe à la fin des unités didactiques dans le manuelles d’ELE. Ces visions ont radicalement changé ces dernières années et des nombreux auteurs ont revendiqué son potentiel didactique et pédagogique. La présente mémoire s’inscrit dans la courante qui revendique l’utilisation du texte littéraire (TL) à cause du potentiel didactique qu’il renferme. On propose une série d’activités didactiques qui s’appuient dans le texte littéraire pour renforcer les compétences du discours au niveau de la description, la narration et la argumentation dans le cours d’espagnol langue étrangère (ELE) au niveau collégial et universitaire au Québec (Canada), en s’ appuyant sur les critères établis par le Cadre européen commun de référence pour les langues, le Plan curricular de l’Institut Cervantès, et le Programme du Ministère de l’Éducation du Québec. Auparavant, on a fait un bref parcours sur les différentes méthodes et approches pédagogiques dans l’enseignement de l’espagnol (ELE) ainsi que plusieurs études et articles qui proposent l’utilisation du texte littéraire en ayant comme objectif d’améliorer les compétences linguistique et communicatives des étudiants.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
La nouvelle « Bartleby The Scrivener. A Story of Wall-Street » pose des questions de lecture et d’interprétation littéraire. Grâce à des approches ayant le discours pour objet ou moyen de connaissance (rhétorique, étymologie, psychanalyse, pragmatique) de même qu’aux écrits de Herman Melville, il s’agit de cerner ce que représente Bartleby, qualifié d’« unaccountable » (inexplicable). Ce mot organise l’étude. Entier ou décomposé en morphèmes, dans une première partie, il met en évidence des univers de sens où Bartleby se montre marginal et court-circuite les systèmes : l’univers du langage (« unaccountable » : inénarrable), celui de la loi (« count » : chef d’accusation) et celui des chiffres (« account, count » : compte, compter). Une seconde partie rattache les pistes de lecture implicites ainsi dégagées aux thématiques de l’« inexplicable », explicites dans le texte, permettant une interprétation touchant l’univers des lettres, leur pérennité et leur circulation par le biais de la lecture et de l’interprétation.
Resumo:
La neuropathie humaine sensitive et autonome de type 2 (NHSA 2) est une pathologie héréditaire rare caractérisée par une apparition précoce des symptômes et une absence d’affectation motrice. Cette pathologie entraîne la perte de perception de la douleur, de la chaleur et du froid ainsi que de la pression (toucher) dans les membres supérieurs et inférieurs et est due à des mutations autosomales récessives confinées à l’exon HSN2 de la protéine kinase à sérine/thréonine WNK1 (with-no-lysine protein kinase 1). Cet exon spécifique permettrait de conférer une spécificité au système nerveux à l’isoforme protéique WNK1/HSN2. La kinase WNK1 est étudiée en détails, en particulier au niveau du rein, mais son rôle au sein du système nerveux demeure inconnu. Considérant le début précoce de la neuropathie et le manque d’innervation sensorielle révélé par des biopsies chez les patients NHSA2, notre hypothèse de recherche est que les mutations tronquantes menant à la NHSA de type 2 causent une perte de fonction de l’isoforme WNK1/HSN2 spécifique au système nerveux entraînant un défaut dans le développement du système nerveux sensoriel périphérique. Chez l’embryon du poisson zèbre, WNK1/HSN2 est exprimé au niveau des neuromastes de la ligne latérale postérieure, un système mécanosensoriel périphérique. Nous avons obtenu des embryons knockdown pour WNK1/HSN2 par usage d’oligonucléotides morpholino antisens (AMO). Nos trois approches AMO ont révélé des embryons présentant des défauts d’établissement au niveau de la ligne latérale postérieure. Afin de déterminer la voie pathogène impliquant l’isoforme WNK1/HSN2, nous nous sommes intéressés à l’interaction rapportée entre la kinase WNK1 et le co-transporteur neuronal KCC2. Ce dernier est une cible de phosphorylation de WNK1 et son rôle dans la promotion de la neurogenèse est bien connu. Nous avons détecté l’expression de KCC2 au niveau de neuromastes de la ligne latérale postérieure et observé une expression accrue de KCC2 chez les embryons knockdown pour WNK1/HSN2 à l’aide de RT-PCR semi-quantitative. De plus, une sur-expression d’ARN humain de KCC2 chez des embryons a produit des défauts dans la ligne latérale postérieure, phénocopiant le knockdown de WNK1/HSN2. Ces résultats furent validés par un double knockdown, produisant des embryons n’exprimant ni KCC2, ni WNK1/HSN2, dont le phénotype fut atténué. Ces résultats nous mènent à suggérer une voie de signalisation où WNK1/HSN2 est en amont de KCC2, régulant son activation, et possiblement son expression. Nous proposons donc que la perte de fonction de l’isoforme spécifique cause un débalancement dans les niveaux de KCC2 activée, menant à une prolifération et une différenciation réduites des progéniteurs neuronaux du système nerveux périphérique. Les défauts associés à la NHSA de type 2 seraient donc de nature développementale et non neurodégénérative.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
Le diabète est une maladie chronique de l’homéostasie du glucose caractérisée par une hyperglycémie non contrôlée qui est le résultat d’une défaillance de la sécrétion d’insuline en combinaison ou non avec une altération de l’action de l’insuline. La surnutrition et le manque d’activité physique chez des individus qui ont des prédispositions génétiques donnent lieu à la résistance à l’insuline. Pendant cette période dite de compensation où la concentration d’acides gras plasmatiques est élevée, l’hyperinsulinémie compense pleinement pour la résistance à l’insuline des tissus cibles et la glycémie est normale. Le métabolisme du glucose par la cellule pancréatique bêta entraîne la sécrétion d’insuline. Selon le modèle classique de la sécrétion d’insuline induite par le glucose, l’augmentation du ratio ATP/ADP résultant de la glycolyse et de l’oxydation du glucose, induit la fermeture des canaux KATP-dépendant modifiant ainsi le potentiel membranaire suivi d’un influx de Ca2+. Cet influx de Ca2+ permet l’exocytose des granules de sécrétion contenant l’insuline. Plusieurs nutriments comme les acides gras sont capables de potentialiser la sécrétion d’insuline. Cependant, le modèle classique ne permet pas d’expliquer cette potentialisation de la sécrétion d’insuline par les acides gras. Pour expliquer l’effet potentialisateur des acides gras, notre laboratoire a proposé un modèle complémentaire où le malonyl-CoA dérivé du métabolisme anaplérotique du glucose inhibe la carnitine palmitoyltransférase-1, l’enzyme qui constitue l’étape limitante de l’oxydation des acides gras favorisant ainsi leur estérification et donc la formation de dérivés lipidiques signalétiques. Le modèle anaplérotique/lipidique de la sécrétion d'insuline induite par le glucose prédit que le malonyl-CoA dérivé du métabolisme du glucose inhibe la bêta-oxydation des acides gras et augmente la disponibilité des acyl-CoA ou des acides gras non-estérifiés. Les molécules lipidiques agissant comme facteurs de couplage du métabolisme des acides gras à l'exocytose d'insuline sont encore inconnus. Des travaux réalisés par notre laboratoire ont démontré qu’en augmentant la répartition des acides gras vers la bêta-oxydation, la sécrétion d’insuline induite par le glucose était réduite suggérant qu’un des dérivés de l’estérification des acides gras est important pour la potentialisation sur la sécrétion d’insuline. En effet, à des concentrations élevées de glucose, les acides gras peuvent être estérifiés d’abord en acide lysophosphatidique (LPA), en acide phosphatidique (PA) et en diacylglycérol (DAG) et subséquemment en triglycérides (TG). La présente étude a établi l’importance relative du processus d’estérification des acides gras dans la production de facteurs potentialisant la sécrétion d’insuline. Nous avions émis l’hypothèse que des molécules dérivées des processus d’estérification des acides gras (ex : l’acide lysophosphatidique (LPA) et le diacylglycerol (DAG)) agissent comme signaux métaboliques et sont responsables de la modulation de la sécrétion d’insuline en présence d’acides gras. Afin de vérifier celle-ci, nous avons modifié le niveau d’expression des enzymes clés contrôlant le processus d’estérification par des approches de biologie moléculaire afin de changer la répartition des acides gras dans la cellule bêta. L’expression des différents isoformes de la glycérol-3-phosphate acyltransférase (GPAT), qui catalyse la première étape d’estérification des acides gras a été augmenté et inhibé. Les effets de la modulation de l’expression des isoenzymes de GPAT sur les processus d’estérifications, sur la bêta-oxydation et sur la sécrétion d’insuline induite par le glucose ont été étudiés. Les différentes approches que nous avons utilisées ont changé les niveaux de DAG et de TG sans toutefois altérer la sécrétion d’insuline induite par le glucose. Ainsi, les résultats de cette étude n’ont pas associé de rôle pour l’estérification de novo des acides gras dans leur potentialisation de la sécrétion d’insuline. Cependant, l’estérification des acides gras fait partie intégrante d’un cycle de TG/acides gras avec sa contrepartie lipolytique. D’ailleurs, des études parallèles à la mienne menées par des collègues du laboratoire ont démontré un rôle pour la lipolyse et un cycle TG/acides gras dans la potentialisation de la sécrétion d’insuline par les acides gras. Parallèlement à nos études des mécanismes de la sécrétion d’insuline impliquant les acides gras, notre laboratoire s’intéresse aussi aux effets négatifs des acides gras sur la cellule bêta. La glucolipotoxicité, résultant d’une exposition chronique aux acides gras saturés en présence d’une concentration élevée de glucose, est d’un intérêt particulier vu la prépondérance de l’obésité. L’isoforme microsomal de GPAT a aussi utilisé comme outil moléculaire dans le contexte de la glucolipotoxicité afin d’étudier le rôle de la synthèse de novo de lipides complexes dans le contexte de décompensation où la fonction des cellules bêta diminue. La surexpression de l’isoforme microsomal de la GPAT, menant à l’augmentation de l’estérification des acides gras et à une diminution de la bêta-oxydation, nous permet de conclure que cette modification métabolique est instrumentale dans la glucolipotoxicité.