23 resultados para non-negative matrix factorization

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We consider the problem of regulating an economy with environmental pollution. We examine the distributional impact of the polluter-pays principle which requires that any agent compensates all other agents for the damages caused by his or her (pollution) emissions. With constant marginal damages we show that regulation via the polluter-pays principle leads to the unique welfare distribution that assigns non-negative individual welfare and renders each agent responsible for his or her pollution impact. We extend both the polluter-pays principle and this result to increasing marginal damages due to pollution. We also discuss the acceptability of the polluter-pays principle and compare it with the Vickrey-Clark-Groves mechanism.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La méthode de factorisation est appliquée sur les données initiales d'un problème de mécanique quantique déja résolu. Les solutions (états propres et fonctions propres) sont presque tous retrouvés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le tétrachloroéthène (PCE) et les éthènes chlorés qui lui sont apparentés ont été abondamment utilisés pour plusieurs applications en industrie dès le début du 20e siècle. Ils sont cependant comptés parmi les polluants les plus communs des sols et de l’eau et beaucoup d’efforts sont déployés afin de les éliminer. Nous croyons que la conversion des éthènes chlorés en éthènes par des microorganismes est une solution prometteuse. Le premier aspect du projet visait donc à établir les conditions pour lesquelles un consortium enrichi en Dehalococcoides ethenogenes permettrait la conversion complète de PCE en éthène. Les expériences réalisées nous ont permis de souligner le rôle de l’acide lactique ajouté aux cultures comme source de carbone et source indirecte d’électrons pour la déhalorespiration. Nous avons également pu établir l’effet de la concentration initiale de biomasse dans les cultures sur le profil de déhalogénation du PCE. Le deuxième aspect du projet visait à développer un protocole d’encapsulation du consortium dans une matrice polymérique afin de profiter des nombreux avantages potentiels de l’encapsulation. Nous avons testé trois montages d’encapsulation différents : atomisation avec jet d’air, atomisation avec vibrations ultrasoniques et « drop-wise ». Le dernier montage prévoyait l’encapsulation des cultures dans des billes d’alginate enrobées de chitosane gélifié par du lignosulfonate. C’est le seul montage qui nous a permis d’encapsuler le consortium de façon efficace sans effet significatifs négatifs sur son activité de déchlorination. Aussi, la comparaison des profils de déhalogénation du PCE de cellules encapsulées et cellules libres a montré une plus faible accumulation de TCE, 1,2-DCE et VC dans les échantillons de cellules encapsulée et, par conséquent, une conversion plus rapide et plus complète du PCE en éthène. Finalement, nous avons observé une tendance favorable à l’idée que les microorganismes encapsulés bénéficient d’un effet de protection contre de faibles concentrations d’oxygène.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'Accord sur le commerce intérieur est un accord de libre-échange pancanadien visant l'abaissement des barrières non tarifiaires au commerce interprovincial. La notion de barrières au commerce interprovincial, en soi, suscite maintes controverses. Aucun consensus n'existe à savoir quelles sont les barrières au commerce, quelles en sont leurs coûts, mais surtout, s'il faut les abaisser. La grande majorité des experts concoivent que beaucoup de ces barrières non tarifaires au commerce se retrouvent dans le secteur des produits agroalimentaires. À ce titre, ce domaine est, depuis plusieurs décennies, traditionnellement protectionniste et constitue donc un marché des plus difficiles à intégrer. Cette réalité prévaut tant au niveau international qu'interprovincial. Au Canada, l'outil privilégié après des années de négociations constitutionnelles infructueuses fut l'Accord sur le commerce intérieur. Cet accord, aux allures de traité international, vise l'intégration graduelle du marché interne canadien. La volonté de devenir un marché intégré et compétitif au niveau mondial se heurte à la détermination des provinces de protéger leur souveraineté législative. Ainsi, l'outil d'ouverture du marché que constitue l'Accord sur le commerce intérieur, qui navigue entre ces positions antagonistes, fut rédigé de manière assez complexe et peu accessible. Le contexte politique et constitutionnel particulier dans lequel se sont inscrites les négociations de cet accord a ainsi teinté le texte de l'accord et sa rédaction. En plus de sa simplification, plusieurs solutions intervenant sous plusieurs facettes de l'Accord sur le commerce intérieur permettraient à ce dernier de se voir plus efficace dans sa mission d'intégration du marché interprovincial canadien, en plus d'augmenter sa notoriété, sa crédibilité et de permettre une meilleure mise en œuvre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’interleukine 6 (IL-6) est une cytokine qui joue un rôle essentiel dans l’inflammation. Son récepteur (IL-6R) est composé de la chaîne non signalétique IL-6Rα et de la chaîne transductrice du signal gp130, commune aux cytokines de la famille IL-6. La liaison de l’IL-6 à son récepteur permet l’activation de plusieurs voies de signalisation, notamment des voies Jak/STAT1 et préférentiellement Jak/STAT3. De façon complémentaire, nous avons démontré que l’IL-6 est capable d’activer la voie Jak/STAT5 dans les lymphocytes T CD4. L’activation de cette voie de signalisation pourrait être impliquée dans le rétrocontrôle des effets pro-inflammatoires de l’IL-6 sur les cellules T CD4. Le facteur neurotrophique ciliaire (CNTF) et la « cardiotrophin-like cytokine/cytokine-like factor 1 » (CLC/CLF) sont deux cytokines de la famille de l’IL-6 qui signalent à travers un récepteur commun, le récepteur au CNTF (CNTFR), composé du CNTFRα, « leukaemia inhibitory factor receptor β » (LIFRβ) et gp130. Toutes deux exercent des actions au niveau du système immunitaire, or la chaîne CNTFRα de leur récepteur n’y est pas exprimée. Il a été montré que le CNTFR humain peut également activer un récepteur formé des sous-unités IL-6Rα, LIFRβ et gp130. Nous avons comparé les effets du CNTF et du CLC/CLF de souris sur des transfectants exprimant LIFRβ et gp130 et les chaines α connues de la famille IL-6 (IL-6Rα, IL-11Rβ et CNTFRα). Nos résultats indiquent que le CNTF de souris, comme le CNTF humain est capable d’activer un récepteur formé de l’IL-6Rα, LIFRβ et gp130. Toutefois cette propriété n’est pas partagée par CLC/CLF et le récepteur impliqué dans les effets de cette cytokine sur le système immunitaire reste donc à identifier. L’IL-27 appartient à la famille de l’IL-6 composée d’une sous-unité cytokinique, p28, associée à un récepteur soluble « l’Epstein-Barr virus-induced gene 3» (EBI3). La sous-unité p28 peut s’associer avec le récepteur soluble CLF pour former une cytokine capable d’activer les lymphocytes T. Dans le but de caractériser cette cytokine, nous avons montré que p28/CLF agit aussi sur les lymphocytes B et permet leur différenciation en plasmocytes. Le partage de l’IL-6R par l’IL-6 et p28/CLF semble être à l’origine de la similarité des effets de ces deux cytokines. De plus, nous avons observé des effets semblables à ceux de l’IL-6 suite à l’association de la sous-unité p28 seule avec la chaîne IL-6Rα. En effet, afin de mieux caractériser la cytokine p28/CLF, nous avons étudié les effets dus au recrutement de la chaîne IL-6Rα par la sous-unité p28. Les cytokines de la famille de l’IL-6 sont composées de quatre hélices α disposées de façon anti-parallèle deux à deux. La sous-unité p28 possède, au niveau d’une boucle reliant deux hélices α, un motif de plusieurs acides glutamiques consécutifs (motif polyE) qui n’est retrouvé dans aucune autre cytokine de cette famille. Nous avons démontré que ce motif est impliqué dans la liaison de cette sous-unité avec l’hydroxyapatite et l’os. Cette caractéristique de p28 pourrait permettre un ciblage de l’IL-27 (p28/EBI3) et de p28/CLF préférentiellement vers la niche endostéale des cellules souches et des cellules immunitaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le virus respiratoire syncytial (RSV) est un virus à ARN de polarité négative. Les études démontrent que toute la population sera infectée par ce virus au moins deux fois avant l’âge de 3 ans. Le RSV peut provoquer plusieurs pathologies respiratoires telles que la bronchiolite aiguë et la pneumonie. Les infections sévères corrèlent avec le développement de l’asthme. Lors d’une infection virale, les particules du RSV sont détectées par le senseur RIG-I qui induit l’activation des facteurs de transcription NF-κB et IRF-3. Respectivement, les facteurs de transcription activeront les réponses inflammatoire et antivirale. Au coeur des pathologies induites par le RSV se trouve une réponse immunitaire mal adaptée. Plus précisément, par l’entremise de NF-κB, le RSV provoque une production exagérée de cytokines et chimiokines qui induisent une réponse inflammatoire démesurée provoquant du dommage tissulaire. Paradoxalement, le RSV est capable d’échapper à la réponse antivirale. Ces deux phénomènes sont contrôlés par l’entremise des protéines non structurales NS1 et NS2. Le mécanisme délimitant le mode d’action de NS1 et NS2 sur la réponse antivirale reste à être déterminé. Avec pour objectif d’élucider comment NS1 et NS2 inhibent la réponse antivirale, nous avons investigué le mécanisme de reconnaissance de l’hôte vis-à-vis de RSV. Nous démontrerons, pour la première fois, que le senseur cytosolique MDA5 est impliqué dans la réponse antivirale contre le RSV. Nous présenterons des résultats préliminaires qui suggèrent que le rôle de MDA5 est non redondant à RIG-I. À l’aide d’ARN interférant dirigé contre RIG-I et de transfection de MDA5, nous démontrerons que MDA5 ne contribue pas à la phosphorylation d’IRF-3, mais plutôt qu’elle régit la stabilité du facteur de transcription. Nous démontrerons aussi que, contrairement à l’hypothèse actuelle sur le fonctionnement de NS1 et NS2, l’inhibition de ces derniers ne provoque pas une augmentation de la cytokine antivirale IFN−β. Cependant, l’expression ectopique de NS1 et NS2 réduit l’activité du promoteur de l’IFN-β et de la protéine cytoplasmic antivirale ISG56 lorsqu’elle est mesurée par essai luciférase.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Étude de cas / Case study