59 resultados para principal sparse non-negative matrix factorization
em Université de Montréal, Canada
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.
Resumo:
Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.
Resumo:
We consider the problem of regulating an economy with environmental pollution. We examine the distributional impact of the polluter-pays principle which requires that any agent compensates all other agents for the damages caused by his or her (pollution) emissions. With constant marginal damages we show that regulation via the polluter-pays principle leads to the unique welfare distribution that assigns non-negative individual welfare and renders each agent responsible for his or her pollution impact. We extend both the polluter-pays principle and this result to increasing marginal damages due to pollution. We also discuss the acceptability of the polluter-pays principle and compare it with the Vickrey-Clark-Groves mechanism.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
La méthode de factorisation est appliquée sur les données initiales d'un problème de mécanique quantique déja résolu. Les solutions (états propres et fonctions propres) sont presque tous retrouvés.
Resumo:
L'arthrose est la maladie musculo-squelettique la plus commune dans le monde. Elle est l'une des principales causes de douleur et d’incapacité chez les adultes, et elle représente un fardeau considérable sur le système de soins de santé. L'arthrose est une maladie de l’articulation entière, impliquant non seulement le cartilage articulaire, mais aussi la synoviale, les ligaments et l’os sous-chondral. L’arthrose est caractérisée par la dégénérescence progressive du cartilage articulaire, la formation d’ostéophytes, le remodelage de l'os sous-chondral, la détérioration des tendons et des ligaments et l'inflammation de la membrane synoviale. Les traitements actuels aident seulement à soulager les symptômes précoces de la maladie, c’est pour cette raison que l'arthrose est caractérisée par une progression presque inévitable vers la phase terminale de la maladie. La pathogénie exacte de l'arthrose est encore inconnue, mais on sait que l'événement clé est la dégradation du cartilage articulaire. Le cartilage articulaire est composé uniquement des chondrocytes; les cellules responsables de la synthèse de la matrice extracellulaire et du maintien de l'homéostasie du cartilage articulaire. Les chondrocytes maintiennent la matrice du cartilage en remplaçant les macromolécules dégradées et en répondant aux lésions du cartilage et aux dégénérescences focales en augmentant l'activité de synthèse locale. Les chondrocytes ont un taux faible de renouvellement, c’est pour cette raison qu’ils utilisent des mécanismes endogènes tels que l'autophagie (un processus de survie cellulaire et d’adaptation) pour enlever les organelles et les macromolécules endommagés et pour maintenir l'homéostasie du cartilage articulaire. i L'autophagie est une voie de dégradation lysosomale qui est essentielle pour la survie, la différenciation, le développement et l’homéostasie. Elle régule la maturation et favorise la survie des chondrocytes matures sous le stress et des conditions hypoxiques. Des études effectuées par nous et d'autres ont montré qu’un dérèglement de l’autophagie est associé à une diminution de la chondroprotection, à l'augmentation de la mort cellulaire et à la dégénérescence du cartilage articulaire. Carames et al ont montré que l'autophagie est constitutivement exprimée dans le cartilage articulaire humain normal. Toutefois, l'expression des inducteurs principaux de l'autophagie est réduite dans le vieux cartilage. Nos études précédentes ont également identifié des principaux gènes de l’autophagie qui sont exprimés à des niveaux plus faibles dans le cartilage humain atteint de l'arthrose. Les mêmes résultats ont été montrés dans le cartilage articulaire provenant des modèles de l’arthrose expérimentaux chez la souris et le chien. Plus précisément, nous avons remarqué que l'expression d’Unc-51 like kinase-1 (ULK1) est faible dans cartilage humain atteint de l'arthrose et des modèles expérimentaux de l’arthrose. ULK1 est la sérine / thréonine protéine kinase et elle est l’inducteur principal de l’autophagie. La perte de l’expression de ULK1 se traduit par un niveau d’autophagie faible. Etant donné qu’une signalisation adéquate de l'autophagie est nécessaire pour maintenir la chondroprotection ainsi que l'homéostasie du cartilage articulaire, nous avons proposé l’hypothèse suivante : une expression adéquate de ULK1 est requise pour l’induction de l’autophagie dans le cartilage articulaire et une perte de cette expression se traduira par une diminution de la chondroprotection, et une augmentation de la mort des chondrocytes ce qui conduit à la dégénérescence du cartilage articulaire. Le rôle exact de ULK1 dans la pathogénie de l'arthrose est inconnue, j’ai alors créé pour la première fois, des souris KO ULK1spécifiquement dans le cartilage en utilisant la technologie Cre-Lox et j’ai ensuite soumis ces souris à la déstabilisation du ménisque médial (DMM), un modèle de l'arthrose de la souris pour élucider le rôle spécifique in vivo de ULK1 dans pathogenèse de l'arthrose. Mes résultats montrent que ULK1 est essentielle pour le maintien de l'homéostasie du cartilage articulaire. Plus précisément, je montre que la perte de ULK1 dans le cartilage articulaire a causé un phénotype de l’arthrose accéléré, associé à la dégénérescence accélérée du cartilage, l’augmentation de la mort cellulaire des chondrocytes, et l’augmentation de l'expression des facteurs cataboliques. En utilisant des chondrocytes provenant des patients atteints de l’arthrose et qui ont été transfectées avec le plasmide d'expression ULK1, je montre qu’ULK1 est capable de réduire l’expression de la protéine mTOR (principal régulateur négatif de l’autophagie) et de diminuer l’expression des facteurs cataboliques comme MMP-13 et ADAMTS-5 et COX-2. Mes résultats jusqu'à présent indiquent que ULK1 est une cible thérapeutique potentielle pour maintenir l'homéostasie du cartilage articulaire.
Resumo:
Objective To determine scoliosis curve types using non invasive surface acquisition, without prior knowledge from X-ray data. Methods Classification of scoliosis deformities according to curve type is used in the clinical management of scoliotic patients. In this work, we propose a robust system that can determine the scoliosis curve type from non invasive acquisition of the 3D back surface of the patients. The 3D image of the surface of the trunk is divided into patches and local geometric descriptors characterizing the back surface are computed from each patch and constitute the features. We reduce the dimensionality by using principal component analysis and retain 53 components using an overlap criterion combined with the total variance in the observed variables. In this work, a multi-class classifier is built with least-squares support vector machines (LS-SVM). The original LS-SVM formulation was modified by weighting the positive and negative samples differently and a new kernel was designed in order to achieve a robust classifier. The proposed system is validated using data from 165 patients with different scoliosis curve types. The results of our non invasive classification were compared with those obtained by an expert using X-ray images. Results The average rate of successful classification was computed using a leave-one-out cross-validation procedure. The overall accuracy of the system was 95%. As for the correct classification rates per class, we obtained 96%, 84% and 97% for the thoracic, double major and lumbar/thoracolumbar curve types, respectively. Conclusion This study shows that it is possible to find a relationship between the internal deformity and the back surface deformity in scoliosis with machine learning methods. The proposed system uses non invasive surface acquisition, which is safe for the patient as it involves no radiation. Also, the design of a specific kernel improved classification performance.
Resumo:
Trois protéines de la famille TRIM (Motif TRIpartite), TIF1α, β (Transcriptional Intermediary Factor 1) et PML (ProMyelocytic Leukaemia¬), font l’objet de cette étude. TIF1α est connu comme un coactivateur des récepteurs nucléaires et TIF1β comme le corépresseur universel des protéines KRAB-multidoigt de zinc dont le prototype étudié ici est ZNF74. PML possède divers rôles dont le plus caractérisé est celui d’être l’organisateur principal et essentiel des PML-NBs (PML-Nuclear Bodies), des macrostructures nucléaires très dynamiques regroupant et coordonnant plus de 40 protéines. Il est à noter que la fonction de TIF1α, β et PML est régulée par une modification post-traductionnelle, la sumoylation, qui implique le couplage covalent de la petite protéine SUMO (Small Ubiquitin like MOdifier) à des lysines de ces trois protéines cibles. Cette thèse propose de développer des méthodes utilisant le BRET (Bioluminescence Resonance Energy Transfert) afin de détecter dans des cellules vivantes et en temps réel des interactions non-covalentes de protéines nucléaires mais aussi leur couplage covalent à SUMO. En effet, le BRET n’a jamais été exploré jusqu’alors pour étudier les interactions non-covalentes et covalentes de protéines nucléaires. L’étude de l’interaction de protéines transcriptionnellement actives est parfois difficile par des méthodes classiques du fait de leur grande propension à agréger (famille TRIM) ou de leur association à la matrice nucléaire (ZNF74). L’homo et l’hétérodimérisation de TIF1α, β ainsi que leur interaction avec ZNF74 sont ici testées sur des protéines entières dans des cellules vivantes de mammifères répondant aux résultats conflictuels de la littérature et démontrant que le BRET peut être avantageusement utilisé comme alternative aux essais plus classiques basés sur la transcription. Du fait de l’hétérodimérisation confirmée de TIF1α et β, le premier article présenté ouvre la possibilité d’une relation étroite entre les récepteurs nucléaires et les protéines KRAB- multidoigt de zinc. Des études précédentes ont démontré que la sumoylation de PML est impliquée dans sa dégradation induite par l’As2O3 et dépendante de RNF4, une E3 ubiquitine ligase ayant pour substrat des chaînes de SUMO (polySUMO). Dans le second article, grâce au développement d’une nouvelle application du BRET pour la détection d’interactions covalentes et non-covalentes avec SUMO (BRETSUMO), nous établissons un nouveau lien entre la sumoylation de PML et sa dégradation. Nous confirmons que le recrutement de RNF4 dépend de SUMO mais démontrons également l’implication du SBD (Sumo Binding Domain) de PML dans sa dégradation induite par l’As2O3 et/ou RNF4. De plus, nous démontrons que des sérines, au sein du SBD de PML, qui sont connues comme des cibles de phosphorylation par la voie de la kinase CK2, régulent les interactions non-covalentes de ce SBD mettant en évidence, pour la première fois, que les interactions avec un SBD peuvent dépendre d’un évènement de phosphorylation (“SBD phospho-switch”). Nos résultats nous amènent à proposer l’hypothèse que le recrutement de PML sumoylé au niveau des PML-NBs via son SBD, favorise le recrutement d’une autre activité E3 ubiquitine ligase, outre celle de RNF4, PML étant lui-même un potentiel candidat. Ceci suggère l’existence d’une nouvelle relation dynamique entre phosphorylation, sumoylation et ubiquitination de PML. Finalement, il est suggéré que PML est dégradé par deux voies différentes dépendantes de l’ubiquitine et du protéasome; la voie de CK2 et la voie de RNF4. Enfin une étude sur la sumoylation de TIF1β est également présentée en annexe. Cette étude caractérise les 6 lysines cibles de SUMO sur TIF1β et démontre que la sumoylation est nécessaire à l’activité répressive de TIF1β mais n’est pas impliquée dans son homodimérisation ou son interaction avec la boîte KRAB. La sumoylation est cependant nécessaire au recrutement d’histones déacétylases, dépendante de son homodimérisation et de l’intégrité du domaine PHD. Alors que l’on ne connaît pas de régulateur physiologique de la sumoylation outre les enzymes directement impliquées dans la machinerie de sumoylation, nous mettons en évidence que la sumoylation de TIF1β est positivement régulée par son interaction avec le domaine KRAB et suggérons que ces facteurs transcriptionnels recrutent TIF1β à l’ADN au niveau de promoteur et augmentent son activité répressive en favorisant sa sumoylation.
Resumo:
La présente étude examine une des difficultés que soulève l'exécution des contrats de vente mettant en relation des parties situées dans des pays différents. Ces contrats connaissent des problèmes bien particuliers. En effet, en donnant lieu à l'expédition des marchandises vendues, ces contrats obligent aussi le vendeur à transférer à l'acheteur les documents conformes représentatifs de celles-ci. La non-conformité des documents se distingue de la non-conformité des marchandises et constitue une source principale des litiges visant la résolution des contrats dans ce secteur commercial. La diversité des solutions susceptibles de s'y appliquer est devenue une réalité depuis que les droits internes doivent coexister avec les règles de la Convention de Vienne sur la vente internationale de marchandises. En principe, aucune difficulté ne se pose lorsqu'un droit interne est désigné comme étant le droit compétent: il suffirait d'appliquer les solutions de ce droit. Ainsi, par exemple, l'acheteur peut résoudre le contrat si les documents ne sont pas conformes aux stipulations contractuelles sur la base du concept de fundamental breach (en cas de vente non documentaire) ou sur la base de la stricte conformité (en cas de vente documentaire) que retiennent les droits anglo-américain; en revanche dans les systèmes de droit civil (où la distinction entre vente documentaire et vente non documentaire n'existe pas), pareille résolution du contrat basée sur le défaut de conformité des documents n'est possible qu'en présence d'un préjudice important ou d'un défaut majeur. Plusieurs justifications fondamentales sous-tendent la raison d'être des solutions retenues par les droits nationaux: quête de sécurité juridique et recherche de solution conforme aux besoins des opérateurs du commerce international. Néanmoins, il appert que de telles justifications sont également présentes dans la Convention de Vienne. De plus, cette Convention oblige le vendeur à transférer à l'acheteur les documents conformes de la vente. Cependant, elle le fait de manière indirecte sans pour autant préciser quels types de documents doivent faire l'objet du transfert. L'opportunité d'un tel transfert dépendra donc, sous réserves des dispositions impératives, de l'accord des parties et des usages commerciaux qui ont préséance sur les règles unifiées. Ce qui en fait parfois une question d'interprétation du contrat ou une question de comblement des lacunes de ce droit uniforme de la vente internationale. En ce sens, ce dernier droit diffère des droits nationaux qui sont plus clairs à cet égard. Quant aux conditions de la résolution du contrat pour non-conformité des documents, quel que soit le système national considéré, la solution qu'il consacre contraste avec celle prévue par la Convention de Vienne qui n'admet une telle sanction qu'en présence d'une contravention essentielle. Cette dualité entre droits nationaux et droit matériel uniforme nous met en face d'un constat bien évident: l'avènement de la Convention de Vienne sur la vente internationale de marchandises et la règle de la contravention essentielle qu'elle consacre, perturbent le paysage juridique jusqu'ici en vigueur dans chacun des États signataires. Ce qui justifie tout l'intérêt du sujet: la contravention essentielle par opposition à la règle de la stricte conformité et celle basée sur l'importance du préjudice prévues par les droits internes sont-elles des règles exclusives l'une de l'autre? La réponse est loin d'être certaine en dépit des convergences possibles dans le dénouement du contentieux de la résolution, même si par ailleurs il faut admettre qu'il s'agit de régimes juridiques bien différents. Tout en subordonnant la résolution du contrat à l'existence d'une contravention essentielle, lorsque la Convention de Vienne s'applique (DEUXIÈME PARTIE), la présente étude propose une interprétation de celle-ci en examinant son contenu ainsi que les différentes sources qui interfèrent dans sa mise en œuvre afin de démontrer que ce droit uniforme, malgré ses limites, régit les aspects documentaires de la vente internationale (PREMIÈRE PARTIE).
Resumo:
Le tétrachloroéthène (PCE) et les éthènes chlorés qui lui sont apparentés ont été abondamment utilisés pour plusieurs applications en industrie dès le début du 20e siècle. Ils sont cependant comptés parmi les polluants les plus communs des sols et de l’eau et beaucoup d’efforts sont déployés afin de les éliminer. Nous croyons que la conversion des éthènes chlorés en éthènes par des microorganismes est une solution prometteuse. Le premier aspect du projet visait donc à établir les conditions pour lesquelles un consortium enrichi en Dehalococcoides ethenogenes permettrait la conversion complète de PCE en éthène. Les expériences réalisées nous ont permis de souligner le rôle de l’acide lactique ajouté aux cultures comme source de carbone et source indirecte d’électrons pour la déhalorespiration. Nous avons également pu établir l’effet de la concentration initiale de biomasse dans les cultures sur le profil de déhalogénation du PCE. Le deuxième aspect du projet visait à développer un protocole d’encapsulation du consortium dans une matrice polymérique afin de profiter des nombreux avantages potentiels de l’encapsulation. Nous avons testé trois montages d’encapsulation différents : atomisation avec jet d’air, atomisation avec vibrations ultrasoniques et « drop-wise ». Le dernier montage prévoyait l’encapsulation des cultures dans des billes d’alginate enrobées de chitosane gélifié par du lignosulfonate. C’est le seul montage qui nous a permis d’encapsuler le consortium de façon efficace sans effet significatifs négatifs sur son activité de déchlorination. Aussi, la comparaison des profils de déhalogénation du PCE de cellules encapsulées et cellules libres a montré une plus faible accumulation de TCE, 1,2-DCE et VC dans les échantillons de cellules encapsulée et, par conséquent, une conversion plus rapide et plus complète du PCE en éthène. Finalement, nous avons observé une tendance favorable à l’idée que les microorganismes encapsulés bénéficient d’un effet de protection contre de faibles concentrations d’oxygène.
Resumo:
Il est reconnu, depuis une centaine d’années, que des désordres de la coagulation, regroupés sous le terme de coagulopathies, sont souvent associés au développement néoplasique. Pendant de nombreuses années, ces coagulopathies furent souvent reconnues comme une simple conséquence du développement du cancer. D’ailleurs, pour les cliniciens, l’apparition de ces anomalies sanguines constitue souvent le premier signe clinique d’un cancer occulte. Toutefois, l’étude approfondie du lien existant entre le système hémostatique et le cancer indique que différents facteurs hémostatiques vont interagir avec soit l’environnement tumoral ou soit la tumeur elle-même et influencer le développement du cancer. Au cours de nos travaux, nous avons porté une attention particulière à deux protéines jouant un rôle primordial dans l’hémostase. Le facteur tissulaire (TF) et l’inhibiteur du facteur tissulaire (TFPI) peuvent jouer des rôles pro- ou anti-néoplasique, et ce indépendamment de leurs fonctions hémostatiques normales. Dans le premier volet de cette thèse, nous avons étudié les propriétés antiangiogéniques de TFPI. L’angiogenèse, soit la formation de nouveaux vaisseaux sanguins à partir du réseau pré-existant, est reconnue comme étant une étape clée du développement tumoral. D’après nos travaux, le TFPI peut inhiber la formation de structures de type capillaire des cellules endothéliales (CEs) de la veine ombilicale humaine (HUVEC), et ce à une IC 50 de 5 nM, soit la concentration physiologique de l’inhibiteur. De plus, le TFPI bloque la migration des cellules endothéliales lorsque ces dernières sont stimulées par la sphingosine-1-phosphate (S1P), une molécule relâchée lors de l’activation des plaquettes sanguines. Cette inhibition de la migration cellulaire s’explique par l’effet du TFPI sur l’adhésion des CEs. En effet, TFPI inhibe la phosphorylation de deux protéines clées participant à la formation des complexes d’adhésion focales soit FAK (focal adhesion kinase) et PAX (paxilin). L’inhibition de ces deux protéines suggère qu’il y ait une réorganisation des complexes focaux, pouvant expliquer la perte d’adhérence. Finalement, des études de microscopie confocale démontrent que les cellules traitées au TFPI changent de morphologie au niveau du cytosquelette d’actine provoquant une désorganisation des structures migratoires (pseudopodes). Les effets du TFPI au niveau de la migration, de l’adhésion et de la morphologie cellulaire sont strictement spécifiques aux cellules endothéliales humaines, puisque aucun n’effet n’est observé en traitant des cellules cancéreuses de glioblastomes (GB) humains, qui sont normalement des tumeurs hautement vascularisées. En résumé, cette première étude démontre que le TFPI est un inhibiteur de l’angiogenèse. Dans le second volet de cette thèse, nous nous sommes intéressés aux différents rôles de TF, le principal activateur de la coagulation. Cette protéine est également impliquée dans le développement néoplasique et notamment celui des médulloblastomes (MB) chez l’enfant via des fonctions hémostatiques et non-hémostatiques. Nos travaux démontrent que l’expression de TF est induite par la voie de signalisation de HGF (hepatocyte growth factor) et de son récepteur Met. Cet effet de HGF/Met semble spécifique aux MB puisque HGF ne peut stimuler l’expression de TF au niveau des cellules cancéreuses de glioblastomes. TF, exprimé à la surface des cellules médulloblastiques (DAOY), est responsable de l’activité pro-thrombogénique de ces cellules, ainsi qu’un acteur important de la migration de ces cellules en réponse au facteur VIIa (FVIIa). De plus, en étudiant 18 spécimens cliniques de MB, nous avons établi un lien entre l’intensité d’expression de TF et de Met. L’importance de cette corrélation est également suggérée par l’observation que les cellules exprimant les plus forts taux de TF et de Met sont également les plus agressives en termes d’index de prolifération et de dissémination métastatiques. En résumé, ces travaux représentent le point de départ pour la mise au point de TF comme un marqueur diagnostique clinique dans les cas de tumeurs du cerveau pédiatriques. De plus, l’élucidation de la voie de signalisation moléculaire responsable de l’expression de TF permet de mieux comprendre la biologie et le fonctionnement de ces tumeurs et de relier le profil d’expression de TF aux phénotypes agressifs de la maladie. Il est reconnu que HGF peut également jouer un rôle protecteur contre l’apoptose. Dans le troisième volet de cette thèse, nous avons remarqué que cette protection est corrélée à l’expression de TF. En réduisant à néant l’expression de TF à l’aide de la technologie des ARN silencieux (siRNA), nous démontrons que HGF ne protège plus les cellules contre l’apoptose. Donc, TF médie l’activité anti-apoptotique de HGF. TF assume cette protection en inactivant la phosphorylation de p53 sur la sérine 15, empêchant ainsi la translocation de p53 au noyau. Finalement, l’expression de TF et son interaction avec le FVIIa, au niveau des cellules médulloblastiques favorise la survie de ces dernières et ce même si elles sont soumises à de fortes concentrations de médicaments couramment utilisées en cliniques. Ce troisième et dernier volet démontre l’implication de TF en tant que facteur impliqué dans la survie des cellules cancéreuses, favorisant ainsi le développement de la tumeur. Dans son ensemble, cette thèse vise à démontrer que les facteurs impliqués normalement dans des fonctions hémostatiques (TFPI et TF) peuvent contribuer à réguler le développement tumoral. Tout système physiologique et pathologique est dépendant d’un équilibre entre activateur et inhibiteur et la participation de TF et de TFPI à la régulation du développement néoplasique illustre bien cette balance délicate. Par sa contribution anti- ou pro-néoplasique le système hémostatique constitue beaucoup plus qu’une simple conséquence du cancer; il fait partie par l’action de TF des stratégies élaborées par les cellules cancéreuses pour assurer leur croissance, leur déplacement et leur survie, alors que TFPI tente de limiter la croissance tumorale en diminuant la vascularisation.