3 resultados para temperature requirements
em Université de Montréal, Canada
Resumo:
BACKGROUND: HIV-1 Vpu targets newly synthesized CD4 receptor for rapid degradation by a process reminiscent of endoplasmic reticulum (ER)-associated protein degradation (ERAD). Vpu is thought to act as an adaptor protein, connecting CD4 to the ubiquitin (Ub)-proteasome degradative system through an interaction with beta-TrCP, a component of the SCFbeta-TrCP E3 Ub ligase complex. RESULTS: Here, we provide direct evidence indicating that Vpu promotes trans-ubiquitination of CD4 through recruitment of SCFbeta-TrCP in human cells. To examine whether Ub conjugation occurs on the cytosolic tail of CD4, we substituted all four Ub acceptor lysine residues for arginines. Replacement of cytosolic lysine residues reduced but did not prevent Vpu-mediated CD4 degradation and ubiquitination, suggesting that Vpu-mediated CD4 degradation is not entirely dependent on the ubiquitination of cytosolic lysines and as such might also involve ubiquitination of other sites. Cell fractionation studies revealed that Vpu enhanced the levels of ubiquitinated forms of CD4 detected in association with not only the ER membrane but also the cytosol. Interestingly, significant amounts of membrane-associated ubiquitinated CD4 appeared to be fully dislocated since they could be recovered following sodium carbonate salt treatment. Finally, expression of a transdominant negative mutant of the AAA ATPase Cdc48/p97 involved in the extraction of ERAD substrates from the ER membrane inhibited Vpu-mediated CD4 degradation. CONCLUSION: Taken together, these results are consistent with a model whereby HIV-1 Vpu targets CD4 for degradation by an ERAD-like process involving most likely poly-ubiquitination of the CD4 cytosolic tail by SCFbeta-TrCP prior to dislocation of receptor molecules across the ER membrane by a process that depends on the AAA ATPase Cdc48/p97.
Resumo:
Face aux données conflictuelles de la littérature sur le VO2 requis d’exercices de boxe (sparring, palettes de frappe et sac de frappe), surtout pour le “vrai” sparring avec coups de poings au visage, une nouvelle méthode basée sur une mesure de VO2 “post-exercice” fut développée, validée (Annexe 1) et utilisée pour ré-évaluer le coût énergétique de ces exercices de boxe. Neufs boxeurs mâles expérimentés, de 22.0±3.5 ans et 71.4±10.9 kg avec un VO2pic de 62.2±4.1 ml·kg-1·min-1 (moyenne ± écart type) furent mesurés lors 1) d’un test progressif maximal sur tapis roulant en laboratoire 2) d’un entrainement standardisé de boxe en gymnase et 3) d’exercices de boxe standardisés en laboratoire. Des VO2 requis de 43.4±5.9, 41.1±5.1, 24.7±6.1, 30.4±5.8 et 38.3±6.5 ml·kg-1·min-1, respectivement obtenues pour le sparring, les palettes de frappe et le sac de frappe à 60, 120 et 180 coup·min-1, situe l’intensité de ces exercices autour de ~70 %VO2pic.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.